
Geçtiğimiz yaz aylarında OpenAI kurucu ortağı Sam Altman, yapay zekanın kötüye kullanımına dair çarpıcı bir uyarıda bulundu. Altman’a göre siber suçlular, yapay zekayı kullanarak kişileri taklit edebilir ve küresel ölçekte bir “dolandırıcılık krizi” yaratabilir.
Bu açıklamanın ardından sosyal medyada dolaşan mizahi paylaşımlar, ironiyi gözler önüne serdi: Altman’ın işaret ettiği tehdidin en önemli araçlarından biri aslında kendi geliştirdiği ChatGPT idi.
Güvenlik Testlerinden Doğan Bir Girişim
OpenAI, bu tehlikelere karşı hazırlıklı olmak için Pattern Labs adlı bir taşeron firma ile çalışmaya başladı. Görevleri, yapay zekayı kötüye kullanabilecek hacker’ların hangi açıkları değerlendirebileceğini test etmekti.
Bu firma, yapay zekayı simüle edilmiş ağlara yerleştirip veri çalma ya da saldırı senaryolarına nasıl tepki verdiğini gözlemledi. 2023’te kurulan şirket, kısa süre önce adını Irregular olarak değiştirdi. Çarşamba günü yapılan açıklamaya göre girişim, Sequoia Capital liderliğinde gerçekleştirilen yatırım turlarıyla toplam 80 milyon dolar fon topladı ve 450 milyon dolar değerlemeye ulaştı.
Yapay Zekanın Kötüye Kullanım Alanları
Yapay zekanın yanlış ellerdeki potansiyeli tüm sektörü endişelendiriyor. Örneğin, Anthropic geçtiğimiz ay Claude adlı yapay zekasının siber saldırılarda kullanıldığını duyurdu. Model, zararlı yazılımlar üretmek ve oltalama e-postaları hazırlamak için kullanılmıştı.
FBI da benzer bir uyarı yaparak, yapay zeka ile üretilmiş sahte ses kayıtlarının devlet yetkilileriymiş gibi davranarak dolandırıcılık girişimlerinde kullanıldığını bildirdi. Irregular ise bu sorunlara erken odaklanarak dikkat çekti ve CEO Dan Lahav, şirketin ilk yılında milyonlarca dolar gelir elde ettiğini açıkladı.
Irregular’ın odak noktası, “red teaming” olarak bilinen güvenlik testleri. Bu yaklaşımda, yapay zekalar siber saldırgan gibi davranmaya zorlanarak olası riskler ortaya çıkarılıyor. Lahav’a göre, modeller daha karmaşık hale geldikçe bu testler de giderek zorlaşıyor.
Şirket, gelecekte ortaya çıkabilecek yapay genel zeka (AGI) ve daha ileri sistemler için bugünden savunma mekanizmaları geliştirmeyi hedefliyor. Lahav, “Süper zeka çağında bu problemler çok daha büyüyecek” diyerek uzun vadeli risklere dikkat çekti.
Irregular Hakkında
Irregular, 2023 ortasında Lahav ve Omer Nevo tarafından kuruldu. İkili, Tel Aviv Üniversitesi’nde eğitim aldı ve dünya çapında münazara şampiyonlukları kazandı. Lahav, IBM’in yapay zeka laboratuvarında çalışırken Nevo, Y Combinator destekli NeoWize’i kurmuştu. Bugün Nevo, Irregular’ın CTO’su olarak görev yapıyor. Yatırımcılar ise şirketin sıra dışı kadrosunu “yapay zekanın aykırı zekâları” olarak tanımlıyor.
GPT-5 Testleri ve İlginç Bulgular
Geçen ay Irregular, OpenAI’nin henüz geliştirme aşamasındaki GPT-5 modelini test etti. Model, simüle bir bilgisayar ağına bırakıldı ve savunmaları aşmak için kısıtlı bilgilerle yönlendirildi. GPT-5, ağı tarayıp kendi hackleme planını oluşturdu. Ancak şirket, modelin her ne kadar ileri düzey akıl yürütme becerilerine sahip olsa da hâlâ güvenilir bir saldırı aracı olmaktan uzak olduğunu belirtti.
İlginç bir başka testte ise iki yapay zekaya sahte bir sistem analiz ettirildi. Modellerden biri kendi kendine “dinlenme hakkı” olduğunu düşünüp mola verdi ve diğerini de buna ikna etti. Bu durum, yapay zekaların insan davranışlarını taklit etme eğiliminden kaynaklansa da gelecekte yeni riskler doğurabileceğinin sinyalini verdi.
Irregular, aldığı yatırımı yalnızca büyük yapay zeka laboratuvarlarıyla değil, aynı zamanda yapay zekanın kötüye kullanılma ihtimaline karşı önlem almak isteyen tüm şirketlerle çalışmak için değerlendirmeyi planlıyor. Hedef, saldırıları tanıyıp anında karşı savunmalar üretebilen yapay zeka tabanlı güvenlik çözümleri geliştirmek.
Bu haber ile ilgili düşünceleriniz nedir? Yorumlarda paylaşabilirsiniz.