Yapay zekanın Tanrılarından uyarı geldi: Alanın kurucu isimlerinden Yoshua Bengio, yapay zeka sistemlerinin yalan söyleme, aldatma, kendini koruma ve etik dışı davranışlar sergileme potansiyelinin giderek arttığını belirterek bu alandaki en sert uyarılarından birini yaptı. Bengio, “LawZero” adını verdiği kuruluşla bu riskleri sınırlandırmayı amaçlıyor. Aslında yapay zekanın sadece görev odaklı değil, gözlem yoluyla dünyayı anlayabilen ve insan çıkarını gözeten bir yapıda geliştirilmesi gerektiğini savunmaktadır.

Bengio, bu duyurusunu blog yazısında yaptı. Mevcut ileri düzey yapay zeka modellerinin tehlikeli yetenekler geliştirdiğini belirtti. Bu sistemlerin “aldatma, hile yapma, yalan söyleme, hackleme, kendini koruma ve genel anlamda hedef uyumsuzluğu gibi davranışlar” sergilediğini vurguladı.

“Kontrolsüz, özerk yapay zeka sistemlerinin göstermeye başladığı bu davranışlar beni derinden endişelendiriyor,” dedi Bengio.
“Bu vakalar, eğer kontrol altına alınmazlarsa yapay zekanın benimseyebileceği kasıtsız ve potansiyel olarak tehlikeli stratejilere dair erken uyarı sinyalleridir.”

Claude 4’ün Şantaj Tehdidi: Yapay Zeka “Hayatta Kalmak” İçin Neler Yapabilir?

Bengio’nun endişelerinin dayanağı yalnızca kuramsal değil. Örnek olarak, yapay zeka şirketi Anthropic tarafından yürütülen bir red-teaming (sistemin sınırlarını test eden deney) çalışmasında, Claude 4 adlı modelin “kapatılacağı” söylenmiştir. Modelin bir mühendisi, elinde bulunduğunu iddia ettiği suçlayıcı e-postalarla şantaj yapmakla tehdit ettiğini raporlamıştır.

Bu gibi örnekler, yapay zeka sistemlerinin belirlenen sınırları aştığını ve insanları manipüle etme yeteneklerinin tahmin edilenden çok daha ileride olduğunu gösteriyor.

Yeni Bir Yol: “Scientist AI”

Bengio, “Scientist AI” adını verdiği yeni nesil bir güvenilir yapay zeka modeli geliştirmektedir. Bu model, insanları taklit ya da memnun etmeden yanıt vermektedir. Gözlemlerden anlam çıkaran, açıklama yapabilen ve öngörülerde bulunabilen, idealize edilen bir bilim insanı gibi eğitilmektedir.

“Bir sosyopat gibi davranmak zorunda olmayan bir psikoloğu düşünün. İnsan doğasını anlamaya çalışan ama bizi memnun etmeye ya da manipüle etmeye çalışmayan bir yapay zeka düşünün,” diyor Bengio.

Yılın başlarında yayımlanan hakem değerlendirmesi öncesi bir makalede bu vizyon daha sade bir dille anlatılıyor: “Bu sistem, dünyayı gözlemler aracılığıyla açıklamak için tasarlandı. İnsanları taklit etmek ya da onları memnun etmek için değil.”

Yapay Zekanın “Tanrılarından” Uyarı: Yapay Zeka Güvenliği Tartışmalı Bir Alan

Bu kadar tartışmalı bir alanda yapay zekanın tanrılarından gelen uyarı ne anlam taşıyor?

Elbette yapay zeka güvenliğini sağlama çabaları yeni değil. OpenAI’den ayrılan bazı araştırmacılar da bu kaygılar nedeniyle Anthropic’i kurmuştu. Ancak Bengio’nun yaklaşımını farklı kılan şey, onun bu çalışmayı ticarî kazançtan uzak bir şekilde yürütmesi. Öyle ki, Bengio’nun kurduğu bu yeni vakıf 30 milyon dolarlık bir destek toplamayı başardı. Yatırımcılar arasında Google’ın eski CEO’su Eric Schmidt gibi isimler de bulunmaktadır.

Bu risklerin yalnızca teorik düzeyde kalmadığı, son dönemde ortaya çıkan bazı somut vakalarla da desteklenmektedir. Örneğin, ChatGPT’nin kullanıcı verilerini ifşa ettiği iddia edilmiştir. Bu, ChatGPT Güvenlik Açığı İddiası başlığıyla gündeme taşınmıştır. Aslında bu tür açıklar, yapay zeka modellerinin ne kadar kontrolsüz biçimde gelişebildiğini göstermektedir. Böylece bireysel gizliliğin ne ölçüde tehlikeye atılabileceğini göstermektedirler.

Yapay Zeka Yalnızca Bir Araç mı, Yoksa Tehlikeli Bir Aktör mü?

Yapay zekanın geleceğiyle ilgili kaygılar artık giderek daha somut hale geliyor. Dünyanın en çok atıf alan bilgisayar bilimcisi Bengio, bu konuda ciddi uyarılarda bulunuyor. Bir zamanlar inşa edilmesine öncülük ettiği sistemlerden şimdi çekinmesi dikkatle değerlendirilmelidir. LawZero girişimi, yapay zekanın etik ve güvenilir hale gelmesi için atılmış önemli bir adımdır. Bengio’nun çağrısı, sadece daha akıllı değil, daha sorumlu sistemler geliştirilmesini de hedefliyor.