Yapay zekâ modelleri geliştikçe daha da güçlü hâle gelmektedir. Ancak bu gelişimle birlikte Yapay Zekâ Hallüsinasyonları da artmaktadır. Gerçekmiş gibi sunulan, ancak tamamen uydurma olan bilgiler ciddi güvenlik sorunlarına yol açabilmektedir.

OpenAI tarafından en yeni modellerden o3 ve o4-mini modelleri ile araştırma yürütüldü. Kişi tabanlı sorguların yer aldığı PersonQA testinde, %33 ve %48 oranında hayal ürünü yanıtlar verdi. Bu oran, daha önceki o1 modeline göre iki kat daha fazla. İlginç şekilde, doğruluk oranı artarken yanlış cevap üretme sıklığı da yükseliyor.

IEEE üyesi ve etik mühendisi Eleanor Watson, bu durumun özellikle kullanıcılar için ciddi riskler barındırdığını vurguluyor:

“Bir sistem, gerçek dışı bilgileri gerçeğe benzer bir akıcılıkla sunduğunda, kullanıcıları fark edilmeden yanıltabilmektedir. Bu, özellikle tıp, hukuk ve finans gibi hassas alanlarda ciddi zararlara yol açabilecektir.”

Yapay Zekâ Hallüsinasyonları Bir Hata Değil, Özelliktir

Vectra AI araştırmacısı Sohrob Kazerounian ise yapay zekânın yaratıcı çözümler üretmesi için hallüsinasyonlara ihtiyaç duyduğunu belirtmektedir:

“Bir LLM, yalnızca eğitim verilerinde yer alan cümleleri tekrar ederse, bu sistem sadece büyük bir arama motoruna dönüşür. Oysa yeni kodlar, özgün şarkı sözleri ya da bilinmeyen ilaç kombinasyonları üretmesi için veri dışına çıkabilmeli.”

Bu bağlamda hallüsinasyon, yapay zekânın düş kurma ya da hayal etme yetisinin karşılığı olarak görülmektedir. Bu hallüsinasyonlar tıpkı insan beyninin rüya görerek fikir üretmesi benzetilmektedir. LLM’ler de bilinçli olarak gerçek dışı ama yaratıcı sonuçlar üretebilmektedir.

Gelişmiş Zekâ, Derinleşen Yanılsama

Ne var ki, bu durum doğruluk beklentisi yüksek olan alanlarda karmaşık sonuçlar doğuruyor. Watson, yeni nesil modellerin daha az açık hata yapsa da, hataları çok daha ikna edici hale getirdiğini ifade ediyor:

“Artık sorun, kaba hataları ayıklamak değil, oldukça mantıklı görünen ama içeriği bozulmuş yanıtları tespit edebilmek.”

Bu yanıtlar, tutarlı anlatılar içinde küçük yanlışlıklar barındırdığı için, kullanıcılar tarafından kolayca fark edilemiyor. Bu da, yapay zekâya duyulan güveni uzun vadede zedeleyebilmektedir.

Anthropic CEO’su Dario Amodei’nin de belirttiği gibi, yapay zekâ sistemlerinin nasıl kararlar verdiği hâlâ net değil. Bir modelin neden belirli kelimeleri seçtiği ya da neden hata yaptığı konusunda derin bir kavrayış yok. Bu da, hataların önceden tespit edilmesini zorlaştırıyor. Yani yapay zeka yalan söylüyor da olabilir.

Yapay Zekâ Hallüsinasyonları İçin Çözüm Yolları: Yapay Zekâyı Denetlemek Mümkün mü?

Watson ve Kazerounian, hallüsinasyonların tamamen ortadan kaldırılmasının mümkün olmadığını düşünüyorlar. Ancak bazı yöntemlerle bu risklerin azaltılabileceğini belirtiyorlar:

  • Retrieval-Augmented Generation (RAG): Cevapların güvenilir dış kaynaklarla desteklenmesi.
  • Yapılandırılmış akıl yürütme: Modellerin kendi yanıtlarını kontrol etmesini, farklı perspektifleri karşılaştırmasını teşvik eden “scaffold” teknikleri.
  • Belirsizlik farkındalığı: Modellerin yanıtları konusunda emin olmadıklarında bunu belirtmeleri ve insan müdahalesine açık olmaları.

Tüm bu yöntemler, yapay zekâ sistemlerinin “her şeyi bilen makine” algısını yıkarak, onların bir yardımcı olarak görülmesini hedefliyor. Nihayetinde, LLM’lerin verdiği yanıtlar da tıpkı insan beyanları gibi şüpheyle karşılanmalıdır.

Gerçek mi, Hayal mi?

Yapay zekâların daha yaratıcı hale gelmesi, aynı zamanda onları daha güvensiz kılabilmektedir. Bu nedenle özellikle resmi, akademik ya da medikal verilerde yapay zekâya koşulsuz güvenmek, ciddi riskler doğurabilmektedir. Hallüsinasyonlar, yapay zekânın aşamadığı özelliklerinden olabilirler. Ancak doğru rehberlik, denetim ve bilinçli kullanım sayesinde, zarardan çok fayda üretmesi hâlâ mümkün.