Son günlerde teknoloji dünyasındaki ChatGPT güvenlik açığı iddiası ciddi yankı uyandırdı. Yapay zekâ tabanlı sohbet platformlarının da geleneksel siber tehditlere açık olabileceğini gündeme taşınmıştır. CVE-2025-43714 koduyla anılan bu iddiaya göre, ChatGPT’nin paylaşılan konuşmalarında yer alan SVG (Scalable Vector Graphics) formatındaki görseller üzerinden kötü niyetli içerikler çalıştırılmaktaydı. Görseller özellikle tarayıcılarda doğrudan HTML olarak işlenmektedir. Böylece kullanıcıların zararlı kodlarla etkileşime girmesine yol açabilen bir XSS (Cross-Site Scripting) açığına işaret ediyordu. Bu konu OpenAI tarafından henüz tamamen doğrulanmadı. Ancak şirketin link paylaşım özelliğini devre dışı bırakması, iddianın ciddiyetini güçlendiriyordu.

ChatGPT Güvenlik Açığı İddiası: SVG Dosyaları Üzerinden XSS Tehlikesi

İddialara göre, ChatGPT üzerinden paylaşılan konuşmalarda yer alan SVG formatındaki dosyalar, kullanıcı tarayıcılarında görsel yerine doğrudan HTML olarak çalıştırılmaktaydı. Bu durum, zararlı kodların sessizce tetiklenmesine olanak tanıyordu. SVG dosyalarının XML tabanlı olması, JavaScript veya HTML kodu barındırmasına imkân vermektedir. Ve bu da görsel gibi gözüken içeriklerin birer saldırı aracına dönüşmesini sağlamaktadır.

Güvenlik araştırmacılarına göre bu açık, fark edilmeden kötü niyetli saldırılar için de kullanılabilmektedir. Saldırganlar, sahte müşteri hizmetleri pencereleri ve yönlendirme butonları oluşturabilmektedir. Ayrıca, epilepsiye sebep olabilen ışıklı efektlerle donatılan içerikler üretmeleri de mümkündür. Özellikle bu içerikler, hassas kullanıcılar için ciddi sağlık riskleri doğurabilmektedir. Bu, sosyal mühendislik saldırılarıyla birleştiğinde, tehdit çok daha karmaşık bir hale gelebilmektedir. Kullanıcılar, gerçek içerikle sahteyi ayırt etmekte zorlanabilmektedir. Bu durum, yapay zekâ temelli platformlarda güvenlik sınırlarını yeniden düşündürmektedir.

OpenAI’dan Müdahale: Önlem mi, Kabul Edilmiş Risk mi?

Kullanıcı Güveni ve Yeni Nesil Tehditler

İddiaların ardından OpenAI sessiz ama dikkat çeken bir adım attı. ChatGPT sohbetlerinin bağlantı yoluyla paylaşılması geçici olarak durduruldu. Bu müdahale, güvenlik açığının tamamen asılsız olmadığını düşündürüyor. Ancak henüz resmi bir teknik açıklama yapılmadı. Ne açığın varlığı ne de kalıcı bir çözüm doğrulanmadı.

ChatGPT gibi yapay zekâ platformlarının avantajı, hızlı ve güvenilir içerik sunabilmesidir. Fakat bu güvenin kötüye kullanılması saldırganlara yeni fırsatlar yaratabiliyor. Kullanıcılar, yapay zekâdan gelen içeriklere genellikle daha az şüpheyle yaklaşıyor. Ancak masum görünen görseller zararlı yapılar içerebilmektedir. Bu da kullanıcıları görünmez bir tehditle baş başa bırakabiliyor.

Bu durum, klasik web açıklarının AI sistemlerinde nasıl yeniden üretilebildiğini ortaya koyuyor. Ayrıca yapay zekâ ortamında bu açıkların daha tehlikeli hâle gelebildiği açıkça görülmektedir. Güvenliğin sadece teknik önlemlerle değil, kullanıcı farkındalığıyla da sağlanması gerekiyor.

Yapay Zekâ, Güvenlik Sorunlarını Yeniden Tanımlıyor

Geleneksel güvenlik açıkları artık yalnızca internet siteleri ya da uygulamalar için geçerli değil. ChatGPT güvenlik açığı iddiası, yapay zekâ arayüzlerinin de görsel içerikler üzerinden manipüle edilebileceğini, hatta bunun kullanıcı sağlığını dahi tehlikeye atabileceğini gösteriyor.

AI platformlarının geleceği için sadece doğru bilgi değil, aynı zamanda güvenli bilgi akışı da en az içerik üretim kapasitesi kadar önem taşıyacak gibi görünüyor.