Artan Kullanımla Birlikte Yapay Zeka Halüsinasyon Sorunu Büyüyor
- begum guvenc
- 15 Tem
- 3 dakikada okunur
Yapay zeka modelleri, gün geçtikçe hayatımızı kolaylaştıran ve bilgiye erişimi hızlandıran güçlü bir araç konumuna geliyor. Ancak bu gelişmelerle birlikte OpenAI gibi şirketlerin geliştirdiği yeni akıl yürütme sistemlerinde, yanlış bilgi üretme oranında şaşırtıcı bir artış gözlemleniyor. Bir kişinin gerçek olmayan duyuları algılaması ve sanıları alması “halüsinasyon” olarak tanımlandığı gibi yapay zekaların gerçekte olmayan yanıltıcı bilgiler üretmesine de “yapay zeka halüsinasyonu” deniyor. Sohbet botları başta olmak üzere pek çok yapay zeka aracı, dünya genelinde yüz milyonlarca insan tarafından gündelik hayattaki pek çok işi halletmek ve bilgiye erişimi hızlandırmak için tüketiliyor. Bu araçların yaygın kullanımı nedeniyle yapay zekanın yanlış bilgilerle karşılaşılma sıklığı, bazı endişeleri kaçınılmaz hale getiriyor.

Geçtiğimiz aylarda Cursor AI kullanıcılarının karşılaştığı bir durum, bu konuya ilginç bir örnek. Cursor AI, yazılım geliştiricilerine yönelik tasarlanmış bir yapay zeka destekli kod yazma ve düzenleme aracıdır ve kullanıcıların yazılım geliştirme süreçlerini hızlandırmak ve kolaylaştırmayı hedefler. Cursor, kullanıcıların yazdığı kodu anlayarak hatayı tespit eder, önerilerde bulunur ve kod üretimi yapar. Kullanıcılar, bu programlama aracının kendi yapay zeka botunun aslında mevcut olmayan bir kısıtlamanın olduğunu söylemesiyle karşılaştı. Bazıları, programı farklı bilgisayarlarda eş zamanlı kullanmaya çalışırken yazılımdan atıldı. Bu problem karşısında birden fazla bilgisayarda oturum açmanın neden mümkün olmadığını destek ekibine sorduklarında ise bu durumun “beklenen bir politika” olduğu cevabını aldılar. Ancak bu cevabı veren gerçek bir insan değil, şirketin yapay zeka destek botuydu. Üstelik bu politika tamamen bot tarafından uydurulmuştu.
Yaşanan karışıklık sonrası Cursor’un kurucusu Michael Truell, Reddit’te, “Bizim böyle bir politikamız yok. Cursor’u istediğiniz kadar çok bilgisayarda kullanabilirsiniz. Maalesef destek için kullandığımız yapay zeka botu yanlış bilgi verdi. Güvenliği artırmak amacıyla yaptığımız bir güncelleme bazı oturumların beklenmedik şekilde kapanmasına sebep olmuş olabilir. Bunu araştırıyoruz.” diye açıklamada bulundu.
Yapay zeka halüsinasyonlarıyla ilgili yaşanan bir diğer olay ise, 2023 yılında gerçekleşen Roberto Mata v. Avianca Inc. davasıdır. Bu olayda avukat Steven A. Schwartz, müvekkilini temsil ederek mahkemeye sunduğu dilekçeyi ChatGPT aracılığıyla oluşturur. Ancak sonradan, oluşturulan dilekçenin yapay zeka tarafından uydurulan sahte davalara dayandığı, içindeki alıntı ve atıfların da tamamen uydurma olduğu tespit edilir. Yargıçın, kararı “uydurma” olarak nitelendirmesi üzerine Schwartz, ChatGPT’yi kendi araştırmalarını tamamlamak amacıyla kullandığını söyleyip yapay zeka kullandığını doğrular ve 30 yıllık meslek hayatında ilk kez ChatGPT’yi kullandığını ve yanlış bilgi verebileceğini bilmediğini ifade eder. Yaşanan bu olay, yapay zeka araçlarının her ne kadar güvenilir ve mantıklı görünse de kurgusal olan içerikler üretebileceği gerçeğini gözler önüne seriyor.
Aynı şekilde 2023 yılında ABD’li Hukuk Profesörü olan Jonathan Turley de, ChatGPT’nin sunduğu uydurma bilgilerin kurbanı oldu. Kaliforniya Üniversiteli (UCLA) bir profesör, ChatGPT’den ABD’deki hukuk fakültelerinde yaşanan cinsel taciz vakalarına örnek vermesini istemesi karşılığında bot, Turley hakkında doğruluğu bulunmayan bir cinsel taciz iddiası ortaya attı. Turley’nin Georgetown Üniversitesi’nde bir öğrencisini Alaska gezisinde taciz ettiğine dair sahte bir haber sundu. Turley ise bu üniversitede hiç çalışmadığını, Alaska’ya gitmediğini ve böyle bir suçlamayla hiç karşılaşmadığını dile getirdi. Üstelik yapay zeka, bu bilginin kaynağının 2018 yılında yayımlanan Washington Post makalesi olduğunu belirtse de aslında böyle bir makale mevcut değildi.
OpenAI’nin sözcüsü Niko Felix, bu durum karşısında yaptığı açıklamada, “Kullanıcılar ChatGPT’ye kaydolduğunda, her zaman doğru yanıtlar üretmeyebileceğini olabildiğinde şeffaf bir şekilde belirtiyoruz. Bilgilerin doğruluğunu artırmak bizim için önemli bir odak noktası ve ilerleme kaydediyoruz.” ifadelerinde bulunmuştu.
Yapay zeka modellerinin zaman zaman doğru olmayan, uydurma veya tutarsız bilgiler verdiği biliniyor. Bilim dünyasında “halüsinasyon” olarak adlandırılan bu sorun tamamen engellenemese de üzerinde çalışmalar sürüyor. Bazı şirketler, yapay zeka destek botlarının bu şekilde yanlış bilgi vermesini azaltmak için testler yapıyor, ancak tam başarıya henüz ulaşılamadığı görülüyor.
Peki bu halüsinasyonlara neler sebep oluyor? Bu soruya verilebilecek ilk cevap, eğitim verilerinin kalitesiz veya hatalı olması. Yapay zeka, cevapları öğrendiği veriler aracılığıyla oluşturur ve bu verilerin eksik veya yanlış olması durumunda yanlış cevaplar vermesi kaçınılmaz. Ayrıca yapay zeka çok farklı kaynaklardan veri alabilir. Bu kaynakların çelişkili ya da mantıksız bilgiler içermesi de yapay zekanın yanıltıcı bilgiler vermesine yol açabilir. Ek olarak yapay zeka, önceki kelimeler ve cümlelerden yola çıkarak sonraki kelimeleri tahmin eder. Ancak bu tahminler kesin bir doğruluğu garanti etmez. Anlam bütünlülüğünü tam olarak yakalayamadığı zaman yanlış olabilecek tahminlerde bulunabilir. Bunlar, modeli hata yapmaya sürükleyen nedenler arasında.
Şu anda yapay zeka halüsinasyonları ile ilgili yaşanan olaylar her ne kadar küçük ve zararsız görünse de bu araçların diğer alanlara entegresinin gerçekleştirilmesi durumunda bu sorunun büyük bir tehlikeli barındırabileceği ihtimalinin ele alınması gerekiyor. Yapay zeka; sağlık, sosyal hizmet ve hukuk gibi farklı alanların içine daha çok dahil olmaya başlandıkça bu tür halüsinasyonlar yanlış teşhis ve haksız cezalandırmalar gibi büyük sonuçlara yol açabilir. Bu nedenden dolayı bu araçların etki alanı genişletilmeden önce bu gibi risklerin değerlendirilmesi ve halüsinasyonlara çözüm bulunulması büyük önem taşıyor.
Yağmur Ece Nisanoğlu tarafından editlendi.


