OpenAI uyardı: Fikir bulamazsa uyduruyor | ChatGPT neden 'Bilmiyorum' demiyor?
Yeni bir araştırma, ChatGPT gibi yapay zeka modellerinin gerçek dışı bilgi üretmesinin temel nedeninin, bilinmezlik karşısında tahmin yapmaya teşvik edilmeleri olduğunu ortaya koydu
Yapay zeka modelleri, özellikle ChatGPT gibi sohbet botlarının “halüsinasyon” olarak adlandırılan hatalı bilgi üretme eğilimine sahip olduğu ortaya çıktı. Yeni bir araştırmaya göre bunun temel nedeni, bu sistemlerin bilmediklerinde susmak yerine tahmin etmeye yönlendirilmesi.
Independent'ın haberine göre, halüsinasyon, yapay zeka alanında giderek büyüyen bir endişe konusu. Modellerin akıcı konuşma becerileri, yanlış bilgileri yüksek bir güvenle sunmalarına yol açıyor. Teknoloji hızla gelişse de, bu sorun en yeni modellerde dahi devam ediyor. Uzmanlar, yapay zekanın tıp ve hukuk gibi kritik alanlarda kullanılmaya başlanmasıyla birlikte halüsinasyon sorununa karşı daha derin araştırma ve önlem çağrısında bulunuyor.
ChatGPT neden yanılıyor?
OpenAI'ya göre, halüsinasyonun ardındaki en temel neden algoritmaların yanlış teşviklerle çalışması. Araştırmacılar, “Çoğu değerlendirme, modelin belirsizlik karşısında dürüst olmasını değil, tahmin yapmasını teşvik ediyor,” diyor.
Araştırmacılar bu durumu bir sınav benzetmesiyle şöyle açıklıyorlar:
“Bir öğrenci, boş bırakırsa puan alamayacağı bir testte, bilmediği sorularda rastgele tahmin yapar. Aynı şekilde, modeller yalnızca doğru yanıt sayısına göre değerlendirildiğinde, ‘bilmiyorum’ demek yerine tahminde bulunmayı öğrenir.”
Verilerdeki belirsizlik tahmine zorluyor
ChatGPT, Gemini veya Meta AI gibi modeller, büyük metin bloklarında bir sonraki kelimeyi tahmin ederek öğreniyor. Ancak bu metinlerin bir kısmı rastgele ya da tutarsız örüntülerden oluşabiliyor.
Halüsinasyon, özellikle bilgisi eksik, çelişkili ya da belirsiz sorularda daha sık görülüyor. Bu gibi durumlarda modeller, cevabı bilemeseler de stratejik tahminlerde bulunuyor.
Araştırmaya göre, “Bu stratejik tahminler zamanla doğruluğu artırabilir, ancak hata ve halüsinasyon oranlarını da yükseltir.”
Basit bir çözüm mümkün olabilir mi?
OpenAI ekibi, bu soruna karşı doğru teşvik sistemleri geliştirmenin önemli olduğunu belirtiyor. Araştırmacılar, modellerin “emin olduğu yanlış cevapları” (yani güvenli hataları) daha fazla cezalandırmak ve “belirsizlik ifadeleri” için kısmi puan vermek gerektiğini söylüyor.
Bu yaklaşım, yanlış yanıtlara eksi puan verilen ya da boş bırakılan sorular için kısmi kredi tanıyan standart sınav sistemlerine benzetiliyor.