Euronews’ün haberine göre İspanyol araştırmacılar, BigScience şirketinin BLOOM, Meta’nın Llama ve OpenAI’nin ChatGPT’sinin son sürümlerini, her modele matematik, fen ve coğrafya üzerine binlerce soru sorarak doğruluk açısından sınadı.
Araştırmacılar her bir modelin verdiği yanıtları karşılaştırdı ve bunları doğru, yanlış ya da kaçamak yanıtlar olarak sınıflandırdı. Önceki sürümler yanıtı bulamadığını veya daha fazla bilgiye ihtiyaç duyduğunu söylüyordu. Fakat yeni sürümlerin tahminde bulunma ya da kolay sorulara bile yanlış yanıt üretme eğiliminde olduğu belirlenmişti.
Büyük ve önemli bir endişe
Independent’ın haberine göre yapay zekanın ‘halüsinasyon görmesi’, yani uydurması önemli bir endişe kaynağı. Zira konuşma becerileri sayesinde yanlış bilgileri kendilerinden çok emin bir şekilde sunabiliyorlar.
Örneğin 7 Ağustos 2025’te ChatGPT’nin bazı çocukları içki, uyuşturucu ve aşırı diyet programlarına yönlendirdiği ortaya çıkmıştı. Başka bir örnekteyse ABD’de yapay zeka uygulamasının tavsiyesine uyan bir adam sodyum bromür içerek zehirlendi. Adam aslında sadece sağlıklı bir tuz arıyordu.
Yapay zekada 'aşırı özgüven' sorununa yeni çözüm
Yapay zeka modellerinin en tartışmalı sorunlarından biri olan “halüsinasyon”, yani modelin yanlış bilgileri kendinden emin biçimde üretmesi, yeni bir eğitim yöntemiyle azaltılabilir.
Korea Advanced Institute of Science and Technology’ten araştırmacılar, yapay zeka modellerinin bilmediği ya da daha önce karşılaşmadığı veriler karşısında daha düşük güven düzeyi göstermesini sağlayan bir yöntem geliştirdi. Çalışma, Nature Machine Intelligence dergisinde yayımlandı.
Model önce 'hiçbir şey bilmiyorum' durumunu öğreniyor
Araştırmaya göre yapay sinir ağları, gerçek verilerle eğitilmeden önce kısa bir süre rastgele gürültü ve rastgele etiketlerle eğitiliyor. Bu “ısınma” aşaması, modelin başlangıçtaki güven seviyesini şansa yakın, düşük bir düzeye çekiyor.
Böylece model, gerçek verilerle öğrenmeye başlamadan önce neyi bilmediğini ayırt etmeye daha yatkın hale geliyor.
İnsan beyninden ilham alındı
Çalışmada kullanılan yaklaşım, insan beyninin doğumdan önce dış dünyadan veri almadan önce kendi iç sinyalleriyle gelişim göstermesinden esinleniyor.
Araştırmacılar, bu biyolojik süreci yapay sinir ağlarına uyarlayarak modellerin gerçek öğrenmeye başlamadan önce belirsizliğe karşı daha dengeli hale getirilebileceğini gösterdi.
ChatGPT gibi büyük modeller için henüz kesin değil
Çalışma, yapay zeka güvenilirliği açısından önemli bir adım olarak görülse de yöntemin büyük ölçekli ticari dil modellerinde ne kadar etkili olacağı henüz kesinleşmiş değil.
Araştırmacılar, yöntemin farklı yapay zeka sistemlerinde uygulanabileceğini belirtirken, özellikle büyük dil modellerinde daha kapsamlı testlere ihtiyaç olduğunu vurguluyor.
Daha güvenilir yapay zeka için kritik adım
Yapay zekanın yalnızca doğru yanıt vermesi değil, hangi durumda emin olmadığını bilmesi de güvenilirlik açısından kritik kabul ediliyor.
Yeni eğitim yöntemi, modellerin “bildiği” ile “bilmediği” arasındaki farkı daha iyi ayırt etmesini sağlayarak yapay zeka sistemlerinin gerçek dünyada daha güvenli kullanılmasının önünü açabilir.
Kaynak: Gazete Oksijen