12 Mayıs 2026, Salı
Gece Modu Gece Modu Gündüz Modu Gündüz Modu
Haber Giriş: 12.05.2026 11:30 | Son Güncelleme: 12.05.2026 12:00

Yapay zeka sonunda 'bilmiyorum' demeyi öğreniyor

Güney Koreli araştırmacılar, yapay zeka modellerinin bilmediği konularda aşırı özgüvenli yanıtlar vermesini azaltabilecek yeni bir eğitim yöntemi geliştirdi. Rastgele gürültüyle yapılan 'ısınma eğitimi', modellerin belirsizliği daha doğru tanımasını sağlayıp halüsinasyon riskini düşürmeyi hedefliyor
Fotoğraf: AI ile üretilmiştir
Fotoğraf: AI ile üretilmiştir
A+ Yazı Boyutunu Büyüt A- Yazı Boyutunu Küçült

Euronews’ün haberine göre İspanyol araştırmacılar, BigScience şirketinin BLOOM, Meta’nın Llama ve OpenAI’nin ChatGPT’sinin son sürümlerini, her modele matematik, fen ve coğrafya üzerine binlerce soru sorarak doğruluk açısından sınadı.

Araştırmacılar her bir modelin verdiği yanıtları karşılaştırdı ve bunları doğru, yanlış ya da kaçamak yanıtlar olarak sınıflandırdı. Önceki sürümler yanıtı bulamadığını veya daha fazla bilgiye ihtiyaç duyduğunu söylüyordu. Fakat yeni sürümlerin tahminde bulunma ya da kolay sorulara bile yanlış yanıt üretme eğiliminde olduğu belirlenmişti.

Büyük ve önemli bir endişe

Independent’ın haberine göre yapay zekanın ‘halüsinasyon görmesi’, yani uydurması önemli bir endişe kaynağı. Zira konuşma becerileri sayesinde yanlış bilgileri kendilerinden çok emin bir şekilde sunabiliyorlar.

Örneğin 7 Ağustos 2025’te ChatGPT’nin bazı çocukları içki, uyuşturucu ve aşırı diyet programlarına yönlendirdiği ortaya çıkmıştı. Başka bir örnekteyse ABD’de yapay zeka uygulamasının tavsiyesine uyan bir adam sodyum bromür içerek zehirlendi. Adam aslında sadece sağlıklı bir tuz arıyordu.

Yapay zekada 'aşırı özgüven' sorununa yeni çözüm

Yapay zeka modellerinin en tartışmalı sorunlarından biri olan “halüsinasyon”, yani modelin yanlış bilgileri kendinden emin biçimde üretmesi, yeni bir eğitim yöntemiyle azaltılabilir.

Korea Advanced Institute of Science and Technology’ten araştırmacılar, yapay zeka modellerinin bilmediği ya da daha önce karşılaşmadığı veriler karşısında daha düşük güven düzeyi göstermesini sağlayan bir yöntem geliştirdi. Çalışma, Nature Machine Intelligence dergisinde yayımlandı.

Model önce 'hiçbir şey bilmiyorum' durumunu öğreniyor

Araştırmaya göre yapay sinir ağları, gerçek verilerle eğitilmeden önce kısa bir süre rastgele gürültü ve rastgele etiketlerle eğitiliyor. Bu “ısınma” aşaması, modelin başlangıçtaki güven seviyesini şansa yakın, düşük bir düzeye çekiyor.

Böylece model, gerçek verilerle öğrenmeye başlamadan önce neyi bilmediğini ayırt etmeye daha yatkın hale geliyor.

İnsan beyninden ilham alındı

Çalışmada kullanılan yaklaşım, insan beyninin doğumdan önce dış dünyadan veri almadan önce kendi iç sinyalleriyle gelişim göstermesinden esinleniyor.

Araştırmacılar, bu biyolojik süreci yapay sinir ağlarına uyarlayarak modellerin gerçek öğrenmeye başlamadan önce belirsizliğe karşı daha dengeli hale getirilebileceğini gösterdi.

ChatGPT gibi büyük modeller için henüz kesin değil

Çalışma, yapay zeka güvenilirliği açısından önemli bir adım olarak görülse de yöntemin büyük ölçekli ticari dil modellerinde ne kadar etkili olacağı henüz kesinleşmiş değil.

Araştırmacılar, yöntemin farklı yapay zeka sistemlerinde uygulanabileceğini belirtirken, özellikle büyük dil modellerinde daha kapsamlı testlere ihtiyaç olduğunu vurguluyor.

Daha güvenilir yapay zeka için kritik adım

Yapay zekanın yalnızca doğru yanıt vermesi değil, hangi durumda emin olmadığını bilmesi de güvenilirlik açısından kritik kabul ediliyor.

Yeni eğitim yöntemi, modellerin “bildiği” ile “bilmediği” arasındaki farkı daha iyi ayırt etmesini sağlayarak yapay zeka sistemlerinin gerçek dünyada daha güvenli kullanılmasının önünü açabilir.

Kaynak: Gazete Oksijen