05 Aralık 2025, Cuma
Haber Giriş: 14.08.2025 10:04 | Son Güncelleme: 14.08.2025 10:46

OpenAI'dan açıklama geldi: Diyet için ChatGPT kullandı, halüsinasyon görüp hastanelik oldu

Tuz kullanmamak için ChatGPT'den alternatif isteyen 60 yaşında ABD'linin yaşadıkları dünya medyasında ses getirdi. Konuyla ilgili OpenAI ve uzmanlar açıklama yaptı
OpenAI'dan açıklama geldi: Diyet için ChatGPT kullandı, halüsinasyon görüp hastanelik oldu
A+ Yazı Boyutunu Büyüt A- Yazı Boyutunu Küçült

ABD’de 60 yaşındaki bir adam, sofra tuzunu (sodyum klorür) sağlığı için bırakmak isteyince, diyet önerisi almak amacıyla ChatGPT ile konuşmaya başladı. Yapay zekanın önerisiyle tuz yerine sodyum bromür kullanmaya başlayan adam, üç ay boyunca bu maddeyi tüketti. Ancak sodyum bromür, gıda olarak kullanılmayan, toksik bir bileşik.

Temizlik ve sanayide kullanılıyor

Geçmiş yıllardı antikonvülsan ve sakinleştirici olarak kullanılan sodyum bromür, günümüzde temizlik, üretim ve tarım alanlarında kullanılıyor. Ulusal Sağlık Enstitüleri’ne göre insan tüketimine uygun olmayan bu madde, uzun süreli maruziyette “bromizm” denilen ciddi sağlık sorunlarına yol açabiliyor.

Hastaneye yatırıldı, halüsinasyon gördü

Adam hastaneye başvurduğunda yorgunluk, uykusuzluk, koordinasyon bozukluğu, yüzde akne, ciltte kırmızı kabarcıklar, aşırı susuzluk gibi bromizm belirtileri gösterdi. Ayrıca komşusunun kendisini zehirlediğini iddia ederek paranoya sergiledi; işitsel ve görsel halüsinasyonlar yaşadı. Kaçmaya çalışmasının ardından psikiyatrik gözetime alındı.

Hastanede üç hafta boyunca damar yoluyla sıvı ve elektrolit tedavisi ile antipsikotik ilaç uygulandıktan sonra taburcu edildi.

“Doktorun önermeyeceği bir madde”

Vaka çalışmasını yayımlayan uzmanlar, bir insan doktorunun sodyum klorür yerine sodyum bromür önermesinin “son derece düşük ihtimal” olduğunu belirtti. “ChatGPT ve diğer yapay zeka sistemleri, yanlış ve tehlikeli önerilerle önlenebilir sağlık sorunlarına yol açabilir” değerlendirmesi yapıldı.

Uzmanlardan uyarı

San Francisco merkezli biyoteknoloji şirketi Centivax’ın CEO’su Dr. Jacob Glanville, ChatGPT’nin bir doktor olmadığını vurguladı:

'Bunlar dil tahmin araçlarıdır. Ortaya çıkan önerileri sorgulamadan uygulamak tehlikeli sonuçlar doğurur'

Acil tıp uzmanı Dr. Harvey Castro ise büyük dil modellerinin kelime dizilerini istatistiksel olasılıklara göre ürettiğini, bilgi doğrulaması yapmadığını hatırlattı:

'ChatGPT’nin bromür hatası, sağlık tavsiyelerinde bağlamın ne kadar kritik olduğunu gösteriyor'

Castro, bu tür durumların önlenmesi için yapay zekaların tıbbi bilgi tabanlarıyla entegre edilmesi, risk uyarı sistemleri geliştirilmesi ve insan denetimiyle çalışması gerektiğini söyledi.

OpenAI’den açıklama

ChatGPT’nin üreticisi OpenAI, Fox News Digital’e yaptığı açıklamada şu ifadeleri kullandı:

'ChatGPT herhangi bir sağlık durumunun tedavisinde kullanılmak üzere tasarlanmamıştır ve profesyonel tavsiye yerine geçmez. Riskleri azaltmak için güvenlik ekiplerimiz çalışıyor ve kullanıcıları profesyonel rehberliğe yönlendirecek şekilde sistemlerimizi eğittik'

Kaynak: Gazete Oksijen