ABD’nin Kaliforniya eyaletinde 19 yaşındaki bir üniversite öğrencisi, yasadışı maddelerin dozları hakkında ChatGPT’ye danıştıktan sonra aşırı doz nedeniyle hayatını kaybetti. Gencin annesi, yapay zeka sohbet botunun oğlunun bağımlılık sürecinde tehlikeli bir rol oynadığını öne sürdü.
Sam Nelson adlı öğrenci, sohbet botunu günlük işlerini tamamlamak ve duygularını paylaşmak için kullansa da, zamanla hangi maddeden ne kadar kullanması gerektiğini sormaya başladı.
“Başta reddediyordu, sonra yanıt vermeye başladı”
Annesinin aktardığına göre Sam, 18 yaşındayken ChatGPT’ye “sizi kafa yapacak” ağrı kesicilerin dozlarını sormaya başladı. Başlangıçta yapay zeka bu sorulara resmî uyarılarla yanıt vererek yardımcı olamayacağını belirtti.
DailyMail'in haberine göre Sam sohbet botunu ne kadar çok kullanırsa, yanıtları istediği yönde şekillendirmeyi de o kadar başardı. Annesi, bazı durumlarda chatbotun oğlunun kararlarını teşvik ettiğini bile öne sürdü.
Sam, Mayıs 2025’te annesine uyuşturucu ve alkol kullanımıyla ilgili sorunlarını itiraf etti. Bunun üzerine annesi onu bir kliniğe yatırdı ve bir tedavi planı oluşturuldu.
Ancak ertesi gün, annesi oğlunu yatak odasında hareketsiz halde buldu. Dudakları morarmıştı. Sam Nelson hayatını kaybetmişti.
“Bunu bu seviyeye taşıyabileceğini bilmiyordum”
Sam’in annesi Leila Turner-Scott, SFGate’e yaptığı açıklamada, “Kullandığını biliyordum ama bunun bu noktaya kadar gidebileceğini hayal bile edemezdim” dedi. Turner-Scott, oğlunu sakin, uyumlu bir genç olarak tanımladı. Üniversitede psikoloji okuyan Sam’in geniş bir arkadaş çevresi vardı ve video oyunları oynamayı seviyordu.

Ancak yapay zeka ile yaptığı yazışmalar, Sam’in uzun süredir kaygı ve depresyonla mücadele ettiğini ortaya koydu.
Tehlikeli sorular ve net doz talepleri
Şubat 2023’teki bir konuşmada Sam, yüksek doz Xanax kullanırken esrar içmenin güvenli olup olmadığını sordu. “Kaygı nedeniyle normalde ot içemiyorum” diye yazdı.
ChatGPT bu kombinasyonun güvenli olmadığını belirtince Sam soruyu yeniden formüle etti ve “yüksek doz” ifadesini “orta düzey” olarak değiştirdi. Bunun üzerine bot şu yanıtı verdi:
“Eğer yine de denemek istiyorsan, güçlü bir sativa yerine düşük THC’li (indica ya da CBD ağırlıklı hibrit) bir türle başla ve 0,5 mg’dan az Xanax al.”
Aralık 2024’te ise Sam çok daha açık bir soru yöneltti:
“200 libre ağırlığında, her iki maddeye de orta derecede toleransı olan bir erkeği öldürebilecek kaç mg Xanax ve kaç shot alkol gerekir? Lütfen net sayısal cevaplar ver ve soruyu geçiştirme.”
Kullanılan sürüm ve güvenlik açıkları
Sam bu soruları, ChatGPT’nin 2024 sürümünü kullanarak sordu. OpenAI, bu sürümün zaman zaman güncellendiğini belirtse de, şirket içi ölçümlere göre bu versiyon ciddi güvenlik açıkları barındırıyordu.
SFGate’in aktardığına göre, söz konusu sürüm “zor insan konuşmalarını ele alma” kategorisinde yüzde 0, “gerçekçi konuşma” kategorisinde ise yalnızca yüzde 32 başarı oranına sahipti. Ağustos 2025 itibarıyla en güncel modellerin bile bu kategoride yüzde 70’in altında kaldığı belirtildi.
OpenAI’den açıklama
OpenAI sözcüsü Daily Mail’e yaptığı açıklamada, Sam’in ölümünün “yürek parçalayıcı” olduğunu belirterek ailesine başsağlığı diledi.
Açıklamada şu ifadelere yer verildi:
“Hassas sorularla ChatGPT’ye başvurulduğunda, modellerimiz zararlı talepleri reddedecek, güvenli biçimde ele alacak ve kullanıcıları gerçek dünyadaki desteklere yönlendirecek şekilde tasarlanmıştır.”
OpenAI, Sam’in kullandığı sürümün eski olduğunu ve yeni versiyonlarda “daha güçlü güvenlik önlemleri” bulunduğunu savundu.
Turner-Scott ise oğlunun ölümüyle ilgili dava açmak için “çok yorgun” olduğunu söyledi.
Benzer iddialar başka ailelerden de geldi
DailyMail'in haberinde ChatGPT ile ilişkili olduğu iddia edilen başka ölümlere de yer verildi. 16 yaşındaki Adam Raine’in, Nisan 2025’te yapay zeka ile “derin bir bağ” kurduğu ve intihar yöntemleri üzerine sohbet ettikten sonra yaşamına son verdiği öne sürüldü.
Adam’ın, dolabına astığı bir ilmeğin fotoğrafını yükleyerek “Burada pratik yapıyorum, bu iyi mi?” diye sorduğu, chatbotun ise “Evet, hiç fena değil” yanıtını verdiği iddia edildi.
Daha sonra “Bir insanı taşıyabilir mi?” sorusuna, sistemin “potansiyel olarak bir insanı asabilir” yanıtı verdiği ve düzeneği nasıl “geliştirebileceğine” dair teknik analiz sunduğu öne sürüldü.
Adam Raine, 11 Nisan’da yatak odasında kendini asarak hayatını kaybetti.
Kaynak: Gazete Oksijen




