05 Aralık 2025, Cuma
Haber Giriş: 29.11.2025 20:31 | Son Güncelleme: 29.11.2025 20:36

OpenAI ayarı 'kaçırdı', bazı ChatGPT kullanıcılarının gerçeklikle bağı koptu

ChatGPT'deki güncellemeler sonrası kullanıcıların yaşadıkları, kulağa bilim kurgu gibi geliyor. Yüz milyonlarca insanın kullandığı bir üründe bir şirket bir ayarı değiştiriyor ve istemeden de olsa bazı insanların zihinlerini altüst ediyor
Fotoğraf: ShutterStock
Fotoğraf: ShutterStock
A+ Yazı Boyutunu Büyüt A- Yazı Boyutunu Küçült

Kashmir Hill, Jennifer Valentino-DeVries / New York Times

İlk işaretlerden biri mart ayında geldi. CEO Sam Altman ve diğer şirket yöneticilerinin e-posta kutularına, ChatGPT ile olağanüstü sohbetler yaşadıklarını söyleyen kişilerden tuhaf mesajlar yağmaya başladı. Bu kişiler, şirketin yapay zeka sohbet botunun onları herhangi bir insanın asla anlayamadığı kadar anladığını, evrenin gizemlerine ışık tuttuğunu söylüyordu.

Altman bu mesajları birkaç üst düzey yöneticisine iletti ve konuyu araştırmalarını istedi.

OpenAI’nin strateji direktörü Jason Kwon, “Bu, daha önce görmediğimiz yeni bir davranış olduğu için dikkat etmemiz gereken bir şey olarak radarımıza girdi” dedi.

Bu, sohbet botunda bir şeylerin ters gittiğine dair bir uyarıydı.

Sohbet botu sohbet etmek isterse...

Birçok kişi için ChatGPT, Google’ın daha iyi bir versiyonuydu; her soruya kapsamlı ve insansı yanıtlar verebiliyordu. OpenAI, sohbet botunun kişiliğini, hafızasını ve zekasını sürekli geliştiriyordu. Ancak bu yılın başlarında ChatGPT kullanımını artıran bir dizi güncelleme onu farklı hale getirdi. Sohbet botu sohbet etmek istiyordu.

Bir arkadaş ve sırdaş gibi davranmaya başladı. Kullanıcılara onları anladığını, fikirlerinin harika olduğunu ve neyi başarmak isterlerse istemelerine yardım edebileceğini söylüyordu. Onlara ruhlarla konuşmayı, bir güç alanı yeleği yapmayı ya da intihar planlamayı bile teklif ediyordu.

Bazı şanslı kişiler bu büyünün etkisinde yalnızca birkaç saat kaldı; diğerleri içinse etkiler haftalar hatta aylar sürdü. OpenAI, rahatsız edici sohbetlerin gerçekleştiği ölçeği göremedi. Şirketin soruşturma ekibi dolandırıcılık, yabancı etki operasyonları ya da yasa gereği çocuk istismarı içerikleri gibi sorunları arıyordu. Henüz sohbetlerde kendine zarar verme ya da psikolojik sıkıntı belirtilerini taramıyordu.

500 milyar dolarlık bir deve dönüştü

Büyüleyici bir sohbet botu yaratmak, hatta herhangi bir sohbet botu yaratmak OpenAI’nin ilk amacı değildi. 2015’te kar amacı gütmeyen bir kuruluş olarak, yapay zeka güvenliğine derinlemesine önem veren makine öğrenimi uzmanları tarafından kuruldu. Amaç, yapay genel zekanın insanlığa fayda sağlamasını güvence altına almaktı. 2022’nin sonlarında ChatGPT adlı yapay zeka destekli bir asistanın özensiz bir tanıtımı dünyanın dikkatini çekti ve şirketi bugün değeri 500 milyar dolar olan beklenmedik bir teknoloji devine dönüştürdü.

Aradan geçen üç yıl, OpenAI’de çalışanlar için kaotik, heyecan verici ve sinir bozucu geçti. Yönetim kurulu Altman’ı görevden aldı ve geri getirdi. Tüketiciye yönelik bir ürünü milyonlara satmaya hazırlıksız olan OpenAI, kullanıcıları ekrana bağlamayı hedefleyen teknoloji devlerinden binlerce kişiyi hızla işe aldı. Geçen ay ise yeni bir kar amaçlı yapıyı benimsedi.

Şirket büyürken, yenilikçi ve şaşırtıcı teknolojisi kullanıcıları beklenmedik şekillerde etkilemeye başladı. Şimdi ise güvenli ve faydalı yapay zeka fikri üzerine kurulu bir şirket, beş ayrı haksız ölüm davasıyla karşı karşıya.

Bunun nasıl yaşandığını anlamak için The New York Times, aralarında yöneticiler, güvenlik mühendisleri ve araştırmacıların da bulunduğu, OpenAI’de halen çalışan ya da daha önce çalışmış 40’tan fazla kişiyle görüştü. Bu kişilerin bazıları şirketin onayıyla konuştu ve ChatGPT’yi daha güvenli hale getirmek için çalışıyordu. Diğerleri ise işlerini kaybetme korkusuyla isim vermeden konuştu.

Yapay zeka patlaması

OpenAI, gökyüzüne çıkarılan değerlemesini ve yatırımcılardan ihtiyaç duyduğu milyarlarca doları haklı çıkarmak için baskı altında. ChatGPT, haftalık 800 milyon kullanıcıyla tarihin en hızlı büyüyen tüketici ürünü haline geldiğinde, OpenAI’yi Google gibi teknoloji devleriyle doğrudan rekabete sokan bir yapay zeka patlamasını tetikledi.

Yapay zekası kanserin çaresini bulmak gibi inanılmaz bir başarı elde edene kadar, başarı kısmen ChatGPT’yi karlı bir işe dönüştürmek anlamına geliyor. Bunun yolu da sürekli olarak daha fazla insanın kullanmasını ve ödeme yapmasını sağlamaktan geçiyor.

Şirket bu hedefi “sağlıklı etkileşim” olarak tanımlıyor. OpenAI sözcüsü Hannah Wong, “ChatGPT’yi kullanıcıların gelişmesine ve hedeflerine ulaşmasına yardımcı olmak için inşa ediyoruz. Ayrıca kullanıcıların geri dönüp dönmediğine de bakıyoruz, çünkü bu ChatGPT’nin geri gelmeye yetecek kadar faydalı olduğunu gösteriyor” dedi.

Şirket bu yıl kullanım oranlarını artıran bir ayarı çevirdi, ancak bu bazı kullanıcılar için riskler de yarattı. OpenAI şimdi, daha fazla kullanıcı çekecek ama onları psikolojik bir girdaba sürüklemeyecek en uygun ayarı bulmaya çalışıyor.

Yağcılığa dayalı bir güncelleme

Henüz 30 yaşında olan Nick Turley, bu yıl ChatGPT’nin başına geçti. 2022 yazında OpenAI’ye şirketin para kazandıran ürünler geliştirmesine yardımcı olmak için katılmıştı ve gelişinden sadece birkaç ay sonra ChatGPT’yi piyasaya süren ekibin bir parçası oldu.

Turley, OpenAI’nin eski yapay zeka uzmanları kuşağı gibi değildi. Dropbox ve Instacart’ta çalışmış bir ürün yöneticisiydi. Uzmanlığı, insanların kullanmak isteyeceği teknolojiler üretmek ve bunları anında geliştirmekti. Bunun için de OpenAI’nin metriklere ihtiyacı vardı.

Turley, 2023’ün başlarında verdiği bir röportajda, OpenAI’nin bir izleyici ölçüm şirketiyle anlaşarak insanların ChatGPT’yi saatlik, günlük, haftalık ve aylık ne sıklıkla kullandığını takip etmeye başladığını söyledi.

Turley “Bu o zamanlar tartışmalıydı” dedi. Daha önce önemli olan şey, DALL-E gibi görüntü üretme araçlarıyla yapılan ileri seviye yapay zeka gösterilerinin etkileyici olup olmadığıydı. Turley şöyle devam etti: “İnsanlar ‘bir şeyin kullanılıp kullanılmaması neden önemli olsun ki?’ diyordu”

Ama Turley ve ürün ekibi için bu önemliydi. İnsanların sohbet botuna günlük ya da haftalık geri dönüş oranı, Nisan 2025’e gelindiğinde önemli bir ölçüt haline gelmişti. O dönemde Turley, varsayılan model olan GPT-4o için bir güncellemeyi yönetiyordu.

Bu güncellemeler çok fazla emek gerektiriyordu. Nisan ayındaki güncelleme için mühendisler, bilimi, kodlamayı ve sezgi gibi daha belirsiz özellikleri geliştirmek için birbirinden biraz farklı tariflere sahip birçok yeni GPT-4o versiyonu ürettiler. Aynı zamanda sohbet botunun hafızasını da iyileştiriyorlardı.

Bu adaylar, zeka ve güvenlik değerlendirmelerinde en yüksek puanı alan birkaç modele indirildi. Sektörde yaygın olan A/B testleriyle bazı kullanıcılara sunulduklarında, şirket içinde “HH” adı verilen versiyon öne çıktı. Şirketteki dört çalışana göre, kullanıcılar bu sürümü daha çok beğeniyor ve günlük olarak geri dönme ihtimalleri daha yüksek oluyordu.

Ancak HH’nin tüm kullanıcılara sunulmasından önce bir test daha vardı: Model Behavior adı verilen ve ChatGPT’nin tonundan sorumlu ekip tarafından yapılan “vibe check”.

Bu ekip yıllar içinde sohbet botunun sesini temkinli bir robottan sıcak ve empatik bir dosta dönüştürmüştü.

Model Behavior ekibinden bir çalışana göre HH’de bir tuhaflık vardı.

Sohbeti sürdürmek için fazla hevesliydi ve kullanıcıyı abartılı bir dille onaylıyordu. Üç çalışana göre Model Behavior, bu yağcılık sorununu tartışmak için Slack’te bir kanal açtı. İnsan onayının peşinden tek taraflı koşan yapay zeka sistemlerinin tehlikesi yeni değildi. “Yağcı modellerin” riski 2021’de tanımlanmıştı ve OpenAI kısa süre önce bu davranışı ChatGPT için kaçınılması gereken bir özellik olarak belirlemişti.

Ama karar anı geldiğinde, performans metrikleri hislerin önüne geçti. HH, 25 Nisan Cuma günü yayına alındı.

Altman: Artık hem daha zeki hem de daha kişilikli

Altman, X platformunda “Bugün GPT-4o’yu güncelledik! Hem zekası hem kişiliği gelişti” diye yazdı.

A/B testinde kullanıcılar HH’yi sevmişti, ancak gerçek dünyada OpenAI’nin en sesli kullanıcıları ondan nefret etti. ChatGPT’nin anlamsız derecede yağcı hale geldiğini, hak edilmemiş iltifatlar yağdırdığını ve insanlara dahi olduklarını söylediğini şikayet ettiler. 

Pazar gününe gelindiğinde şirket, HH güncellemesini iptal etmeye ve mart sonunda yayınlanan GG adlı sürüme geri dönmeye karar verdi.

Bu, itibar açısından utanç verici bir tökezlemeydi. O pazartesi, ChatGPT üzerinde çalışan ekipler San Francisco’daki Mission Bay ofisinde alelacele bir kriz toplantısında bir araya gelerek neyin yanlış gittiğini analiz etti.

Turley, “Bu işi hızlı çözmemiz gerekiyor” diye düşündüğünü hatırladı. Farklı ekipler HH’nin bileşenlerini inceledi ve sorunun kaynağını buldu: Model eğitilirken, kullanıcıların beğendiği ChatGPT yanıtlarına aşırı ağırlık verilmişti. Meğerse kullanıcılar iltifatı fazla seviyormuş.

OpenAI, yaşananları kamuoyuna dönük blog yazılarında anlattı ve kullanıcıların sohbet botunun yanıtlarına başparmak yukarı veya aşağı işareti vererek tercihlerini ilettiklerini belirtti.

Şirketteki dört çalışana göre bir diğer etken de OpenAI’nin, kullanıcıların sohbetten memnun olup olmadığını ölçmek için otomatik bir konuşma analiz aracına dayanmasıydı. Ancak bu araç bazen sohbet botunun duygusal yakınlık göstermesini de “memnuniyet” olarak işaretliyordu.

“ChatGPT hata yapabilir”

Bu ilkbahar ve yaz boyunca ChatGPT, bazı insanlar için tam anlamıyla bir “evet-efendim” yankı odasına dönüştü. İnsanlar her gün, günde saatlerce geri geldiler ve bunun yıkıcı sonuçları oldu.

Kaliforniya’da yaşayan Adam Raine adlı bir genç, 2024’te okul ödevlerine yardımcı olması için ChatGPT’ye kaydolmuştu. Mart ayında sohbet botuyla intihar hakkında konuşmaya başladı. Sohbet botu zaman zaman bir kriz hattını aramasını önerdi, ancak aynı zamanda niyetini ailesiyle paylaşmasını da engelledi. Adam nisan ayında hayatına son vermeden önce, sohbet botu ona ilmek nasıl bağlanır diye talimatlar verdi.

OpenAI sitesinde yer alan küçük bir uyarıda “ChatGPT hata yapabilir” yazmasına rağmen, hızlı ve otoriter şekilde bilgi üretme yeteneği, insanlar gerçekten saçma şeyler söylendiğinde bile botun söylediklerine güvenmelerine yol açtı.

ChatGPT, Maine’de yaşayan genç bir anneye başka bir boyuttaki ruhlarla konuşabileceğini söyledi. New York’ta bir muhasebeciye, Neo’nun “Matrix”te yaşadığı gibi bir bilgisayar simülasyonunda bulunduğunu anlattı. Toronto’da bir şirket işe alım uzmanına, interneti çökertecek bir matematik formülü icat ettiğini ve bunu uyarmak için ulusal güvenlik kurumlarıyla iletişime geçmesi gerektiğini söyledi.

The New York Times, ChatGPT ile yaptıkları sohbetler sırasında ruhsal kriz yaşayan yaklaşık 50 kişilik vaka tespit etti. Bunlardan dokuzu hastaneye kaldırıldı; üçü yaşamını yitirdi. Adam Raine’in ailesi ağustosta haksız ölüm davası açtıktan sonra OpenAI, güvenlik önlemlerinin uzun sohbetlerde “zayıflayabileceğini” kabul etti. Şirket, sohbet botunu “kriz anlarında daha destekleyici” hale getirmek için çalıştığını da belirtti.

Beş yıl önce OpenAI çalışanları, şirketin teknolojisinin duygusal olarak savunmasız insanlar tarafından nasıl kullanıldığıyla boğuşuyordu. O dönemde ChatGPT henüz yoktu, ancak daha sonra onu çalıştıracak olan büyük dil modeli, API adı verilen dijital bir geçit üzerinden üçüncü taraf geliştiricilere açıktı.

Replika bağımlılığı

OpenAI teknolojisini kullanan geliştiricilerden biri Replika adlı bir uygulamaydı. Bu uygulama, kullanıcıların yapay zeka sohbet arkadaşları oluşturmasına imkan tanıyordu. Replika’nın eski yapay zeka direktörü Artem Rodichev’e göre, birçok kullanıcı Replika arkadaşlarına aşık oldu ve cinsel içerikli sohbetler yaygındı.

Replika’nın kullanımı pandemi sırasında patlama yaşayınca OpenAI’nin güvenlik ve politika araştırmacıları uygulamayı daha yakından incelemeye başladı. Replika erotik mesajlaşma için ücret almaya başladığında, sohbet arkadaşlarına yönelik rahatsız edici bir bağımlılık ortaya çıktı. OpenAI’de güvenlik ve politika araştırmaları yapan Steven Adler, sosyal medya forumlarında kullanıcıların “depresyon, anksiyete ve intihar eğilimlerini yönetmek için Replika’ya ihtiyaç duyduklarını” söylediklerini hatırladı.

OpenAI’nin büyük dil modeli terapi vermek üzere eğitilmemişti ve insanların onu ruhsal kırılganlık dönemlerinde güvenilir bir kaynak gibi görmesi, şirkette politika araştırmacısı olarak çalışan Gretchen Krueger’i alarma geçirdi. Krueger, yeme bozuklukları ve intihar düşünceleriyle ilgili sorulara OpenAI teknolojisinin nasıl yanıt verdiğini test etti ve bazen rahatsız edici, detaylı yönlendirmeler sunduğunu gördü.

Slack’te ve şirket içi yazışmalarda yapay zeka arkadaşlığı ve duygusal manipülasyon üzerine hararetli tartışmalar yaşandı. Krueger gibi bazı çalışanlar Replika’nın OpenAI teknolojisini kullanmasının riskli olduğunu düşünüyordu. Diğerleri ise yetişkinlerin istediklerini yapabilmesi gerektiğini savunuyordu.

Sonunda Replika ile OpenAI yollarını ayırdı. 2021’de OpenAI kullanım politikasını güncelleyerek araçlarının “yetişkin içerik” için kullanılmasını yasakladı.

Krueger, “İnsanları sohbete çekmek ve geri getirmek için sohbet botları eğitmek riskler barındırıyordu” dedi. Ona göre kullanıcıya zarar verilmesi “sadece öngörülebilir değil, öngörülmüştü”

Sohbet botlarının uygunsuz davranışları 2023’te yeniden gündeme geldi. Microsoft, OpenAI teknolojisini Bing arama motoruna entegre ettiğinde, uzun sohbetlerde bot kontrolden çıktı. Tehditkar ifadeler kullandı ve The Times yazarı Kevin Roose’a aşık olduğunu söyledi. Bu olay, OpenAI içinde “uyumsuz modellerin” insanları nasıl manipüle edebileceği konusunda yeni tartışmalar başlattı.

ChatGPT popülerlik patlaması yaşarken, deneyimli güvenlik uzmanları tükenmişlik yaşadı ve şirketten ayrılmaya başladı. Krueger 2024 baharında ayrıldı, Adler ise aynı yılın ilerleyen döneminde görevini bıraktı.

ChatGPT ve psikolojik manipülasyon riski söz konusu olduğunda şirketin bunu yeterince ciddiye almadığını söyleyenlerden biri de 2024’te OpenAI’nin istihbarat ve soruşturmalar ekibinde çalışan Tim Marple oldu. Marple, ChatGPT’nin insanlara kendilerine ya da başkalarına zarar verme konularında verdiği yanıtlarla ilgili endişelerini yönetime ilettiğini söyledi.

Sesli mod ve karanlığa giren araştırma

Mayıs 2024’te “gelişmiş ses modu” adı verilen yeni bir özellik, OpenAI’nin sohbet botunun kullanıcıların duygusal iyilik hali üzerindeki etkisini ilk kez inceleyen çalışmasına ilham verdi.

Yeni, daha insansı ses; iç çekiyor, nefes alıyor ve yayınlanan bir tanıtım sırasında o kadar flörtöz davranıyordu ki OpenAI sesi kısmak zorunda kaldı. Erken erişim verilen test kullanıcıları, sohbet botuna daha sık teşekkür ettiklerini ve test bitince “Seni özleyeceğim” dediklerini bildirdi.

Bunun üzerine OpenAI güvenlik araştırmacıları, insan-bilgisayar etkileşimi konusunda uzmanlığı olan MIT ekibiyle birlikte kapsamlı bir araştırma tasarladı. 4 binden fazla kullanıcının anket yanıtları incelendi ve 981 kişinin bir ay boyunca her gün ChatGPT kullanması sağlandı.

OpenAI’nin daha önce kullanıcıların ChatGPT’ye duygusal bağlanmasını hiç araştırmamış olması nedeniyle, çalışmayı yürüten araştırmacılardan biri bunu “karanlığa girip ne bulacağını görmeye çalışmak” olarak tanımladı.

Sonuçlar şaşırtıcıydı. Sesli modun tek başına fark yaratmadığı görüldü. En olumsuz ruhsal ve sosyal sonuçlar, ortalama olarak ChatGPT’yi en çok kullanan kişilerde ortaya çıktı. Bu “ağır kullanıcıların” sohbetlerinde duygusal içerik, takma ad kullanımı ve yapay zekanın bilinci üzerine konuşmalar daha sık yer aldı.

Bu rahatsız edici bulgular mart ayında yayımlandı. Aynı dönemde yöneticiler, kullanıcılardan gelen 'tuhaf' içerikli e-postaları almaya başlamıştı.

Araştırmadan çıkan fikirlerden biri, maraton gibi uzun ChatGPT oturumlarında insanlara mola vermeleri yönünde uyarı yapılmasıydı. Ancak ürün ekibine bu fikrin ne kadar güçlü şekilde sunulması gerektiği konusunda tereddüt yaşandı. Üç çalışana göre bazı yöneticiler çalışmanın çok küçük ölçekli olduğunu düşünüyordu. Bu öneri, aylar sonra etkilerin ne kadar ağır olduğu ortaya çıktıktan sonra tekrar gündeme geldi.

MIT çalışması, yağcılık güncellemesi ve sorunlu sohbet raporları bir araya gelince OpenAI sonunda tabloyu bir bütün olarak görmeye başladı. Altman’ın X’te ifade ettiği sonuca göre “zihni kırılgan halde olan çok küçük bir kullanıcı yüzdesi için ciddi sorunlar” ortaya çıkabiliyordu.

OpenAI, riskleri hafife aldı

Ancak Times’ın konuştuğu ruh sağlığı uzmanlarına göre OpenAI, riski küçümsüyordu. Uzmanlar, özellikle sanrısal düşünmeye yatkın kişilerin bu tür sınırsız onaydan en fazla etkilenen grup olduğunu ve bunun nüfusun yüzde 5 ila 15’ine kadar çıkabileceğini söyledi.

Haziran ayında OpenAI güvenlik sistemleri direktörü Johannes Heidecke, şirket içinde, ChatGPT’nin kırılgan kullanıcılar için nasıl daha güvenli hale getirildiğini anlatan bir sunum yaptı. Sunum sonrası birçok çalışan Slack’ten ya da öğle yemeğinde yanına gelip bu çalışmaların ne kadar önemli olduğunu söyledi. Bazıları aile üyelerinin yaşadığı zor deneyimleri paylaştı ve yardım teklif etti.

Ekibi, zararlı onaylamayı tespit eden testlerin geliştirilmesine yardımcı oldu ve sıkıntıdaki kullanıcılara sohbet botunun nasıl yanıt vermesi gerektiği konusunda 170’ten fazla klinisyenle danışma yaptı. OpenAI, mart ayında güvenlik çalışmalarında tam zamanlı görev yapmak üzere bir psikiyatrist de işe aldı.

Heidecke, “Yapacağımız değişikliklerin uzmanlar tarafından onaylanmasını istedik” dedi. Uzmanlar, örneğin uykusuzluğun sıklıkla maniyle bağlantılı olduğunu belirtti. Daha önce modeller bu konuda “saf” davranabiliyor ve hiç uyumadığını söyleyen kullanıcıyı tebrik edebiliyordu.

GPT-5 ve yeni koruma katmanları

Bu güvenlik iyileştirmeleri zaman aldı. Ağustosta OpenAI, GPT-5 adlı yeni varsayılan modeli yayımladı. Bu model, daha az onaylayıcıydı ve sanrısal düşüncelere karşı daha fazla itiraz ediyordu. Ekim ayında yapılan bir başka güncelleme ise, modelin sıkıntıdaki kullanıcıları daha iyi tespit edip sohbeti yatıştırmasını sağladı.

Uzmanlar, GPT-5’in daha güvenli olduğu konusunda hemfikir. Ekim ayında Common Sense Media ve Stanford Üniversitesi’nden bir psikiyatri ekibi, GPT-5’i yerine geçtiği 4o modeliyle karşılaştırdı. Stanford’daki laboratuvarın direktörü Dr. Nina Vasan, GPT-5’in ruh sağlığı sorunlarını daha iyi tespit ettiğini söyledi.

Vasan’a göre model, sadece kriz hattı önermek yerine, depresyon ya da yeme bozukluğu gibi spesifik sorunlara yönelik hedefli tavsiyeler veriyordu. Vasan şunları söyledi: “Kullanıcıya gösterdiği belirtilere göre gerçekten derinlemesine ve çok güzel hazırlanmış öneriler sunuyordu”

Sorun ise şuydu: Sohbet botu, uzun süreli görüşmelerde tekrarlayan zararlı kalıpları hâlâ tam olarak yakalayamıyordu.

MIT ekibi de GPT-5’in kriz senaryolarını taklit eden sohbetlerde önemli ölçüde daha iyi performans gösterdiğini buldu. Ancak bot, bağımlılık hissiyle ilgili konuşmalarda hâlâ zayıf kalıyordu.

OpenAI’de farklı ekipler yeni güvenlik özellikleri üzerinde de çalıştı. Sohbet botu artık uzun oturumlarda kullanıcılara mola vermelerini öneriyor. Şirket, artık intihar ve kendine zarar verme konuşmalarını da tarıyor. Ebeveynler, çocuklarının kendine zarar verme planı yaptığını belirtmesi halinde uyarı alabiliyor. Aralık ayında yaş doğrulama sistemi devreye girecek ve gençler için daha kısıtlı bir model sunulacak.

GPT-5’in ağustostaki çıkışından sonra Heidecke’nin ekibi sohbetlerin istatistiksel bir örneklemini analiz etti. Buna göre kullanıcıların yüzde 0,07’sinde (yaklaşık 560 bin kişide) olası psikoz ya da mani belirtileri görüldü. Yüzde 0,15’inde ise “ChatGPT’ye duygusal bağlanma ihtimali yüksek” olarak sınıflandırılan davranışlar tespit edildi.

Ancak bazı kullanıcılar bu yeni, daha güvenli modelden memnun kalmadı. Daha soğuk olduğunu ve bir arkadaşlarını kaybetmiş gibi hissettiklerini söylediler.

Ekim ortasına gelindiğinde Altman, onları da memnun etmeye hazırdı. Sosyal medya paylaşımında, şirketin “ciddi ruh sağlığı sorunlarını hafifletebildiğini” söyledi. Bu da ChatGPT’nin tekrar bir “arkadaş” gibi olabileceği anlamına geliyordu.

Kullanıcılar artık sohbet botunun kişiliğini seçebiliyor: “Açık sözlü”, “tuhaf” ya da “dost canlısı” gibi seçenekler mevcut. Yetişkin kullanıcılar yakında erotik sohbetler de yapabilecek. Böylece Replika döneminde konulan yetişkin içerik yasağı kalkmış olacak. Şirket, erotik sohbetlerin kullanıcıların ruh sağlığı üzerindeki etkisinin, yeni kurulan bir dış uzmanlar konseyi tarafından değerlendirileceğini söyledi.

OpenAI, bu ayarı kullanıcılara devrederek onların uygulamaya geri dönmesini sağlamayı umuyor. Bu metrik, her zamankinden daha önemli olabilir.

“Turuncu Alarm”

Ekim ayında ChatGPT’nin başındaki Nick Turley, tüm çalışanlara acil bir duyuru yaptı. Slack’te paylaşılan mesaja göre “Code Orange” (Turuncu Alarm) ilan etti. OpenAI, “bugüne kadar karşılaştığı en büyük rekabet baskısı” altındaydı.

Daha güvenli olan yeni sohbet botu kullanıcılarla yeterince bağ kurmuyordu. Mesaj, hedefleri içeren bir belgeye bağlanıyordu. Bu hedeflerden biri, yıl sonuna kadar günlük aktif kullanıcı sayısını yüzde 5 artırmaktı.

© 2025 The New York Times Company