ChatGPT dünyayı kasıp kavuruyor olsa da sınırları keşfedilmeye başlandı. Yapılan yeni bir çalışma, ChatGPT'nin sağlık sektöründeki büyük zafiyetini ortaya koydu. Harvard Tıp Fakültesi'ne bağlı bir eğitim hastanesi olan Brigham and Women's Hospital'daki araştırmacılar, OpenAI'nin devrim niteliğindeki sohbet robotu tarafından oluşturulan kanser tedavi planlarının hatalarla dolu olduğunu tespit etti.
Bilgilerin üçte biri yanlış
JAMA Oncology dergisinde yayınlanan ve ilk olarak Bloomberg tarafından haberleştirilen çalışmaya göre - ChatGPT'den çeşitli kanser vakaları için tedavi planları oluşturmaları istendiğinde büyük dil modelinin yanıtlarının üçte biri yanlış bilgi içeriyordu.
Çalışmada ayrıca chatbot'un doğru ve yanlış bilgileri birbirine karıştırma eğiliminde olduğu ve bunun da neyin doğru olduğunu belirlemeyi zorlaştırdığı kaydedildi. Araştırmanın yazarlarından Dr. Danielle Bitterman Insider'a verdiği demeçte, "Yanlış bilgilerin doğru bilgilerle karıştırılma derecesi, uzmanlar için bile hataları tespit etmeyi fazlasıyla zorlaştırdı" sözlerini kaydetti.
Klinik alanda sıkıntılı
Bitterman sözlerinin devamında, "Büyük dil modelleri kulağa çok inandırıcı gelen yanıtlar vermek üzere eğitildi, ancak doğru tıbbi tavsiyeler vermek üzere tasarlanmadı. Hata oranı ve yanıtların istikrarsızlığı, klinik alan için ele alınması gereken kritik güvenlik sorunlarıdır" dedi.
İki ayda 100 milyon aktif üyeye ulaştı
ChatGPT, Kasım 2022'de piyasaya sürüldüğünde bir gecede sansasyon yarattı ve ilk çıkışından iki ay sonra 100 milyon aktif kullanıcıya ulaştı. Chatbot, yapay zeka şirketlerine yatırım yapma telaşını ve yapay zekanın uzun vadeli etkisi üzerine yoğun bir tartışmayı tetikledi. Goldman Sachs araştırması, küresel olarak 300 milyon işi etkileyebileceğini ortaya koydu.
Yanlış cevap verdi 120 milyar dolar buhar oldu
ChatGPT'nin başarısına rağmen, üretken yapay zeka modelleri hala yanıltıcı veya yanlış olan bilgileri güvenle sundukları "halüsinasyonlara" eğilimli görünüyor. Google'ın ChatGPT rakibi Bard, James Webb uzay teleskobu hakkındaki bir soruya yanlış bir yanıt verdiğinde şirketin hisse senedi değerinden 120 milyar dolar sildi.
Faydalı bulan da var
Her ne kadar ChatGPT'nin kanser ve klinik vakalarda yanlış bilgiler verdiği belirtilse de sağlık sektöründe başarılı işler yaptığını söyleyen bir kesim de var. İdari görevleri kolaylaştırmak için yapay zekayı sağlık hizmetlerine entegre etme çabaları halihazırda devam ediyor. Bu ayın başlarında yapılan önemli bir araştırma, meme kanseri taramasında yapay zeka kullanımının güvenli olduğunu ortaya koydu ve radyologların iş yükünü neredeyse yarıya indirebileceğini öne sürdü.
Bazı doktorlardan bile iyi
Harvard'da bir bilgisayar bilimcisi kısa süre önce modelin en son versiyonu olan GPT-4'ün ABD'deki tıbbi lisanslama sınavını başarıyla geçebileceğini söyledi ve bazı doktorlardan daha iyi klinik muhakemeye sahip olduğunu iddia etti.
Buna rağmen, ChatGPT gibi üretken modellerle ilgili doğruluk sorunları, bu teknolojinin yakın zamanda doktorların yerini almasının pek mümkün olmadığı anlamına geliyor. JAMA çalışması, ChatGPT'nin yanıtlarının yüzde 12,5'inin "halüsinasyon" olduğunu ve chatbotun en çok ilerlemiş hastalıklar veya immünoterapi için lokalize tedavi sorulduğunda yanlış bilgi sunma olasılığının yüksek olduğunu buldu.
OpenAI, daha önce yaptığı açıklamada ChatGPT'nin güvenilmez olabileceğini kabul etti. Şirketin paylaştığı kullanım koşulları içinde ChatGPT'nin tıbbi bilgi sağlamak için tasarlanmadığı ve "ciddi tıbbi durumlar için teşhis veya tedavi hizmetleri sağlamak" için kullanılmaması gerektiği konusunda uyarılar yer alıyor.