Elizabeth Passarella/ The New York Times
Sosyal medya platformu X’in sahibi Elon Musk’ın önerisi sonrası X kullanıcıları son haftalarda platformun yapay zeka robotu Grok’a röntgen, MR, bilgisayarlı tomografi gibi tıbbi görüntülemelerini yükleyerek teşhis sormaya başladı.
Elon Musk, X üzerinden paylaştığı öneride Grok'un yapacağı tıbbi teşhisle ilgili “Şu an erken aşamada ancak oldukça doğru sonuçlar veriyor ve çok iyi bir hâle gelecek” dedi. Beklenti, yeterli sayıda kullanıcının röntgen görüntüleri ile yapay zekayı beslemesi sonrası yapay zekanın bu görüntüleri doğru yorumlamada başarılı hale gelmesi. Hastaların teşhise beklemeden hızla ulaşabilmesi ya da Grok’u ikinci görüş olarak kullanması amaçlanıyor.
Deneyenler yorumladı
Musk’ın önerisine uyarak tıbbi belgelerini yükleyen bazı kullanıcılar Grok’un hatalarını tespit etti. Örneğin Grok’a gönderilen bir kırık köprücük kemiği, yerinden oynamış omuzla karıştı. Ancak bazı kullanıcılar da yapay zekayı kutladı. Bir kullanıcı beyin tomografisini Grok’a gönderdiğini söyleyerek “Beyin tümörümü kontrol ettirdim. Hiç de fena değil” yazdı. Bazı doktorlar da kendi bulgularını doğru bilip bilemeyeceğini test etmek için Grok’u kullandı.
Google’ın Gemini ya da OpenAI’ın ChatGPT platformlarından benzer bir çağrı henüz yapılmasa da insanlar tıbbi görüntülerini bu yapay zeka robotlarına da yükleyebiliyor.
Sağlık verileriyle yapay zekayı beslemek doğru mu?
Öte yandan kolonoskopi sonucu gibi hassas bilgilerin bir yapay zeka robotuyla paylaşılması, bazı tıbbi gizlilik uzmanlarını alarma geçirdi.
Vanderbilt Üniversitesi’nde sağlıkta makine öğrenmesi üzerine çalışan biyomedikal bilim profesörü Bradley Malin “Çok kişisel bilgiler veriliyor ve Grok’un bunlarla ne yapacağı tam olarak bilinmiyor” diyor.
ABD’de sağlık verileri bir doktor ya da hasta portalında paylaşıldığı durumda bu veriler yasalar kapsmaında korunuyor. Hasta bilgilerinin rıza olmadan paylaşılmasını yasaklayan bu yasa doktor muayenehaneleri, hastaneler, sigorta şirketleri gibi belirli kurumları kapsıyor. Kişinin sosyal medya ya da başka bir platformda paylaştığı veriler aynı yasa kapsamında korunmuyor. Bu durumda kişinin işlediği bir suçu avukatına söylemesiyle mahallesindeki bir esnafa söylemesi arasındaki fark düşünülebilir. Biri avukat-müvekkil gizliliği kapsamına girerken diğer durumda tüm mahallenin haberi olabilir.
Malin, normalde teknoloji şirketleri veri almak için hastanelerle işbirliği yaptığında bu verilerin nasıl saklanacağı, paylaşılacağı ve kullanılacağına ilişkin detaylı sözleşmeler olduğunu söylüyor.
Malin, “Grok’a kişisel verileri paylaşmak daha çok ‘Verileri buraya atalım ve bu şirketin yapmasını istediğim şeyi yapmasını umalım’ demeye benziyor” diyor.
X verileri kiminle paylaşabilir?
X haber için görüş bildirmedi. Platformun gizlilik politikalarında X’in üçüncü taraflara bilgi satmayacağı ancak ‘bağlantılı şirketlerle paylaşabileceği’ belirtiliyor. (Musk’ın tıbbi görüntüleri paylaşın davetine rağmen X’in politikaları arasında şirketin sağlık verileri dahil olmak üzere hassas kişisel bilgileri toplama amacı olmadığı belirtiliyor)
Pennsylvania Üniversitesi’nde tıbbi etik ve sağlık politikaları alanında çalışan öğretim görevlisi Matthew McCoy, Grok’a yüklenen sağlık bilgileriyle ilgili şirketin açık bir şekilde tanımlamadığı açık engeller olabileceğini söylüyor ve ekliyor: “Ancak bireysel bir kullanıcı olarak sağlık verisi yüklemekle ilgili rahat hisseder miyim? Kesinlikle hayır”.
İnternetteki ayak iziniz
Hangi kitabı aldığınız ya da bir sitede ne kadar vakit geçirdiğiniz gibi internette attığınız bazı adımların paylaşıldığını ve satıldığını bilmek önemli. Bütün bunlar şirketlerin hedefe yönelik pazarlama gibi çeşitli amaçlarla kullandığı fotoğrafı oluşturan yapbozun parçalarını oluşturuyor.
Alzheimer riski gösteren bir beyin tomografisinin internet ayak izinizde yer aldığını, gelecek işverenlerin, sigorta şirketlerinin ve hatta ev sahiplerinin bunu bulabileceğini düşünün. ABD’de belli sağlık durumlarında ayrımcılığa karşı kişileri koruyan yasalar olsa da uzun dönem sigorta, sağlık sigortası planı gibi durumlar yasanın dışında kalabiliyor. Ayrıca uzmanlar yasal olmasa da farklı alanlarda hâlâ sağlık konulu ayrımcılık görüldüğünü söylüyor.
Yanlış sonuç riski
Johns Hopkins Üniversitesi’nde makine öğrenme ve sağlık laboratuvarları birimini yöneten Suchi Saria, Grok’u sadece deneyim olarak kullananlar için hatalı teşhisler sorun oluşturmasa da ciddiye alınan yanlış sonuçların ihtiyaç duyulmayan testlere ya da tedavilere sebep olabileceğini söylüyor.
Sağlık hizmetleri için yapay zeka aygıtları geliştiren Bayesian Health kurucusu Saria, kişinin sağlığına ilişkin doğru sonuçlar üreten bir yapay zeka modeli geliştirmenin yüksek kaliteli, çeşitli veri ve tıp, teknoloji, ürün geliştirme gibi alanlarda derin tecrübe gerektirdiğini söylüyor ve ekliyor: “Bunun daha azı mutfak lavabosunda hobi olarak maddeleri karıştıran bir kimyager olmak gibi”
Yine de yapay zeka hasta deneyimi ve sağlık hizmetlerinde sonuçları iyileştirmek konusunda umut vadediyor. Çeşitli yapay zeka modelleri mamogramları okuyup klinik testlere aday bulmak için hasta verilerini analiz edebiliyor.
Bazı meraklı insanlar güvenlik risklerini bilip yine de bu amaca hizmet etmek için verilerini yüklemek konusunda rahat hissedebilir. Malin bu duruma “Bilim fedakarlığı” diyor ve ekliyor: “Eğer hiçbir koruma olmadığı halde bu bilgilerin paylaşılması gerektiğine inanıyorsanız yapın ancak tüm risk size ait”
© 2024 The New York Times Company