16 Ocak 2026, Cuma
Haber Giriş: 16.01.2026 09:36 | Son Güncelleme: 16.01.2026 15:02

Uzmanlardan uyarı: ChatGPT Health’e sağlık verilerinizi yüklemeyin

OpenAI’nin yeni aracı ChatGPT Health, kullanıcıları tıbbi kayıtlarını ve sağlık verilerini yüklemeye teşvik ediyor. Ancak uzmanlar, verilerin yasal koruma dışında kalacağı uyarısında bulundu
(Fotoğraf: Shutterstock)
(Fotoğraf: Shutterstock)
A+ Yazı Boyutunu Büyüt A- Yazı Boyutunu Küçült

OpenAI, ChatGPT platformunda en çok aranan konulardan birinin sağlık olduğunu belirterek “sağlık ve wellness” odaklı ChatGPT Health geliştirdiğini duyurdu. ChatGPT Health, kullanıcılardan tıbbi kayıtlarını, test sonuçlarını ve akıllı cihaz ya da fitness uygulamalarındaki verilerini platforma yüklemelerini teşvik etti. Böylece kullanıcılar tüm sağlık verilerini tek bir yerde toplayabilecek. Ayrıca, kullanıcıların kişisel sağlık bilgileri doğrultusunda öneriler ve tavsiyeler (ancak tanı veya tedavi değil) alabileceği belirtildi.

ChatGPT Health şu anda Türkiye’de kullanıma sunulmadı. OpenAI, hizmeti aşamalı olarak yaygınlaştırmayı planladığını ancak ilk etapta yalnızca ABD’de erişime açıldığını duyurdu.

The Huffington Post'un haberinde yer alan; siber güvenlik uzmanları, bu kadar büyük çapta kişisel sağlık verilerinin paylaşılması konusunda ciddi endişelerini dile getirdi.

ChatGPT Health, gizlilik yasalarına tabi değil

Drexel Üniversitesi Kriminoloji ve Adalet Çalışmaları Bölümü’nden Robert D’Ovidio, en büyük endişesinin OpenAI ve ChatGPT’nin resmi bir sağlık hizmeti sağlayıcısı olmaması olduğunu ifade etti.

“Bu ne anlama geliyor?” diye soran D’Ovidio, “Bu, HIPAA kapsamına girmedikleri anlamına geliyor. Yani doktor, hastane veya acil bakım merkezinde sahip olduğumuz yasal veri koruma haklarına burada sahip değiliz” dedi.

HIPAA (Health Insurance Portability and Accountability Act), ABD’de sağlık hizmeti sağlayıcılarının hasta verilerini koruma yükümlülüklerini belirleyen federal yasadır. Ancak ChatGPT Health bu kapsama dahil değildir.

OpenAI sözcüsü, şirketin özellikle sağlık verileri konusunda gizliliğe büyük önem verdiğini ve kullanıcıların istedikleri zaman verilerini silebileceklerini belirtti.

Denver Üniversitesi Bilgisayar Bilimleri Eş Başkanı Nathan Evans ise, ChatGPT’nin kullanıcıların depresyon yaşadığını ya da kalp hastalığı teşhisi aldığını bilebileceğini, ancak bir doktorun aksine bu bilgiyi yasal olarak korumak zorunda olmadığını ifade etti.

Evans “Bu benim en büyük soru işaretim. Şirket en sıkı güvenlik standartlarını uyguladığını söylese bile, bunu denetleyen bir mekanizma yoksa gelecekte bu politikalar değişebilir” ifadelerini kullandı.

Siber saldırılarda ‘büyük hedef’ haline gelebilir

ChatGPT Health, sağlıkla ilgili verilerin diğer arama ve sohbet içerikleriyle karıştırılmaması için veri izolasyonu ve segmentasyonu uyguladığını belirtti. Ancak D’Ovidio, bu önlemlere rağmen “veri ihlali riskinin her zaman var olduğunu” söyledi.

OpenAI sözcüsü, hassas verilerin korunması amacıyla “özel şifreleme ve yalıtım yöntemleri” kullanıldığını açıkladı.

Yine de D’Ovidio, bu hizmetin siber suçlular için cazip bir hedef haline gelebileceğini vurgulayarak “Böyle bir hizmet sunmak, onların sırtına büyük bir hedef tahtası çizmek anlamına geliyor” dedi.

Diğer AI şirketleri de sağlık alanına giriyor

ChatGPT Health’in duyurulmasından yalnızca birkaç gün sonra Anthropic adlı şirket de Claude for Healthcare adlı hizmetini tanıttı.

D’Ovidio, bu gelişmelerin “Washington’daki yasa yapıcılar için bir uyarı niteliğinde” olduğunu ifade etti.

D’Ovidio “HIPAA’nın sınırlarının ve kimlerin sağlık hizmeti sağlayıcısı olarak tanımlandığının yeniden değerlendirilmesi gerekiyor. Aksi halde eyalet bazında farklı düzenlemeler oluşur ve bu da karmaşa yaratır” diye konuştu.

Sağlık verilerini paylaşmak büyük risk taşıyor

Geçtiğimiz yıl 23andMe adlı genetik test şirketi iflas başvurusunda bulundu. Bu durum, milyonlarca kullanıcının genetik ve sağlık verilerinin geleceğini belirsiz hale getirdi. Uzmanlara göre OpenAI için şu anda benzer bir durum söz konusu olmasa da, hiçbir şirketin geleceği garanti değil.

Evans, “OpenAI’nin batmasını beklemiyoruz ama şu anda kâr eden bir şirket değil. Daha büyük modeller inşa etmek için ciddi para harcıyorlar” dedi.

Ayrıca, ChatGPT ve diğer AI sistemlerinin genellikle toplanan verileri modelleri eğitmek için kullandığını, ancak OpenAI ve Anthropic’in sağlık verilerini eğitim amacıyla kullanmayacağını açıkladığını belirtti. Evans, “Şu ana kadar büyük veri ihlalleri yaşanmadı ama bu, gelecekte olmayacağı anlamına gelmiyor” dedi.

Kuzey Karolina Üniversitesi’nden Cori Faklaris, “Verilerinizi paylaştığınız anda kontrolü kaybedersiniz. Bu tek seferlik bir karardır; o bilgiler, dosyalar tamamen silinene kadar oradadır ki bu oldukça zordur” ifadelerini kullandı.

Faklaris, bazı insanların bu şirketlere güvenmemesinin de haklı nedenleri olabileceğini belirterek “Daha önce başka şirketlerle kötü deneyimler yaşamış olabilirler ya da kamuya yapılan açıklamalardan tatmin olmamışlardır" ifadelerini kullandı.

Evans ise, “OpenAI’nin bu hizmeti dünyayı daha iyi hale getirmek için mi yoksa maddi kazanç için mi yaptığı net değil. Muhtemelen ikincisi” değerlendirmesinde bulundu.

ChatGPT Health’in Avrupa’da sunulmaması 

ChatGPT Health, Avrupa Birliği ülkelerinde kullanıma sunulmadı. Evans’a göre bu durum oldukça anlamlı.
AB’nin, Genel Veri Koruma Yönetmeliği (GDPR) adı verilen dünyanın en güçlü gizlilik yasalarından birine sahip olduğunu belirten Evans, “Bu hizmetin AB’de kullanılamaması, gizlilik ve güvenlik konularında hâlâ çözülmemiş sorunlar olabileceğini gösteriyor” dedi.

ABD’de benzer bir federal gizlilik yasası bulunmadığından, ChatGPT Health’in bu ülkede daha kolay şekilde faaliyete geçebildiği değerlendirildi.

“Yüklemeden önce iki kez düşünün”

Uzmanlara göre, ChatGPT Health’e tıbbi kayıtlarınızı, test sonuçlarınızı veya akıllı saat verilerinizi yüklemek büyük bir karardır. Kuzey Karolina Üniversitesi’nden Faklaris, “Bunu refleks olarak yapmayın. ‘Bu bilgilerden elde edeceğim fayda, gizlilik riskine değer mi?’ diye düşünün” dedi.

Faklaris ayrıca, yapay zekânın “halüsinasyon” olarak bilinen yanlış bilgi üretme eğiliminde olduğunu hatırlatarak “AI, sağlıkla ilgili yanlış bir bilgi verdiğinde bunun ciddi sonuçları olabilir” dedi.

Uzmanlar, AI tabanlı sağlık hizmetlerinin doktorun yerini alamayacağını, yalnızca destekleyici nitelikte olabileceğini vurguladı. OpenAI de basın açıklamasında ChatGPT Health’in tıbbi bakımın yerini almak için değil, onu desteklemek için geliştirildiğini belirtti.

D’Ovidio, bu hizmeti kullanmayı tercih edenlerin hesap güvenliğine dikkat etmesi gerektiğini söyledi. D’Ovidio “Benzersiz bir şifre kullanın, düzenli olarak değiştirin ve iki aşamalı kimlik doğrulamayı mutlaka etkinleştirin” şeklinde konuştu.

Evans ise kullanıcıların birden fazla AI platformuna sağlık verilerini yüklememeleri gerektiğini vurguladı. Evans “Ne kadar çok yere veri yüklerseniz, o kadar çok risk altına girersiniz” dedi.

Kaynak: Gazete Oksijen