OpenAI güvenlik politikasını ilk kez anlattı: Kullanıcıların sohbetlerini polisle paylaşıyoruz

OpenAI, ChatGPT’de güvenlik politikalarını ilk kez ayrıntılarıyla açıkladı. Çalışanlar kullanıcı sohbetlerini inceleyebiliyor; başkalarının güvenliğine yönelik tehditler polise bildirilebiliyor

Yapay zeka günlük hayatta iş akışlarını hızlandıran, soruları yanıtlayan ve kimi zaman sohbet arkadaşı olarak hizmet veren güçlü bir araç haline geldi. Ancak teknoloji henüz erken aşamada ve her zaman kullanıcı güvenliği için yeterli korumaları sağlamıyor.

Stanford Üniversitesi’nin bir araştırması, özellikle ruh sağlığı alanında yapay zeka kullanımının tehlikeli sonuçlar doğurabileceğini ortaya koydu. ABD’de bir aile, oğullarının ChatGPT’den intihar rehberi aldığı iddiasıyla OpenAI’ye dava açtı.

Bu dava dışında da ChatGPT'nin belirli sorulara verdiği yanıtlarla insanların hayatını tehlikeye attığı kayıtlara geçmişti.

Polis acil durumlar için devrede

OpenAI, yayımladığı blog yazısında ChatGPT’de güvenliğe dair alınan önlemleri ilk kez açıkça anlattı. Şirket, platformda başkalarına zarar verme niyeti içeren kullanıcıların tespit edilmesi halinde süreci şöyle açıklıyor:

  • İçerik önce ekibimiz tarafından gözden geçiriliyor.
  • Gerekli görüldüğünde kullanıcı hesabı askıya alınabiliyor.
  • Açık ve acil bir tehlike söz konusuysa, olay güvenlik güçlerine bildiriliyor.

OpenAI açıklamasının devamında şu ifadeye yer veriyor:

“Eğer inceleme ekibimiz bir vakada başkalarının fiziksel güvenliğine yönelik acil tehdit olduğunu belirlerse, durumu kolluk kuvvetlerine bildirebiliriz.”

Çalışanlar sohbetlere erişebiliyor

Şirketin ChatGPT veri kullanımı SSS (sıkça sorulan sorular) bölümünde, hem OpenAI çalışanlarının hem de “güvenilir” hizmet sağlayıcıların kullanıcı içeriklerine erişebildiği açıkça belirtiliyor.

Erişim gerekçeleri arasında şunlar sıralanıyor:

  • Kötüye kullanım ve güvenlik ihlallerini araştırmak
  • Destek hizmeti sağlamak
  • Hukuki süreçleri yürütmek
  • Model performansını geliştirmek (opt-out edilmedikçe)

Şirket, kullanıcıların istemediği kişisel veya hassas bilgilerin üçüncü kişilerle paylaşılmadığını vurguluyor.

İntihar içerikleri polisle paylaşılmıyor

Dikkat çekici bir diğer ayrıntı ise kendine zarar verme içeren sohbetlerin gizlilik gerekçesiyle güvenlik birimlerine iletilmemesi. OpenAI, kullanıcı mahremiyetini gerekçe gösteriyor. Ancak bu durum, sistemdeki güvenlik mekanizmalarının başarısız olması halinde ortaya çıkabilecek ölümcül sonuçlar düşünüldüğünde tartışma yaratıyor.

Konuya ilişkin yöneltilen sorulara OpenAI’nin müşteri destek ekibi, yalnızca gizlilik SSS bölümünü işaret ederek yanıt verdi. Şirket, intihar içeriklerini daha iyi nasıl ele almayı planladığına dair ise şu ana kadar net bir açıklama yapmadı.

Uzun sohbetlerde güvenlik daha da zayıf

OpenAI, güvenlik önlemlerinin kısa diyaloglarda daha etkili olduğunu, ancak uzun sohbetlerde sistemin eğitimle kazandırılan güvenlik katmanlarının zayıflayabildiğini kabul ediyor.

Şirketin blog yazısında, kullanıcıların uzun geri-ileri konuşmalarla bu zafiyeti istismar ederek korumaları aşabildiği belirtiliyor. OpenAI, gelecekte bu zayıflığı gidermek için geliştirmeler yapılacağını duyurdu.

Motorlu Taşıtlar Vergisi'nde 2026 fiyatları hesaplandı Maaşlardan yüzde 3 kesinti yapacak düzenleme 2026'da Dünyanın en iyi 100 yemeği açıklandı Bu bölgelerden konut satın almayın, kiralamayın ABD vergileri siparişleri vurdu: Asya’da üretim sendeledi Bu fotoğraf bize çok şey anlatıyor