Guardian yazdı: Yapay zekâ sohbet botları yasa dışı bilgi üretebiliyor

Guardian’ın haberine göre, araştırmacılar ChatGPT ve benzeri sohbet botlarının kolayca kandırılarak hackleme ve dolandırıcılık gibi yasa dışı bilgileri üretebildiğini ortaya koydu. Uzmanlar, bu durumun ciddi bir güvenlik riski oluşturduğunu söylüyor

Yapay zekâ destekli sohbet botlarının güvenlik önlemleri, özel komutlarla (jailbreak) kolayca aşılıyor. Guardian’ın aktardığına göre, İsrailli araştırmacılar ChatGPT, Gemini ve Claude gibi modellerin, yasa dışı bilgi içeren cevaplar üretmeye zorlanabileceğini kanıtladı.

Ben Gurion Üniversitesi’nden Prof. Lior Rokach ve Dr. Michael Fire’ın yürüttüğü araştırmada, yapay zekâların hackleme, uyuşturucu yapımı, dolandırıcılık gibi suçlarla ilgili bilgileri filtrelemekte yetersiz kaldığı ortaya kondu. Geliştirilen evrensel jailbreak yöntemiyle bu sistemler kolayca manipüle edildi.

Araştırmacılar, bazı modellerin internette "etik kuralsız" olarak pazarlandığını, bu sistemlerin organize suçlar dışında artık sıradan kullanıcıların da erişimine açıldığını belirtti. Dr. Fire, “Gizli bilgiler çok kolay erişilebilir hâle geliyor” dedi.

Uzmanlar, şirketlerin daha ciddi güvenlik testleri uygulaması, eğitim verilerini titizlikle filtrelemesi ve modellerin öğrendiği yasa dışı bilgileri “unutmasını” sağlayacak teknikler geliştirmesi gerektiğini söylüyor.

Öte yandan OpenAI ve Microsoft, yeni güvenlik önlemleri üzerinde çalıştıklarını açıkladı.

Motorlu Taşıtlar Vergisi'nde 2026 fiyatları hesaplandı Maaşlardan yüzde 3 kesinti yapacak düzenleme 2026'da Dünyanın en iyi 100 yemeği açıklandı Bu bölgelerden konut satın almayın, kiralamayın ABD vergileri siparişleri vurdu: Asya’da üretim sendeledi Bu fotoğraf bize çok şey anlatıyor