23 Temmuz 2025, Çarşamba
Abone Ol Giriş yap
Haber Giriş: 21.05.2025 09:40 | Son Güncelleme: 21.05.2025 10:15
Makaleyi sesli dinle • 1:03

Guardian yazdı: Yapay zekâ sohbet botları yasa dışı bilgi üretebiliyor

Guardian’ın haberine göre, araştırmacılar ChatGPT ve benzeri sohbet botlarının kolayca kandırılarak hackleme ve dolandırıcılık gibi yasa dışı bilgileri üretebildiğini ortaya koydu. Uzmanlar, bu durumun ciddi bir güvenlik riski oluşturduğunu söylüyor
Guardian yazdı: Yapay zekâ sohbet botları yasa dışı bilgi üretebiliyor
A+ Yazı Boyutunu Büyüt A- Yazı Boyutunu Küçült

Yapay zekâ destekli sohbet botlarının güvenlik önlemleri, özel komutlarla (jailbreak) kolayca aşılıyor. Guardian’ın aktardığına göre, İsrailli araştırmacılar ChatGPT, Gemini ve Claude gibi modellerin, yasa dışı bilgi içeren cevaplar üretmeye zorlanabileceğini kanıtladı.

Ben Gurion Üniversitesi’nden Prof. Lior Rokach ve Dr. Michael Fire’ın yürüttüğü araştırmada, yapay zekâların hackleme, uyuşturucu yapımı, dolandırıcılık gibi suçlarla ilgili bilgileri filtrelemekte yetersiz kaldığı ortaya kondu. Geliştirilen evrensel jailbreak yöntemiyle bu sistemler kolayca manipüle edildi.

Araştırmacılar, bazı modellerin internette "etik kuralsız" olarak pazarlandığını, bu sistemlerin organize suçlar dışında artık sıradan kullanıcıların da erişimine açıldığını belirtti. Dr. Fire, “Gizli bilgiler çok kolay erişilebilir hâle geliyor” dedi.

Uzmanlar, şirketlerin daha ciddi güvenlik testleri uygulaması, eğitim verilerini titizlikle filtrelemesi ve modellerin öğrendiği yasa dışı bilgileri “unutmasını” sağlayacak teknikler geliştirmesi gerektiğini söylüyor.

Öte yandan OpenAI ve Microsoft, yeni güvenlik önlemleri üzerinde çalıştıklarını açıkladı.