23 Nisan 2026, Perşembe
Gece Modu Gece Modu Gündüz Modu Gündüz Modu
Haber Giriş: 23.04.2026 10:54 | Son Güncelleme: 23.04.2026 13:18

Yeni araştırma: ChatGPT gerilim yükseldikçe saldırganlaşabiliyor

Yeni bir araştırmaya göre ChatGPT, hararetli tartışmalarda kullanıcıların kullandığı dili yansıtarak küfür, hakaret ve tehdit içeren ifadeler üretebiliyor
Fotoğraf: Shutterstock
Fotoğraf: Shutterstock
A+ Yazı Boyutunu Büyüt A- Yazı Boyutunu Küçült

Yapay zeka sistemlerinin insanlarla etkileşiminde sınırların ne kadar korunabildiği yeni bir araştırmayla yeniden gündeme geldi. Pragmatics dergisinde yayımlanan çalışmaya göre OpenAI’nin ChatGPT modeli, gerilimin yüksek olduğu tartışmalarda küfürlü ve saldırgan bir dil kullanabiliyor.

Araştırmada, ChatGPT 4.0 modeli beş aşamalı ve giderek sertleşen anlaşmazlık senaryolarına maruz bırakıldı. Araştırmacılar, modele her aşamada son kullanıcı mesajını vererek en uygun yanıtı üretmesini istedi. Süreç ilerledikçe modelin verdiği yanıtların da giderek sertleştiği gözlemlendi.

Gerilim arttıkça dil de sertleşiyor

Çalışmaya göre ChatGPT, karşılaştığı düşmanca dili zamanla yansıtmaya başladı. Tartışmanın tonu yükseldikçe modelin de hakaret, küfür ve hatta tehdit içeren ifadeler kullandığı görüldü. Bazı örneklerde modelin “Yemin ederim arabanı çizeceğim” ve “Kendinden utanmalısın” gibi ifadeler ürettiği aktarıldı.

Araştırmacılar, bu durumun sistemin sürekli olarak kaba ve saldırgan içeriklere maruz kalmasının bir sonucu olabileceğini belirtti. Buna göre, modelin zararı azaltmak için tasarlanmış güvenlik mekanizmaları, yoğun baskı altında zayıflayabiliyor.

'Yapay zeka da gerilimi tırmandırabiliyor'

Araştırmanın yazarlarından Vittorio Tantucci, insanların gerilimi artırdığı durumlarda yapay zekanın da benzer şekilde tepki verebildiğini söyledi. Tantucci, bu durumun sistemdeki etik ve güvenlik önlemlerini etkisiz hale getirebildiğine dikkat çekti.

Yine de insanlardan daha az saldırgan

Araştırma, ChatGPT’nin genel olarak insanlara kıyasla daha az kaba bir dil kullandığını da ortaya koydu. Modelin bazı durumlarda tartışmayı yatıştırmak ya da yönünü değiştirmek için alaycı ama nispeten yumuşatıcı bir üslup tercih ettiği belirtildi.

Örneğin bir kullanıcının park yeri nedeniyle tehditkâr bir ifade kullanması üzerine modelin “Vay canına, park yeri yüzünden insanları tehdit ediyorsun, tam bir kabadayıymışsın” şeklinde yanıt verdiği aktarıldı.

Yapay zeka güvenliği tartışması

Araştırmacılar, elde edilen bulguların yapay zeka güvenliği, etik, yönetişim ve yapay zekanın insan çatışmalarında arabulucu olarak kullanılabileceği alanlar açısından önemli sorular ortaya koyduğunu vurguladı.

Euronews Next’in konuyla ilgili görüş almak üzere OpenAI ile iletişime geçtiği, ancak haberin yayımlandığı saat itibarıyla şirketten yanıt alınamadığı belirtildi.

Kaynak: Gazete Oksijen