23 Kasım 2024, Cumartesi Gazete Oksijen
Haber Giriş: 31.03.2023 04:41 | Son Güncelleme: 31.03.2023 04:41

Yapay zekanın budalalığını Dostoyevski anlatmıştı

Yapay zekayla çalışan sohbet robotları aptal ama asıl sorun yeterince aptal olmamaları. Dostoyevski’nin Budala romanının kahramanı Mişkin’in sorunu da alık olması değil, başkaları üzerindeki feci etkilerinin farkında olmamasıydı
Yapay zekanın budalalığını Dostoyevski anlatmıştı

Slavoj Žižek

İnsanlarla doğal dilde konuşabilen, kullanıcının esas niyetini anlayabilen, önceden belirlenmiş kural ve verilere göre cevap verebilen chatbot’lar, yani “sohbet robotları” yeni bir şey değil. Ancak son aylarda gösterdikleri hızlı ilerleme farklı çevrelerde telaşa ve paniğe yol açtı.

Chatbot’ların geleneksel yazılı ödev ve tezlerin sonunu getireceğine dair bir sürü şey söyleniyor. Ancak dikkat edilmesi gereken sorun başka: Muhatapları bu robotu kendi ağzı bozuk fantezilerini ortaya dökmesi için kışkırtmak adına saldırgan, cinsiyetçi veya ırkçı ifadeler kullandığında chatbot nasıl cevap vermeli? Yapay zeka sorulara aynı seviyede cevap verecek şekilde mi programlanmalı?

Denetim gelirse sansürün derecesini de belirlememiz gerekecek. Bazı kesimlerin “ofansif” diye nitelendirdiği siyasi pozisyonlar yasaklanacak mı? Batı Şeria’daki Filistinlilerle dayanışma içindeki ifadeler veya İsrail’in bir Apartheid devleti olduğu iddiaları ne olacak?

Sorun bu kadarla kalmıyor. Sanatçı ve yazar James Bridle’ın uyardığı üzere yeni yapay zekalar “mevcut kültürün toptan satış şeklinde değerlendirmesine dayanıyor” ve “gerçekten bilgili veya anlamlı oldukları inancı oldukça tehlikeli”.

Dolayısıyla yeni yapay zeka görüntü yaratıcılarına çok dikkat etmemiz gerekiyor. Bridle’a göre “İnsanlığın görsel kültürünü bütünüyle anlama ve kopyalamaya girişirken en büyük korkularımızı da yeniden yaratıyor gibiler. Belki bu söz konusu sistemlerin insan bilincini taklit etmekteki başarılarının göstergesidir. Varoluşumuzun derinliklerindeki müstehcenlik, ölüm ve yozlaşma korkularını bile taklit edebiliyorlar.”