Yapay zeka sektöründe son dönemde öne çıkan eğilim, şirketlerin kendi teknolojilerini potansiyel bir felaket senaryosu üzerinden anlatması. Bu yaklaşımın son örneği, Anthropic’in “Claude Mythos” modeli oldu. Şirket, modelin siber güvenlik açıklarını insan uzmanlardan daha iyi tespit edebildiğini ve kötüye kullanılması halinde ciddi sonuçlar doğurabileceğini öne sürdü.
Ancak BBC'ye göre bu iddialar teknik çevrelerde temkinle karşılandı. Uzmanlara göre modelin kapasitesine ilişkin kamuya açık veriler sınırlı ve yapılan açıklamalar doğrulanabilirlik açısından zayıf.
Akademik eleştiri: “Kontrol edilemezlik algısı yaratılıyor”
Edinburgh Üniversitesi’nde veri ve yapay zeka etiği profesörü Shannon Vallor, şirketlerin kullandığı dili bir “güç anlatısı” olarak tanımlıyor. Vallor’a göre yapay zeka, kontrol edilmesi zor ve neredeyse doğaüstü bir tehdit gibi sunuluyor. Bu da toplumda çaresizlik hissi yaratırken çözüm adresi olarak yine bu teknolojiyi üreten şirketleri öne çıkarıyor.
Washington Üniversitesi’nde hesaplamalı dilbilim profesörü Emily M. Bender da benzer bir eleştiri getiriyor. Bender, sektörün “kanıtsız güç iddiaları” ürettiğini ve dikkatleri çevresel maliyetler, emek sömürüsü ve yanlış bilgi üretimi gibi mevcut sorunlardan uzaklaştırdığını savunuyor.
Teknik tartışma: “Standart metrikler eksik”
AI Now Institute’ta baş yapay zeka bilim insanı olan Heidy Khlaaf, Claude Mythos’a ilişkin teknik verilerin yetersiz olduğunu belirtiyor. Khlaaf’a göre özellikle yanlış pozitif oranlarının açıklanmaması ve mevcut güvenlik araçlarıyla karşılaştırma yapılmaması ciddi bir eksiklik. Bu tür metrikler olmadan modelin gerçek performansını değerlendirmek mümkün değil.
Khlaaf yine de yapay zekanın büyük ölçekli kod tarama ve güvenlik açıklarını tespit etme konusunda güçlü bir araç olabileceğini kabul ediyor. Tartışma bu nedenle riskin varlığından çok, büyüklüğü ve sunuluş biçimi üzerine yoğunlaşıyor.
Aynı söylem daha önce de kullanıldı
Benzer bir yaklaşım daha önce de görülmüştü. 2019’da OpenAI, GPT-2 modelini kötüye kullanım riski nedeniyle yayımlamayı ertelemiş, ancak kısa süre sonra erişime açmıştı.
OpenAI CEO’su Sam Altman, yıllardır yapay zekanın insanlık için varoluşsal riskler taşıyabileceğini dile getiriyor. Altman, buna rağmen teknolojinin geliştirilmesi ve yaygınlaştırılması sürecini sürdürmeye devam ediyor.
Anthropic’in CEO’su ve kurucu ortağı Dario Amodei de benzer uyarılar yapan isimler arasında yer alıyor. 2023’te Altman, Microsoft’un kurucu ortağı Bill Gates ve Google DeepMind CEO’su Demis Hassabis ile birlikte yapay zekanın yok oluş riski yaratabileceğini belirten bir bildiriyi imzaladı. Aynı dönemde girişimci Elon Musk da gelişmiş yapay zeka çalışmalarına ara verilmesi çağrısında bulundu.
Ekonomik motivasyon: “Korku anlatısı değer yaratıyor”
Uzmanlara göre bu söylemin arkasında ekonomik teşvikler bulunuyor. Yapay zekanın potansiyel olarak tehlikeli olduğu vurgusu, teknolojinin değerini artırırken yatırımcı ilgisini de canlı tutuyor. Aynı zamanda şirketlerin regülasyon tartışmalarında kendilerini “sorumlu aktör” olarak konumlandırmasına imkan tanıyor.
Başlangıçta daha temkinli bir çerçeve çizen OpenAI ve Anthropic gibi şirketlerin zamanla daha agresif büyüme stratejilerine yönelmesi, bu ekonomik baskının etkisini gösteriyor. Google DeepMind’in bazı güvenlik sınırlarını gevşetmesi de bu eğilimin sektör geneline yayıldığını ortaya koyuyor.
Eleştirmenler, kıyamet senaryolarının bugünün somut sorunlarını geri plana ittiğini savunuyor. Yapay zekanın sağlık alanındaki hatalar, veri merkezlerinin karbon emisyonları, deepfake teknolojileri ve yanlış bilgi üretimi gibi etkileri halihazırda gözlemleniyor. Ancak kamuoyu tartışmasının daha çok gelecekteki olası felaketlere odaklanması, bu sorunların yeterince ele alınmasını zorlaştırıyor.
Ütopya ve distopya arasında
Dikkat çeken bir diğer unsur, aynı aktörlerin hem risk hem de kurtuluş senaryoları üretmesi. OpenAI CEO’su Sam Altman, yapay zekanın insanlık için tehdit oluşturabileceğini belirtirken aynı zamanda iklim krizini çözebileceğini ve bilimde devrim yaratabileceğini savunuyor.
Shannon Vallor’a göre bu ikili anlatı, kamuoyunu pasif bir konuma itiyor ve teknolojinin demokratik denetimini zorlaştırıyor. Vallor, yapay zekanın diğer tüm teknolojiler gibi düzenlenebilir olduğunu ve “kontrol edilemez bir güç” olarak sunulmasının yanıltıcı olduğunu vurguluyor.
Tartışma, yapay zekanın risklerinden çok bu risklerin nasıl anlatıldığına odaklanıyor. Uzmanlara göre ortada gerçek tehditler var, ancak bu tehditlerin büyüklüğü ve sunuluş biçimi, teknoloji şirketlerinin çıkarlarıyla doğrudan bağlantılı.
Kaynak: Gazete Oksijen
