Son yıllarda Çin, ABD, İngiltere ve Avrupa Birliği’nin yapay zekaya dair güvenlik kaygılarını birinci öncelik olarak belirlemesiyle birlikte dev bir sektörün doğuşuna tanık oluyoruz. Elbette otomotivden ilaç üretimine, imalat tezgahından çim biçme makinelerine kadar her teknoloji mümkün olduğunca güvenli hale getirilmeli. (Hatta insan sosyal medyanın da ilk günlerinde daha fazla denetlenmemesine hayıflanmadan edemiyor).
Gelgelelim güvenlik kaygılarını dile getirmek yetmiyor. Yapay zeka konusundaki tartışma hemen her zaman, çoğu bilişsel görevi bütün insanlıktan daha iyi yerine getireceği söylenen “yapay genel zekanın getireceği feci risklere karşı güvenlik” meselesine odaklanıyor. En popüler soru ise “uyum” hakkında: Yapay zeka modelleri kullanıcıların ve tasarımcıların hedef ve değerleriyle uyumlu sonuçlar verebilecek mi? Bu yaklaşım süper yapay zekanın ortaya çıkıp insanlığı yok ettiği muhtelif bilim kurgu senaryolarını beraberinde getiriyor. Örneğin Brian Christian “The Alignment Problem” kitabında ağırlıklı olarak yapay genel zekaya odaklanıyor. Sektörün önde gelen şirketlerinden Anthropic de aynı endişe sebebiyle modellerini kendi etik değer ve ilkelerini yücelten kendi “tüzüğüne” göre geliştiriyor.
İnsan biçimine sokulmamalı
Ancak bu yaklaşımlar doğru yolda değil. İki sebepten dolayı. Birincisi, bugünkü güvenlik tartışması yapay zekayı insan biçimine sokmakla kalmayıp bizi yanlış hedeflere de yönlendiriyor. Her teknoloji iyi veya kötü amaçlarla kullanılabilir. Önemli olan kim tarafından kontrol edildiği, neler hedeflendiği ve hangi düzenlemelere tabi tutulacağıdır.
Mesela 2017 yılında Virginia’nın Charlottesville kentindeki beyaz üstünlükçüler mitinginde bir otomobilin silah olarak kullanılmasını hiçbir güvenlik araştırması önleyemezdi. Yapay zeka sistemlerinin kendi karakteri olduğu önermesini baştan kabul edince bunların teoride doğru değer ve yasalara sahip olmasını sağlamaktan başka seçeneğimiz kalmıyor. Ancak bu önerme yanlış. Bu yüzden önerilen çözüm de son derece yetersiz.
Elbette yapay genel zekanın ortaya çıkması halinde bu süper zekayı zapt edebilecek herhangi bir koruma kalmayacağı için insanlığın hedefleriyle “uyumlu” olup olmaması önem taşıyacak. Ancak bu iddia bizi yapay zekanın ne kadar güvenli olduğuna dair birçok tartışmanın ikinci sorunlu boyutuna getiriyor. Şu an hiç muhtemel görünmeyen yapay genel zeka günün birinde gerçek olsa bile, süper olmayan yapay zekanın insanlar tarafından suistimali hala en yakın risk.
Zirvenin bir yıl öncesini düşünün
T tarihinde, söz gelimi 2040 yılında yapay genel zekanın icat edildiğini ve diğer yapay zeka modellerinin o zamana kadar otonom olmadığını varsayalım. (Yapay genel zekadan önce kendi kendilerine hareket etmeye başlarlarsa T tarihini bunu yaptıkları güne çekeriz.) T’den bir yıl öncesini düşünün. Yapay zeka sistemleri son derece becerikli, hatta süper zekanın eşiğine gelmiş olacak. O halde şu soruyu sormak gerekecek: Şimdi kontrol kimde?
Cevap elbette insanlar olacak. İster bireysel, ister hükümet, konsorsiyum veya şirket biçimindeki kolektif düzeyde olsun, yapay zekayı insanlar kontrol edecek. Meseleyi basitleştirmek için söz konusu aşamada yapay zekaya X şirketinin hakim olduğunu varsayalım. Bu şirket yapay zeka kabiliyetlerini istediği amaç için kullanabilir. Demokrasiyi yok edip insanları köleleştirmek isterse onu da yapabilir. Birçok uzmanın yapay genel zekayla ilişkilendirdiği tehdit, yapay genel zekadan önce gelmiş olacak.
Rekabet de tehlikeli olabilir
Aslında durum daha da beter olabilir çünkü X şirketi demokrasiyi yok etmeye niyetli olmadan da benzer bir sonuca yol açabilir. Şirketin hedefleri demokrasiyle tam uyumlu değilse (illaki böyle olacaktır) demokrasi tıpkı sosyal medya örneğinde olduğu gibi bu kasıtlı olmayan sonuçtan zarar görecektir.
Örneğin eşitsizliğin belli bir eşiği aşması demokrasinin düzgün işlemesini tehlikeye atabilir ancak bu gerçek X şirketini kendisini veya hissedarlarını zengin etmek için elinden geleni yapmaktan alıkoymayacaktır. Şirket teknolojiyi istediği gibi kullanabileceği için kendi yapay zeka modellerinin suistimalini önlemek adına oluşturduğu korumaların da önemi kalmaz.
Çözüm var mı?
Benzer şekilde, son derece becerikli yapay zeka modellerinin kontrolü X ve Y diye iki şirketin elinde olursa bunlardan biri veya ikisi birden toplumsal uyuma, demokrasiye ve insanların özgürlüğüne zararlı amaçlar peşinde koşabilir. (Birbirlerini kısıtlayacakları argümanı da ikna edici değil. Rekabet şirketleri ancak daha da pervasız hale getirecektir.)
Dolayısıyla yapay zeka güvenliği üzerinde çalışan çoğu araştırmacının istediği gibi yapay genel zekayı uyumlu ve kısıtlı hale getirsek bile güvende olmayız. Atılacak adım belli: Teknoloji şirketlerini dizginlemek için çok daha güçlü kurumlara ve yapay zekayı kontrol eden hükümetlerden hesap sorabilmek için çok daha güçlü demokratik ve sivil eylem tarzlarına ihtiyacımız var. Bu da yapay zeka modellerinin taraflılığı veya insanlığın hedeflerine uyumuyla mücadele etmekten bambaşka bir sınav anlamına geliyor.
Bilim kurguyla büyüyen yöneticiler
O halde neden insan biçimli yapay zekanın gelecekteki olası davranışına bu kadar kafayı takmış durumdayız? Nedenlerden biri, teknoloji sektörünün daha fazla yeteneği ve yatırımı kendine çekmesini sağlayan abartılı popülerlik. İnsanlar süper yapay zekanın getirebileceklerini ne kadar çok konuşursa kamuoyunda yapay genel zekaya o kadar yaklaştığımız algısı oluşuyor. Bireysel ve kurumsal yatırımcılar sıradaki büyük yeniliğe para saçarken süper yapay zekanın bilim kurgu tasvirleriyle büyümüş teknoloji yöneticilerine bir yeşil ışık daha yakılmış oluyor. Halbuki dikkatimizi daha acil risklere yoğunlaştırmak şart.
© Project Syndicate, 2024