22 Aralık 2024, Pazar Gazete Oksijen
21.05.2021 06:00

Art niyetli yapay zekadan çok daha acil sorunlarımız var

Bill Gates ve Elon Musk’ın da dahil olduğu birçok isim, insanlığın kötücül süper zekaya yem olabileceği kaygısını paylaşıyor. Bir gün gerçekten de kendimizi bir uçurumda bulabiliriz fakat şu an zaten yokuş aşağı gidiyoruz

Dinozorların hakimiyeti, 65 milyon yıl önce bugünkü Meksika’nın Chicxulub adlı kasabasının kurulu olduğu yere düşen bir asteroitle sona ermişti. Söz konusu kaya ve metal kütlesi aslında çok büyük değildi – muhtemelen uçtan uca 10 kilometre kadardı – fakat Dünya’ya saatte 60 bin kilometreden daha yüksek bir hızla çarparak Hiroşima’ya atılan atom bombasının milyarlarca katı büyüklüğünde bir patlamaya yol açmış ve bin kilometre çevresindeki tüm yaşamı yok etmişti. Dahası, patlama üst atmosfere devasa bir toz ve kül bulutu göndererek güneşi yıllarca bloke etmişti. Sonuçta fotosentez imkânsız hale gelmiş, sıcaklıklarda keskin düşüşler yaşanmıştı. Tam da bu yüzden bilim insanları dinozorların ve başka birçok türün yok olmasını söz konusu atmosfer tozuna ve sülfat aerosollerine bağlıyor.  Bugün yeryüzüne benzer bir asteroit veya kuyrukluyıldız çarpacak olsa, hem birçok türü hem de insan medeniyetini dünyadan silerek yeni bir kitlesel yok oluşa yol açabilir. Bu uzak ihtimale ve insanların sebep olmadığı ama türümüzün tamamını veya büyük bölümünü yok edebilecek benzer olaylara varoluşsal risk adı veriliyor.  Ancak insan kökenli varoluşsal riskler de var. Oxford Üniversitesi’nden felsefeci Toby Ord’un The Precipice: Existential Risk and the Future of Humanity (Uçurum: Varoluşsal Risk ve İnsanlığın Geleceği) adını taşıyan kitabında belirttiği gibi, mevcut ve gelecek yüzyılda bizi en çok insan kökenli risklerin kaygılandırması gerekiyor.

İnsanlığı yok edebilecek araçlar

Ord, bilim ve teknolojinin sorun çözmek ve refaha ulaşmak için insanoğlunun elindeki en güçlü araçlar olduğunu kabul ediyor. Ancak böyle büyük bir gücün yanlış ellere geçmesi veya uzun vadeli ve istenmeyen sonuçları düşünülmeden kullanılması durumunda birçok tehlikeyi beraberinde getireceğini hatırlatıyor. İnsanlığı yok etmeye muktedir araçları geliştirdik ama içinde bulunduğumuz tehlikeyi fark etmek için gerekli olan bilgelikten yoksunuz. Ord’a göre güç ile bilgelik arasındaki boşluk, insanlığın geleceğinde belirleyici olacak. Bir yandan, tamamen yok olabilir veya uygarlığın alametifarikalarının çoğunu (aşı ve antibiyotiklerden sanat ve yazıya kadar) silip götürecek bir çöküş yaşayabiliriz. Öte yandan Ord, insanlıkta gördüğün potansiyelin uzun vadede kozmik ölçekte bir gelişim vaat ettiğini söylüyor. Buna göre insanlar bilgeliği ve teknolojik hüneri bir araya getirerek bu gezegenden pekâlâ daha uzun yaşayabilir ve uzayda yeni medeniyetler kurabilir. Ord, evrende bizden başka zeki yaşam formu olmayabileceğini kabul ediyor. Gerçekten de yalnızsak bu gezegendeki herkesi silip götürecek bir kitlesel yok oluş, evrenin geri kalanındaki zeki ve anlamlı varoluş potansiyelinin tamamını ortadan kaldırmış olur. Ord buradan hareketle matematikçilerin ve iktisatçıların “sözlükbilimsel tercih sıralaması” olarak bildiği aşamaya ulaşıyor. Sözlükbilimsel (leksikografik) sıralama, bir tercih için çok sayıda kriter varsa, iki seçeneği kıyaslarken tercihi kolaylaştırmak adına kriterlerden birine baskın bir önem atfeder.  Ord’un felsefi tutumu bir sözlükbilimsel sıralamaya karşılık geliyor çünkü ne pahasına olursa olsun varoluşsal riski en aza indirmemiz gerektiğini söylüyor. Varoluşsal riskin minimuma indirildiği bir gelecek, diğer değişkenlere bakılmaksızın, bu riskin en aza indirilmediği başka her gelecek olasılığına baskın çıkar. Ord’a göre  en büyük tehdit, kontrolümüz dışında evrimleşmiş yapay süper zekadan geliyor.
Hükümet ve şirketlerin güncel riskleri kabul etmesi yönünde baskı oluşturmak adına soruna daha fazla dikkat çekmemiz gerekiyor. Otomasyon, anti-demokratik manipülasyon ve gözetim peşinde koşan bir teknoloji sektörünün, uzun vadeli risklerle mücadele için sağlam bir zemin sunmadığı açık.
Hükümet ve şirketlerin güncel riskleri kabul etmesi yönünde baskı oluşturmak adına soruna daha fazla dikkat çekmemiz gerekiyor. Otomasyon, anti-demokratik manipülasyon ve gözetim peşinde koşan bir teknoloji sektörünün, uzun vadeli risklerle mücadele için sağlam bir zemin sunmadığı açık.

Gerçekten ilerledik mi?

Bilimin önayak olduğu varoluşsal risklerin ilk kez nükleer silahların yapımını mümkün kılan kontrollü zincirleme nükleer reaksiyonlarla ortaya çıktığı söylenebilir. Hiroşima ve Nagazaki’ye atılan atom bombaları düşünülünce, Ord nükleer silahların icadından bu yana (toplumsal) bilgeliğimizin artmadığında haklı gibi.  Ord, gelecek yüzyıla kadar hayatta kalmamız halinde, bugünkü yetersiz kurumsal çerçevenin vakti gelince ele alınabilecek geçici bir sorun olduğunu düşünüyor. “Çünkü türümüzün tarihi için hayati bir andayız” diyor. “Teknolojik ilerlemeyle beslenen gücümüz öyle büyüdü ki uzun insanlık tarihinde ilk kez kendimizi yok etme kapasitesine sahibiz…” Ord kitabı yazmaktaki amacının “bilgeliğimiz ile gücümüz arasındaki boşluğu kapatmaya ve insanlığa neyin bahis konusu olduğuna dair daha açık bir görüş sunmaya başlayarak, geleceğimizi güvence altına almamız için zorunlu olan seçimleri yapmamızı sağlamak” olduğunu belirtiyor.  Ne var ki bunun gerçekte uygulanabilir olduğuna dair bir kanıt göremiyorum. Teknolojinin yıkıcı gücünü dizginleme konusunda toplumun ve liderlerin bilgece davrandığına dair bir işaret de yok. Alman sosyolog Norbert Elias’ın “medenileşme süreci” olarak adlandırdığı kavrama dayanarak Ord’un iyimserliğine destek verilebilir. Elias’a göre Ortaçağ’dan bu yana, ekonomik kalkınma süreci ve gerek anlaşmazlıkları çözmek gerekse şiddeti kontrol altına almak için devlet kurumlarının ortaya çıkışı, kitle toplumlarının bir arada yaşayabilmesine vesile olan görgü ve davranışların benimsenmesini sağladı. Elias’ın gelişmiş ekonomilerdeki insanların daha az şiddet eğilimli ve daha toleranslı olacağı yönündeki incelikli savunusu, kısa süre önce Harvard Üniversitesi’nden bilişsel psikolog ve dilbilimci Steven Pinker’ın Doğamızın İyilik Melekleri: Şiddet Neden Azaldı? [Alfa Yayınları, 2019] adlı çok satan kitabıyla yeniden popüler hale geldi. Her iki yazar da bilim ve teknolojinin kötüye kullanımını kontrol altına almaya yarayacak norm ve kurumların güçlendirilmesi beklentisini neden sürdürmemiz gerektiğine dair argümanlar ortaya koyuyor. Ancak böyle bir medenileşme süreci, siyasi liderleri ya da bilim insanlarını pek de etkilemiş görünmüyor. Medenileşme sürecinin 20. yüzyılın ilk yarısında en görkemli günlerini yaşıyor olması gerekirdi; ne var ki Nobel ödüllü kimyager Fritz Haber bilgisini büyük bir hevesle kullanıp kimyasal silahlar icat etti ve bunları I. Dünya Savaşı sırasında Alman ordusuna pazarladı. 

75 yıldır dünya savaşı çıkmadı diye sevinenlere...

Hiroşima ve Nagazaki’ye saldırı emri veren Amerikalı liderlerin düşünce yapısında veya II. Dünya Savaşı sonrası nükleer silahlara kucak açan diğer siyasi liderlerin tutumlarında da medenileşme sürecinin etkisine dair kanıtlar görmek mümkün değildi. Bazıları son 75 yılda yeni bir dünya savaşı çıkmadığı gerçeğinden umut devşirebilir. Ancak bu iyimser bakış, 1962’deki Küba Füze Krizi başta olmak üzere birçok kez felaketin kıyısına geldiğimizi göz ardı ediyor. İnsan kökenli riskleri kontrol altına alma ve kolektif bilgeliği yeşertme konusunda iyiye gitmek şöyle dursun, giderek daha “medeni” hale geldiğimiz fikriyle bile çelişen daha birçok örnek bulunabilir. Aksine, kötü davranışlarımızı kontrol altına almak ve gerek bilimsel keşifler gerekse teknolojik yeniliklerle yoğrulan sürekli değişime ayak uydurmak, kalıcı sorunlarımızdan biri olmaya devam edecek. Bu yüzden Ord’un argümanının geri kalanı sorunlu hale geliyor. Mevcut seçimlerimizin şu anda ve yakın gelecekte yaratacağı sorun ve acıları gidermeye yönelik çabalara öncelik vermek varken, uzak gelecekteki varoluşsal risklerin giderilmesine neden öncelik verelim ki? Farz edelim önümüzdeki birkaç yüzyılda, insanlığın çoğunu köleleştirerek soyumuzun tükenme tehlikesini kayda değer oranda azaltma şansımız var. Ord’un sözlükbilimsel sıralaması uyarınca bu seçeneği tercih etmemiz gerekiyor. Çünkü bu tercih yapılınca hem varoluşsal risk en aza indirilmiş hem de insanlığın uzak gelecekteki bir aşamada gelişme potansiyeli korunmuş oluyor. Ancak bu argüman herkesi ikna edemeyecektir. İkna olmayanlar arasına beni de yazabilirsiniz.

Şeytani makineler çağı mı geliyor?

Bu tercihi daha iyi açıklamak için, Ord’un odaklandığı en temel varoluşsal riski, yani yapay zekanın kötüye kullanımını ele alalım. Ord’un tahminine göre, önümüzdeki 100 yılda insanlığın (usturuplu bir ifadeyle “müttefik olmayan yapay zeka” adını verdiği) kötücül bir süper zekaya yem olma olasılığı onda bir. Öte yandan iklim değişikliğinin insanlık için teşkil ettiği varoluşsal riskin binde bir, asteroit veya kuyrukluyıldız çarpma ihtimalinin ise milyonda bir oranında olduğunu öngörüyor. Birçok uzman süper zeka tehdidini bu kadar yüksek bir olasılık olarak görmese de yapay zeka (AI) araştırmalarının uzun vadedeki olası sonuçlarından kaygılanan tek kişi Ord değil. Aslına bakılırsa teknoloji dünyasında, Berkeley’deki California Üniversitesi’nden Stuart Russell, Microsoft kurucusu Bill Gates ve Tesla’nın kurucusu Elon Musk’ın da aralarında bulunduğu birçok isim aynı kaygıları paylaşıyor. Bana göre yakın gelecekte süper zekanın ortaya çıkma ihtimali düşük; kötücül bir süper zekanın medeniyetimizi yok etme riski ise daha da az. Hâl böyleyken, kamuoyundaki tartışmaların merak uyandırıcı ama olanak dışı uzak riskler yerine, AI’nin halihazırda insanlık için teşkil ettiği sorunlara odaklanmasını tercih ederim. AI tasarımının ve dağıtımının mevcut gidişatı bizi yanlış yönlendirerek çok sayıda acil soruna yol açıyor. Kaçınılması gayet mümkün ve teknolojinin kendine özgü mantığını yansıtmaktan uzak olan bu sorunlar, büyük teknoloji şirketlerinin – özellikle de bu şirketlerdeki veya onların yörüngesindeki küçük bir grup yönetici ve bilim insanının – yaptıkları (ve bize dayattıkları) tercihlerin bir yansıması durumunda.  En görünür sorunlardan biri AI’nin sebep olduğu kesintisiz otomasyon. Bu durum çalışanları yerinden ediyor, eşitsizliği artırıyor ve iş gücünün büyük kısmına dair olası işsizlik endişesini güçlendiriyor. Daha da kötüsü, otomasyon takıntısı verimlilik artışının yerini alıyor; sonuçta yöneticiler ve bilim insanları yenilikçi teknolojilerin daha verimli, insanı tamamlayıcı bir şekilde kullanımını yok sayıyor.  AI tasarım ve kullanımına ilişkin başka sorunlar da var ve hiçbiri insanlığın ahlaki ilerleyişine dair umut vermiyor. Demokratik siyaseti kirleten tek unsur algoritmik olarak güçlendirilen dezenformasyon değil; hükümet ve şirketlerin milyarlarca insanın davranışını izlemesine ve manipüle etmesine yardımcı olan yeni AI teknolojileri de bu süreçte rol oynuyor.

Çözüm hükümet ve şirketlere baskı uygulamak

Bu gelişim çifte sorun anlamına geliyor. Demokratik siyaset, politik ve ekonomik elitin uygunsuz davranışlarının toplum tarafından dizginlenebilmesi için başlıca yöntem durumunda; ancak şu anda tam da bu sürecin altı oyuluyor. Demokrasi zarar gördüğü için elitleri sebep oldukları hasardan sorumlu tutamaz hale gelirsek, mevcut çıkmazdan nasıl kurtulabiliriz? Yine de çaresiz değiliz. AI’nin getirdiği bedellerin üstesinden gelinebilir çünkü Ord’un odaklandığı varoluşsal risklerin aksine, bunlar somut ve tespiti kolay sorunlar. Ama ilk olarak, hükümet ve şirketlerin şu an gerçekleşmekte olan riskleri kabul etmesi yönünde baskı oluşturmak adına soruna daha fazla dikkat çekmemiz gerekiyor. Otomasyon, anti-demokratik manipülasyon ve gözetim peşinde koşan bir teknoloji sektörünün, uzun vadeli risklerle mücadele için sağlam bir zemin sunmadığı açık. Elbette insanlığın maruz kalabileceği daha spekülatif riskleri yok saymamalıyız ama öncesinde, şu an karşımızda duran tehditleri görmezden gelme lüksümüz yok. Günün birinde gerçekten de kendimizi bir uçurumda bulabiliriz fakat ancak şu an zaten kaygan zeminde yokuş aşağı gidiyoruz. © Project Syndicate.
Daron Acemoğlu
Daron Acemoğlu