Geçtiğimiz hafta sevgili Daron Acemoğlu, bu sayfalarda bizlere yapay zekanın ve asteroidlerin insanlık için birincil bir tehdit unsuru olmadığını, insanlığın çözmesi gereken daha büyük problemler olduğunu vurguladı ve çok önemli noktalara parmak bastı. Müsaadesiyle, burada onun bıraktığı noktadan, kendimce bazı tespitlerde bulunmak ve Daron hocanın değindiği bazı noktaları kendi perspektifimden açmak istiyorum. İlk olarak, kötücül bir yapay zekanın insanlar için en büyük varoluşsal tehdit olmadığı fikri çok doğru. Her ne kadar birçok bilgisayar bilimci insan-benzeri bir yapay zekanın çok uzak olmadığını söylese de yapay zeka sahasının bu vaadi 1950’lerden beri değişmiş değil. Her 10 senede bir, bu vaat bir 10 sene daha ileri iteleniyor. Bu, ona ulaşamayacağımız anlamına gelmiyor. Evet, bir gün insan-benzeri, yani insandan ayırt edemeyeceğimiz bir yapay zeka geliştireceğiz. Ancak bunun ne zaman olacağı kesin olmadığı gibi, kontrol edilemeyeceği ve sonumuzu getireceği yönündeki beyanların da bilimsel bir temeli bulunmuyor. Yapay zeka güvenliği, çok önemli bir araştırma sahası; ancak modern teknolojilerin güvenliği zaten her zaman önemli araştırma sahaları yaratır. Nükleer enerji güvenliği araştırmaları olmasaydı, atom çekirdeğindeki güce hiçbir zaman güvenli bir şekilde hükmedemezdik.
Meteorlar zaten düşüyor
Benzer şekilde, 66 milyon yıl kadar önce dinozorları yok eden 10 kilometre çapa sahip meteor gibi bin göktaşı da insanlığın sonu için birincil bir tehdit değil. Aslında salt istatistik olarak bakacak olursanız, ortalama her 100 milyon yılda bir bu büyüklükte bir meteor Dünya’ya çarpıyor. 60-70 milyon yılda bir, bu kadar büyük olmasa bile insanlığı ciddi anlamda çökertebilecek bir meteorla yüzleşmemiz mümkün. Dolayısıyla meteor kaynaklı son büyük yok oluştan beri geçen zamana bakarak, istatistiki olarak riskli bir bölgede olduğumuz söylenebilir. Dahası, NASA gibi uzay kurumları, Dünya’yı tehdit edecek büyüklükte asteroidleri takip etmeye çalışıyor olsa da uzayın karanlık arka planında bu ölümcül kayaları erkenden ve yüksek kesinlikle tespit edecek sayıda teleskobumuz olmadığını da itiraf ediyorlar. Bu, büyük bir tehdit; ama soru şu: Ne kadar büyük bir tehdit? Aciliyet farkına dikkat
Burada kritik nokta, Daron hocanın da Toby Ord üzerinden anlattığı gibi, her potansiyel varoluşsal riskin eşit aciliyete sahip olmadığını ama bu aciliyet farklarının, daha düşük öncelikli olan sahalarda hiçbir araştırma yapılmaması yönünde bir çağrı olmadığını anlamak. Elbette yapay zeka güvenliği de araştırılacak; araştırılmaması büyük bir hata olur. Elbette meteor çarpması simülasyonları üzerinden acil durum planları yapılacak; yapılmaması büyük bir hata olur. Ancak popüler kültürde bu tür varoluşsal riskler üzerinden çizilen tablo, gerçeği yansıtmıyor. Bana kalırsa bunların amacı, insanların hayal gücü ile temel korkularını bir arada besleyerek, bunlardan prim yapmak veya hikayeler anlatmak. Yanlış anlamayın: Bunları, yapay zeka güvenliği araştırmalarını keyifle ve olabildiğince yakından takip etmeye çalışan, NASA’nın Jet İtim Laboratuvarı’nın Dünya’ya Yakın Nesneleri Araştırma Merkezi tarafından Uluslararası Astronomi Birliği Gezegensel Savunma Konferansı’nda düzenli aralıklarla yapılan meteor çarpma simülasyonlarının sonuçlarını takip eden biri olarak söylüyorum. Elbette yanılıyor olabilirim, ancak çok daha belirgin varoluşsal risklerle yüzleştiğimiz çok açık. Birkaç tanesini sayayım. 1 Nükleer silahlar. Nedense Sovyetler Birliği çöktükten sonra nükleer savaş tehdidi ortadan kalkmış gibi bir hava yaratıldı. Soğuk Savaş döneminden beri ülkelerin nükleer başlık sayısını azalttığı doğrudur; ancak günümüzde halen 13 binden fazla nükleer başlık var, bunların 2 bin kadarı aktif kullanıma hazır ve hemen hepsi Hiroşima veya Nagazaki’ye atılanlardan kat kat güçlü. Üstelik artık sadece 2-3 ülkenin değil, toplamda 9 ülkenin nükleer bombaları var ve birçok ülke de kendi bombalarını geliştirme çabası içinde. “İkinci saldırı avantajı” gibi stratejiler, nükleer bir savaş başlatmayı zorlaştırıcı bir etkiye sahip olsa da nükleer savaş dengesi oldukça hassas bir denge ve çizgi bir kere aşıldı mı geri döndürmek çok zor, hatta imkânsız olabilir. 2 İklim krizi. Bu konu o kadar dile pelesenk edildi ki; insanlar, iklim değişikliğinin an itibarıyla verdiği gözle görülebilir zararlara bile hissizleşti. Halbuki iklim krizi, sadece insanları değil, ekosistemleri tehdit ediyor. Ancak diğerlerinden farklı olarak, bu varoluşsal riskin uzun zamana yayılmış doğası, suyumuzun yavaş yavaş kaynadığını fark etmemize engel oluyor. Son 50 yılda biyoçeşitliliğin %68’ini, son 40 yılda okyanus yaşamının %49’unu yok etmiş olmamızdan daha akıl almaz bir istatistik var mı bilemiyorum. Ülkemiz, Dünya’nın geri kalanı gibi her yıl biraz daha ısınıyor, biraz daha kuraklaşıyor, ekstrem mevsim olayları daha güçleniyor ve olağan hale geliyor. Ekosistemler çöktükçe baş gösterecek yeni salgınlar ve vahşi doğa olayları (kasırgalar, hortumlar, fırtınalar, durdurulamaz yangınlar, kuraklıklar) insanlığa kolaylıkla diz çöktürebilir ve bu, bizi anlık olarak tehdit eden bir risk. 3 CRISPR gibi gen düzenleme teknolojileri ve bunlardan doğabilecek akıllı biyosilahlar. Bu teknolojiyi icat ettiği için Nobel Ödülü’ne layık görülen Jennifer Doudna’nın şu anda en aktif çalışmalarının CRISPR ve gen düzenleme etiği alanında olması tesadüf değil. Genleri hassas bir şekilde değiştirme yeteneği, atomu parçalamak kadar büyük bir teknoloji ve biz, artık bu güce sahibiz. Bu da tıpkı atomun parçalanabilirliği gibi kusursuz bir teknoloji değil; ancak kusurlarıyla bile insanlığı kökünden silebilecek veya intergalaktik medeniyet olma yolunda hız katacak bir potansiyele sahip. Hangisini seçeceğimiz, bu süreçte alacağımız kararlara, koyacağımız kısıtlara ve etkili bilim iletişiminin halkta nasıl yankı bulacağına bağlı. Tüm bunlar da bu varoluşsal riskin aciliyetini doğru tespit edebilmemize bağlı. Bunlar, bir yapay zekanın kontrolden çıkıp da bizi kontrol altına almasından veya beklenmedik bir anda dev bir asteroidin gelip bizi yok etmesinden çok daha olası, nefesi çok daha hissedilir varoluşsal riskler. Eğer hayal gücünüzü okşamak isteseydim süpervolkanlardan, uzaylı istilalarından, nanorobotlardan, mikro kara deliklerden, gama ışını patlamalarından, milyarlarca yıl sonra olabilecek Evren’in Büyük Parçalanma ihtimalinden bahsedebilirdim. Bunlar, sahte tehditler değiller; her biri pek âlâ bizi yok edebilecek tehditler: Örneğin Samanyolu Galaksisi içinde beklenmedik bir gama ışını patlaması, tam da Dünya civarında ve Dünya yönünde yaşanacak olursa atmosferimizi silip atabilirdi ve neredeyse tüm canlılığı yok ederdi. Ama bunu yakın vadede, yüksek ihtimalle olacak bir varoluşsal risk olarak yansıtmak, az önce saydıklarım gibi gerçek ve acil riskleri görmezden gelmeye, azımsamaya ve hatta kabullenmeye sebep olabilir. Bilimkurgu üzerine kafa yormak iyidir, zihin açar. Ancak iş öncelik belirlemeye geldiğinde, söz bilimin olmalıdır, hayal gücümüzün değil.