18 Kasım 2024, Pazartesi Gazete Oksijen
Haber Giriş: 04.04.2023 10:26 | Son Güncelleme: 04.04.2023 10:43

Wall Street Journal yazdı: Yapay zeka ekonomiyi manipüle edebilir

Ünlülerin yapay zeka ile hazırlanan görüntüleri uzamanlar dahil olmak üzere çoğu kişiyi kısa bir süreliğine inandırmayı başardı. Fakat uzamanlar yapay zekanın gülünüp geçilecek bir şey olmadığını ve üretilen görüntülerin ekonomiyi manipüle etme kabiliyetinin de olduğunu söylüyor
Wall Street Journal yazdı: Yapay zeka ekonomiyi manipüle edebilir

Papa Francis'in modaya uygun beyaz bir puffer giydiği sahte görüntüler birçok insan için komik bir viral olarak adlandırdı. Ancak yapay zeka uzmanları, bunun sonuçlarının gülünecek bir şey olmadığını söylüyor. Wall Street Journal’ın haberine göre bazı araştırmacılar, Midjourney adlı yapay zeka görüntü üreticisi kullanılarak oluşturulan sahte görsellerin giderek daha inandırıcı olacağını ve yanlış bilgilendirme dalgasının işareti olduğunu söylediler. Yapay zeka ve sosyal medya alanında uzmanlaşanlar bile neyin gerçek neyin gerçek olmadığını her zaman ayırt edemiyor.

Stanford Üniversitesi'nde iletişim profesörü ve Stanford Sosyal Medya Laboratuarı'nın kurucu direktörü Jeff Hancock, Papa'nın görüntüsünün fotogerçekçiliği hakkında "Mükemmel olduğunu düşündüm. Her şey tam oturdu, belirgin bir bozulma yoktu" dedi. Yapay zeka günlük hayata girerek yemek planlamadan makale yazmaya kadar her şeyi mümkün kılabiliyor. Bu teknolojinin tüm potansiyeli henüz tam olarak fark edilmemiş olsa da Midjourney, ChatGPT, DALL-E ve Stable Diffusion gibi araçlar, internette kolayca yayılan metin ve görüntüler oluşturmak için halihazırda yaygın olarak kullanılıyor. 

Daha önce DALL-E kullanıcılarının gerçek insan yüzlerinin görüntülerini düzenlemeleri engelleniyordu, ancak bu kısıtlama geçen yıl kaldırıldı

Ayrıca, insanların kamuya mal olmuş kişilerin benzerliklerini çevrimiçi ortamda kullanmalarını ve istismar etmelerini de kolaylaştırdılar. Geçen yıl Leonardo DiCaprio ve Elon Musk gibi isimlerin yüzleri izinleri olmadan reklamlarda kullanılırken, NBC News geçen ay bir deepfake mobil uygulamasının reklamında cinsel açıdan kışkırtıcı videolar oluşturmak için oyuncu Emma Watson'ın yüzünün kullanıldığını açıkladı.

Yanlış bilgi yaratma potansiyeliyle mücadele ediliyor

Michigan Üniversitesi'nde elektrik mühendisliği ve bilgisayar bilimleri profesörü olan Andrew Owens, "Artık herhangi bir internet trolü, sadece birkaç tuşa basarak ve bir düğmeye tıklayarak, bir insanı kandırabilecek inandırıcı görüntüler yaratabilir" dedi. Stable Diffusion'ı yaratan Stability AI şirketinin sözcüsü yaptığı açıklamada, şirketin yapay zekanın yanlış bilgi yaratma potansiyeliyle mücadele etmenin yollarını aradığını söyledi. Şirket sözcüsü, "Şu anda bu endişeye güvenli ve uzun vadeli bir çözüm uygulamak için dijital güvenlik alanında önde gelen şirketler ve araştırmacılarla birlikte çalışıyoruz" dedi. 

Sahte haberlerin yayılmasında yeni bir dönem

Geçen hafta Donald Trump'ın tutuklanabileceği haberleri yayılırken, eski başkanın tutuklandığı, polis tarafından yakalandığı ve götürüldüğü görüntüler Twitter'da yayıldı. Görüntülerin çoğu, sahte Papa fotoğraflarını yaratmak için kullanılan Midjourney ile oluşturuldu. Carnegie Mellon Üniversitesi Heinz Bilgi Sistemleri ve Kamu Politikası Koleji'nde dijital medya ve pazarlama profesörü olan Ari Lightman'a göre, giderek daha sofistike hale gelen yapay zeka tarafından üretilen görüntülerin yaygınlaşması, sahte haberlerin yayılmasında yeni bir döneme işaret ediyor. Lightman, "Bunun bir tür evrim olduğunu düşünüyorum" dedi. Uzmanlar, yapay zeka görüntü üretimi gelişmeye devam ettikçe, çok fazla parmağı olan eller veya garip görünümlü gözbebekleri gibi sahte görüntülerin ortadan kalkmaya başlayacağını söyledi. 

Montreal Yapay Zeka Etik Enstitüsü'nün kurucusu ve baş araştırmacısı Abhishek Gupta, "Görüntü bakın, bu sahte olabilir şeklinde sunulduğunda, örümcek hisleriniz elbette aktif oluyor. Ancak normal durumlarda, sadece göz atıyorsanız, görüntüyü sorgulamaya devam etmek yerine görüntüye gülebilir ve kaydırmaya devam edebilirsiniz" dedi.

Uzmanlar, insan resimleri bulanık olduğunda ve yüzleri ayırt etmek zor olduğunda, gerçek olup olmadıklarını kesin olarak söylemenin zor olduğunu söyledi. Teorik olarak, sarmaş dolaş yakalanan gerçek bir ünlü çiftin hareketsiz görüntülerini oluşturmak nispeten kolay oluyor. Lightman, "Güçlü bilgisayar kabiliyetiyle, görüntülere hemen hemen istediğimiz her şeyi yaptırabiliriz. Onları belirli şekillerde bükebilir, Papa'nın parkası gibi belirli giysiler ekleyebiliriz" dedi.

Video oluşturmak hala zor

Ancak insan gözü hareketlerdeki en küçük düzensizlikleri bile algılayabildiğinden, gerçek insanların inandırıcı videolarını oluşturmanın yapay zeka için hala zor bir görev olduğunu eklediler. Videolar da aslında bir dizi farklı görüntüden oluşuyor ve her görüntünün inandırıcı olması gerekiyor. Bu makinelerin henüz tam olarak başaramadığı bir şey. Uzmanlar, teknolojinin yolda olduğunu ve muhtemelen beklenenden daha hızlı gelişeceğini söyledi. 

Tarihi olayların sahte versiyonları oluşturuluyor

Syracuse Üniversitesi'nde siyaset bilimi yardımcı doçenti olan Baobao Zhang, ünlülerin fotoğraflarının gerçekliği konusundaki tartışmaların buzdağının sadece görünen kısmı olduğunu söyledi. Dr. Zhang, son zamanlarda Reddit'te gördüğü, gerçek tarihi olayların sahte versiyonlarını oluşturmak için yapay zeka kullanan insanların görüntülerine atıfta bulundu. Dr. Zhang, "Bence sosyal medyada gerçek riskler var" dedi.

Ekonomiyi manipüle edebilir

Lightman, yapay zeka tarafından üretilen görüntülerin ekonomiyi manipüle etme kabiliyeti konusunda da endişeli olduğunu söyledi. Örneğin, bir CEO'nun şüpheli bir şey yaptığına dair sahte bir görüntünün bir hisse senedinin değerinin düşmesine neden olabileceğini ve potansiyel olarak tüm bir finans sektörüne zarar verebileceğini söyledi. Lightman, "Bence yanlış bilginin toplumsal bedelinin açık ve belirgin hale geleceği bir dönüm noktasına ulaşacağız" dedi.

Paranoyaya da yol açabilir

Bir görüntünün gerçekliği konusunda aşırı şüphecilik paranoyaya da yol açabilir. Gabon'da 2019'da hükümeti devirmeye yönelik başarısız bir darbe, şüpheli bölge sakinlerinin cumhurbaşkanının öldüğüne ve yılbaşı gecesi yayınladığı bir videonun deepfake olduğuna dair söylentiler yaymasının ardından başladı.