16 Mayıs 2024, Perşembe Gazete Oksijen
Haber Giriş: 29.10.2023 18:04 | Son Güncelleme: 29.10.2023 23:53

NYT yazdı: Yapay zekanın gölgesi bile gerçek algısını öldürmeye yetti

Dezenformasyon araştırmacıları, tahminlere göre nispeten daha az sayıda yapay zeka sahtekarlığı tespit etti. Ancak yapay zeka içeriğinin dolaşımda olma ihtimali bile insanların gerçek görselleri, videoları ve ses kayıtlarını gerçek olmadığı gerekçesiyle göz ardı etmesine neden oluyor
Fotoğraf: Yousef Masoud / The New York Times
Fotoğraf: Yousef Masoud / The New York Times

Tiffany Hsu - Stuart A. Thompson / The New York Times

Korkunç bir görüntü internette hızla yayıldı: İsrail ile Hamas arasındaki çatışmanın ilk günlerinde çekildiği söylenen fotoğrafta ölen bir çocuğun yanmış cesedi görünüyordu.

Sosyal medyadaki bazı gözlemciler bunun birkaç tıklamayla gerçekçi görüntüler üretebilen yapay zeka araçları kullanılarak oluşturulan “Yapay Zeka tarafından oluşturulmuş sahte bir fotoğraf” olduğunu hemen tespit etti.

Hamas'ın 7 Ekim'deki terör saldırısından bu yana, dezenformasyon gözlemcileri, “deepfake” olarak bilinen gerçekçi görseller de dahil olmak üzere, yapay zeka araçları tarafından oluşturulan sahte ürünlerin halkın kafasını karıştıracağından ve propaganda çabalarını güçlendireceğinden endişeleniyordu.

Şu ana kadar teknolojinin savaşta büyük etki yaratacağı yönündeki tahminlerinde haklı çıktılar. Ancak tam olarak başta düşünülen sebepten dolayı değil…

Dezenformasyon araştırmacıları, tahminlere göre nispeten daha az sayıda yapay zeka sahtekarlığı tespit etti. Bunların da küçük bir kısmı ikna edici nitelikteydi. Ancak yapay zeka içeriğinin dolaşımda olma ihtimali bile insanların gerçek görselleri, videoları ve sesleri gerçek olmadığı gerekçesiyle göz ardı etmesine neden oluyor.

X, yani eski adıyla Twitter, Truth Social, Telegram ve Reddit gibi forum ve sosyal medya platformlarında insanlar siyasi figürleri, medya kuruluşlarını ve diğer kullanıcıları, yapay zeka içeriği yaratarak kamuoyunu küstahça manipüle etmeye çalışmakla suçladılar. Bu suçlama aslında gerçek olan görüntülerle ilgili olarak da yapıldı.

“Bir yalan örnek yeterli”

Berkeley'deki California Üniversitesi'nden bilgisayar bilimi profesörü ve dijital adli tıp, yapay zeka ve yanlış bilgilendirme uzmanı Hany Farid “Alıştığımız savaş standartlarının muğlaklığına rağmen, bu çatışma özellikle karmaşık. Deepfake hayaleti artık çok ama çok daha önemli. On binlerce kişiye gerek yok. Bir tane örneği ele alıp kuyuyu zehirlersin ve ardından her şey şüpheli hale gelir” diyor.

Samar Abu Elouf / The New York Times


Rand Corp. araştırma grubundan kıdemli davranış bilimcisi ve yapay zeka uzmanı Bill Marcellino “Dijital olarak gördüğünüz her şeyin kelimenin tam anlamıyla sentetik olma olasılığı varsa ne olur?” diye soruyor. Geçen hafta bir basın toplantısında konuşan Marcellino “Bu kesinlikle bilgiye güvenme veya güvenmeme şeklimizde bir dönüm noktası" diyor.

Gazze ile ilgili olarak yürüyen son derece duygusal tartışmaların ortasında, kullanıcıları sansürsüz ve yanlış içeriğe karşı korumaya çalışan çoğu sosyal medya platformlarına güven giderek yıpranıyor. Uzmanlar bugün artık art niyetli unsurların yapay zekanın kullanılabilirliğinden yararlanarak orijinal içeriği sahte olarak nitelendirdiğini söylüyor. Bu durum "yalancının kârı payı" adıyla anılıyor.

Savaş sırasındaki bu tür yanlış yönlendirmeler, gerçekten de yapay olarak oluşturulan bazı içerikler sayesinde desteklendi.

Gerçek hastane görüntüsüne şüpheyle bakıldı

X'te 1.8 milyon kez izlenen bir gönderide futbol taraftarlarının Madrid'deki bir stadyumda devasa bir Filistin bayrağı tutarken gösterildiği iddia edildi. Kullanıcılar, görüntüdeki çarpık gövdelerin yapay zeka neslinin bir işareti olduğunu fark etti. X'teki Hamas bağlantılı bir hesap, yerinden edilmiş İsrailliler için bir çadır kampını göstermeyi amaçlayan ancak gerçek İsrail bayrağındaki tek yıldız yerine iki mavi yıldızlı bir bayrak gösteren bir resim paylaştı. Gönderi daha sonra kaldırıldı. Truth Social ve Hamas'a bağlı bir Telegram kanalındaki kullanıcılar, İsrail Başbakanı Binyamin Netanyahu'yu kan içinde gösteren sahte fotoğraflarını paylaştı.

Yapay zeka müdahelesi izi olmayan gerçek görüntülere daha fazla zaman harcandı. Bunlardan biri de Gazze'de bombalanan bir hastanenin müdürünün bir basın toplantısında çekilen görüntüsüydü. Kimileri bu görüntünün de “Yapay Zeka tarafından oluşturulduğunu” ileri sürdü oysa aynı toplantıyı farklı kişiler başka açılardan çekmişti o kadar.

İsrail’in yayınladığı ses kaydı doğrulanmadı

Bazı diğer örnekleri kategorize etmek daha zor olmuş olmalı. İsrail ordusu, iki Hamas üyesi arasındaki telefon dinlemesi olarak tanımladığı bir konuşmanın kaydını yayınladı, ancak bazı dinleyiciler sesin sahte olduğunu söyledi. (The New York Times, BBC ve CNN, konuşmayı henüz doğrulamadıklarını haber yaptı).
Bazı sosyal medya kullanıcıları ise gerçeği yapay zekadan ayırt etme çabasıyla, dijital manipülasyonu tespit ettiğini iddia eden ancak güvenilir olmaktan uzak olduğu kanıtlanan tespit araçlarına yöneldi. The New York Times tarafından yapılan bir test, görüntü dedektörlerinin düzensiz bir performans geçmişine sahip olduğunu, bazen açıkça yapay zeka eseri olan resimlere yanlış teşhis koyduğunu ya da gerçek fotoğrafları sahte olarak etiketlediğini ortaya çıkardı.

Doğrulama araçları keskin değil

Manipüle edilmiş ve sentetik medya uzmanı Henry Ajder, mevcut yapay zeka algılama hizmetlerinin daha geniş bir araç paketinin parçası olarak potansiyel bir fayda sunabileceğini ancak içeriğin orijinalliği konusunda son söz olarak ele alınmalarının tehlikeli olduğunu söylüyor.

Uzman, deepfake tespit araçlarının “çok daha karmaşık ve çözülmesi zor bir soruna yanlış bir çözüm sunduğunu” belirtiyor.

İçerik Kaynağı ve Orijinallik Koalisyonu gibi girişimler ve Google gibi şirketler, algılama hizmetlerine güvenmek yerine, medya dosyalarının kaynağını ve geçmişini tanımlayacak taktikler üzerine çalışıyor. Bu çözümler de mükemmellikten çok uzak. İki grup araştırmacı kısa süre önce mevcut filigran teknolojisinin kaldırılmasının veya atlatılmasının kolay olduğunu buldu. Ancak bu yöntemleri savunanlar, bunların içeriğin kalitesine olan güvenin bir miktar yeniden kazanılmasına yardımcı olabileceğini söylüyor.

Eski görüntüler daha çok kullanılıyor

Siber güvenlik firması Sophos'un yöneticilerinden Chester Wisniewski “Neyin sahte olduğunu kanıtlamak anlamsız bir çaba olacak. Bu asla işe yaramayacak. Neyin gerçek olduğunu doğrulamaya nasıl başlayabileceğimiz konusunda daha kararlı olmamız gerek” diyor. Medya okuryazarlığı programı MediaWise'ın yöneticisi Alex Mahadevan'a göre, halkı kandırmak isteyen sosyal medya kullanıcıları şimdilik fotogerçekçi yapay zeka görüntülerine çok daha az bel bağlıyor. Daha ziyade hatalı olarak Gazze'deki mevcut durummuş gibi gösterdikleri önceki çatışma veya felaketler görüntülerini kullanıyorlar.
Mahadevan “İnsanlar inançlarını doğrulayan veya onları duygusallaştıran her şeye inanırlar. Bu şeyin iyi ya da kötü olmasının, ne kadar yeni olduğunun ya da buna benzer şeylerin bir önemi yok” diyor.

© 2023 The New York Times Company