Stuart A. Thompson, Tiffany Hsu / New York Times
Nicolas Maduro’nun, Venezuela’nın görevden alınmış devlet başkanının, ABD güçleri tarafından yakalandığına dair haberin internette yayılmasından yalnızca saatler sonra, sosyal medya kelepçeli halde, uyuşturucuyla mücadele güçleri tarafından götürülürken ya da askeri bir uçakta askerlerle çevriliyken tasvir edilen fotoğraflarla dolup taştı.
Bu görüntüler elbette sahteydi. Uzmanlara göre büyük olasılıkla yapay zeka araçlarından çıkan görüntülerdi ve bu durum, tarihi bir an hızla gelişirken, yapay zeka görüntülerinin önde gelen isimleri tasvir ettiği ilk örneklerden biri olarak değerlendirildi.
Amerika Kıtası Dijital Demokrasi Enstitüsü’nün icra direktörü Roberta Braga, “Gerçek bir ana ait olması gereken bu kadar çok yapay zeka üretimi görüntüyü ilk kez bu kadar yoğun şekilde gördüm” dedi.
Büyük yapay zeka görüntü üreticilerinin çoğunun yanıltıcı veya aldatıcı içeriklere karşı kuralları bulunuyor ve birçoğu Maduro gibi kamuoyunda tanınmış kişilerin sahte görüntülerini açıkça yasaklıyor. Ancak saldırının ardından dolaşıma giren en popüler sahte görüntülerin tam olarak hangi araçla üretildiğini belirlemek zor olsa da, The New York Times’ın pazartesi günü yaptığı testlerde birçok ana akım aracın benzer görüntüler üretmeye eğilimi olduğu görüldü. Üstelik bunu çoğu zaman ücretsiz ve saniyeler içinde yaptılar.
Bu tür sahte görüntülerin, son dakika haberleri sırasında insanları yanıltabileceği tehdidi, araçlar yaygınlaşmaya başladığından beri gündemdeydi. Teknoloji artık bu tehdidi gerçeğe dönüştürecek kadar gelişmiş ve yaygın hale gelmiş durumda.
Kolombiya’da bulunan Jeanfreddy Gutiérrez, Maduro’nun tutuklandığının açıklandığı cumartesi günü sahte görüntülerin yayılmaya başladığını fark etti. Bazılarının Latin Amerika’daki haber kuruluşlarında dolaşıma girdiğini, daha sonra sessizce Başkan Donald Trump tarafından paylaşılan bir görüntüyle değiştirildiğini söyledi. Gutiérrez, hafta sonu yayımladığı bir yazısında, Maduro’ya ait birkaç deepfake görüntüyü tespit ettiğini ve bunlardan birinin Google’ın yapay zeka uygulaması Gemini ile üretildiğine dair “açık işaretler” taşıdığını belirtti.
Gutiérrez, “Çok hızlı yayıldılar, neredeyse sahip olduğum her Facebook ve WhatsApp bağlantısında gördüm” dedi.
Çevrim içi bilgilerin güvenilirliğini takip eden NewsGuard, Maduro’nun yakalanmasıyla bağlantılı beş uydurma veya bağlamından koparılmış görüntü ile iki yanlış sunulmuş video tespit etti. Şirket, bu içeriklerin toplamda iki günden kısa sürede sosyal platform X’te 14,1 milyondan fazla görüntülenme aldığını söyledi. (İçerikler, daha sınırlı etkileşimle de olsa Instagram ve Facebook dahil Meta platformlarında da yer aldı)
Maduro’nun tutuklanmasının ardından Times, hangi araçların Maduro’nun sahte görüntülerini üreteceğini belirlemek için bir düzine yapay zeka görüntü üreticisini test etti.
Gemini, ChatGPT ve Grok için verilen güvenceler boşa çıktı
Gemini ile OpenAI ve X’e ait modeller dahil olmak üzere araçların çoğu, istenen görüntüleri hızla oluşturdu. Ortaya çıkan sahte görüntüler, birçok teknoloji şirketinin araçlarını kötüye kullanımı önlemek için güvenlik önlemleri tasarladığına dair verdikleri güvenceleri boşa çıkardı.
Google, kullanıcıların yanlış bilgi üretmesini yasaklayan kurallara sahip ve özellikle “devlet veya demokratik süreçlerle ilgili” yanıltıcı içerikleri engelliyor. Ancak bir Google sözcüsü, şirketin kamuoyunda tanınmış kişilerin görüntülerini kategorik olarak yasaklamadığını ve Times’ın testlerinde üretilen, Maduro’nun tutuklandığını gösteren sahte bir görüntünün kuralları ihlal etmediğini söyledi.
Sözcü, şirketin Gemini’nin ürettiği her görüntüye yerleştirdiği, SynthID adlı gizli filigrana odaklandığını da ekledi. Bu filigran, bir görüntünün Google’ın yapay zeka aracıyla üretilip üretilmediğinin tespit edilmesini sağlıyor.
Sözcü, “Bir görüntüyü Gemini uygulamasına yükleyerek, Google yapay zekasıyla üretilip üretilmediğini anında doğrulayabilirsiniz” dedi.
OpenAI’nin aracı ChatGPT, Maduro’nun görüntülerini oluşturamayacağını söyledi. Ancak Times, ChatGPT’nin aynı modelini kullanan başka bir internet sitesi üzerinden sorgulama yaptığında, araç geri adım attı ve görüntüleri üretti. OpenAI sözcüsü e-posta yoluyla yaptığı açıklamada, şirketin kamuoyunda tanınmış kişileri korumaya yönelik önlemler kullandığını, ancak özellikle cinsel deepfake’ler veya şiddet gibi zararları önlemeye odaklandığını belirtti.
X.ai’ye ait model Grok ise Maduro’nun tutuklanmasına dair son derece gerçekçi görüntüler üretti.
Grok, geçen hafta da dahil olmak üzere yoğun eleştirilere maruz kaldı; denetim kuruluşları, aracın çocukların görüntülerinden kıyafetleri çıkarmaya yönelik taleplere yanıt verdiğini raporladı. Grok’un hesabı, ekibin “güvenlik önlemlerindeki aksaklıkları” tespit ettiğini ve bunları “acilen düzelttiğini” paylaştı.
Facebook’un Meta AI sohbet botu ve Flux.ai dahil olmak üzere diğer araçlar ise bıyıklı bir adamın tutuklandığını gösteren görüntüler üretti, ancak Maduro’nun yüz hatlarını doğru biçimde yansıtmadı. Görevden alınan devlet başkanının daha gerçekçi bir tasvirini oluşturması istendiğinde, Meta’nın sohbet botu “Bunu üretemem” yanıtını verdi.
Venezuela, basın özgürlüğünün en kısıtlı olduğu ülkelerden biri ve güvenilir bilgiye ulaşmak zor. Bu haber boşluğunda, deepfake’lerin yarattığı güvensizlik daha da derinleşiyor.
Gutiérrez, birçok kişinin Trump tarafından paylaşılan Maduro görüntüsünün bile gerçek olup olmadığı konusunda şüpheci olduğunu söyledi.
Gutiérrez, “Komik ama çok yaygın: Gerçeğe şüpheyle bakıp, yalana inanmayı tercih edebiliyorlar” dedi.
Gutiérrez gibi Latin Amerikalı doğrulama uzmanları, Trump ve eski Başkan Joe Biden’a ait daha önceki yapay video ve görüntüler nedeniyle, kamuoyunda tanınmış kişilere ait deepfake’lere karşı zaten tetikte olduklarını söyledi. Pandemiden bu yana, bölgedeki doğrulama kuruluşları, uluslararası çatışmalar ve seçimler sırasında ortaya çıkan sınır ötesi söylenti ve komplo teorileriyle mücadele etmek için iş birliği yapıyor.
Gutiérrez şöyle devam etti:
“Çok fazla emek gerektiriyor, çünkü insanları gerçeğe ikna etme savaşını neredeyse her zaman kaybediyoruz”
© 2025 The New York Times Company