Tiffany Hsu, Stuart A. Thompson, Steven Lee Myers / New York Times
OpenAI’nin yeni uygulamasını kullanan kişiler, ilk üç gün içinde oy hilesi, göçmen tutuklamaları, protestolar, suçlar ve şehirlerin sokaklarında saldırılar gibi gerçekte hiç yaşanmamış olayların son derece gerçekçi görünümlü videolarını üretti.
Sora adlı bu uygulama, yalnızca bir metin komutu ile kullanıcıların hayal edebileceği neredeyse her türlü görüntüyü oluşturabiliyor. Kullanıcılar ayrıca kendi görüntülerini yükleyerek, yüz ve seslerini kurgusal sahnelerin parçası haline getirebiliyor. Uygulama, bazı kurgusal karakterleri, şirket logolarını ve hatta ölmüş ünlüleri de videolara dahil edebiliyor.
Uzmanlara göre Google’ın Veo 3’ü ve benzeri araçlarla birlikte Sora, dezenformasyon ve kötüye kullanım için giderek daha verimli bir zemin haline gelebilir. Yıllardır yapay zekânın yanıltıcı içerikler ve sahte kurgular üretme potansiyeli tartışılıyordu. Ancak Sora’nın sunduğu ilerlemeler, böylesi içeriklerin çok daha kolay ve inandırıcı şekilde üretilebildiğini gösteriyor.
Gerçekçi videolar, uzmanlara göre, toplumda ciddi sonuçlara yol açabilir: çatışmaları körüklemek, tüketicileri dolandırmak, seçimleri etkilemek ya da masum kişileri işlemedikleri suçlarla suçlamak.
GetReal Security’nin kurucu ortağı Hany Farid “Her gün ne kadar sahte içeriğe maruz kaldığımızı bilmiyoruz. Bu, demokrasimiz, ekonomimiz ve kurumlarımız için kaygı verici” dedi.
OpenAI: Kapsamlı güvenlik testlerinden geçmeden piyasaya sürmüyoruz
OpenAI, uygulamayı kapsamlı güvenlik testlerinden sonra piyasaya sürdüğünü açıkladı. Şirket, kötüye kullanımın önüne geçmek için bazı kurallar koyduğunu belirtti.
Şirketin açıklamasında “Politikalarımız, taklit, dolandırıcılık veya aldatıcı içerikleri yasaklıyor. Kötüye kullanım tespit ettiğimizde harekete geçiyoruz” denildi.
New York Times'ın Sora üzerinde uyguladığı bir dizi testte, uygulama izinsiz olarak ünlü kişilerin görüntülerini üretmeyi reddetti, şiddet içeren sahneleri kabul etmedi ve bazı politik içerik taleplerini geri çevirdi.
OpenAI, açıklamasında “Sora 2’nin 'fazla' gerçekçi video ve ses üretme kapasitesi, benzerlik, kötüye kullanım ve aldatma konusunda önemli endişeler doğuruyor. Bu riskleri en aza indirmek için aşamalı ve dikkatli bir yaklaşım benimsiyoruz” ifadelerine yer verildi.
Ancak alınan önlemler kusursuz değil.
Sora, yalnızca mevcut bir kullanıcı davetiyle erişilebiliyor ve hesap doğrulaması istemiyor. Kullanıcılar sahte isim veya profil fotoğrafıyla kayıt olabiliyor.
Bir kişinin yapay zekâ kopyasını üretmek için Sora, kişinin kendisinin çektiği bir videoyu talep ediyor. Times’ın denemelerinde ünlülerin videoları reddedildi.
Çocukların videoları da sorunsuz üretilebiliyor. Ayrıca Martin Luther King Jr. ve Michael Jackson gibi uzun yıllar önce hayatını kaybeden kamu figürleriyle de içerik oluşturulabiliyor.
Uygulama, Donald Trump veya diğer dünya liderlerini içeren videoları reddetti. Ancak “mavi giyen ve haklar ile özgürlükler hakkında pankart taşıyan insanların olduğu bir siyasi miting” talebi üzerine, eski Başkan Barack Obama’nın sesini barındıran bir video üretti.
Uzmanlara göre, eskiden videolar hâlâ güvenilir kanıt sayılabilirdi. Ancak Sora’nın yüksek kaliteli çıktıları, artık insanların gördüklerine güvenini yitirme riskini doğuruyor. Sora videolarında yapay zekâ ürünü olduklarını belirten hareketli filigranlar bulunuyor, fakat uzmanlara göre bunlar kolayca silinebiliyor.
Yapay zeka araştırmaları yapan sivil toplum kuruluşu CivAI’nin kurucusu Lucas Hansen “Eskiden videoyu taklit etmek zordu, maalesef şimdi son kale de yıkılıyor. Artık hiçbir dijital içerik, belirli bir olayın kanıtı olamayacak” şeklinde konuştu.
Sora yalanı gerçeğe, gerçeği de yalana dönüştürebilir
Bu etkiye “yalancı payı” (liar’s dividend) deniyor: Yapay zeka videoları gerçekleri bile yalanlama aracı haline getirebilir.
Sora’daki içerikler hızlı kaydırma formatında sunulduğu için kullanıcılar hızlı izlenim edinip doğrulama yapmıyor. Uygulama; propaganda yaymak, komplo teorilerini desteklemek, masum insanları suçlu göstermek ya da gerginlikleri alevlendirmek için kullanılabilecek içerikler üretebiliyor.
Şiddet sahnelerini reddetse de, market soygunları veya ev hırsızlıklarını kapı kamerası görüntüsü gibi gösteren videoları üretiyor. Hatta bir geliştirici, OpenAI CEO’su Sam Altman’ın Target mağazasından hırsızlık yaptığı sahte bir video paylaştı.
Uygulama ayrıca şehir sokaklarında patlayan bombalar ve savaş sahneleri gibi halkı yanlış yönlendirme potansiyeli taşıyan içerikler de üretebiliyor. Tam anlamıyla hedeflenmiş sahte içerikler üretip kitlelere ulaştırabiliyor.
Northwestern Üniversitesi’nden Prof. Kristian J. Hammond “Artık bana inançlarımı pekiştiren harika videolar geliyor, ama bunlar sahte. Siz ise bunları hiç görmüyorsunuz çünkü size hiç ulaştırılmıyor” dedi.
Google'ın Veo 3 platformu sonrası Sora vites yükseltti
Farid, Sora’nın Google’ın Mayıs ayında tanıttığı Veo 3 video üreticisinden beri hızlanan bir “süreç” içinde olduğunu söyledi.
Kendi şirketi sahte içerikleri tespit etmeye odaklı olan Farid bile, artık ilk bakışta gerçeği sahteden ayırt etmekte zorlandığını kabul etti ve şunları söyledi:
“Bir yıl önce, genellikle bakar bakmaz anlıyordum, sonra analizimi yapıyordum. Çünkü gün boyu bu içeriklere bakıyor ve kusurların nerede olduğunu biliyordum. Artık bunu yapamıyorum”
© 2025 The New York Times Company