24 Şubat 2024, Cumartesi
09.02.2024 04:30

Dolandırıcılıkta yeni sürüm: ‘Deepfake’

Geçmişte emekli generallerin adını kullanarak örtülü ödenekten bağış toplayanlar vardı. Son yıllarda sahte savcı-polis tiplemesiyle telefonda para isteme furyası yaşanıyor. Yapay zeka teknolojisi ile dolandırıcılık sektörü de kendini güncelledi. Artık tanıdığınız bildiğiniz biri bile sizden para isterse iki kere düşünmek lazım


Dolandırıcıların yüksek teknolojiyi kendi amaçları doğrultusunda kullanımı günden güne gelişiyor. Son olarak Hong Kong’da adı açıklanmayan çok uluslu bir finans kuruluşunun çalışanları ‘deepfake’ (derin sahtecilik) teknolojisini kullanan dolandırıcılara şirketin 25,6 milyon dolarını kaptırdı. Yapay zeka ya da makine öğrenmesi yolu ile oluşturulan sahte ses kayıtları ve video iletileri ile insanları kandırmayı amaçlayan bu dolandırıcılık türü hayatımıza yeni yeni giriyor. Aslında ‘deepfake dolandırıcılık’ olayını bizde yıllardır bir klasik haline gelen telefon dolandırıcılığının yeni ve teknolojik versiyonu olarak da görebiliriz. Hong Kong’da yaşanan olayda da ilk olarak şirketin İngiltere’deki CFO’sundan sahte bir e-mail geliyor. Mesajda gizli bir işlem için ivedi olarak para transferi yapılması gerektiği anlatılıyor. Şirket içinde bunun doğru olamayacağı düşünülüp önce ciddiye alınmıyor. Ayrıca bir çalışan dolandırılmadıklarından emin olmak için mail’e dönüş yapıp biraz ayrıntı soruyor. CFO kararlı bir şekilde parayı talep edip ayrıntıları bir video görüşmeyle anlatmayı teklif ediyor. Ertesi gün birkaç çalışanın katıldığı görüntülü görüşmede CFO’nun ses ve görüntüsüyle oluşturulan deepfake video sayesinde para transferinin hemen beklendiği confirme edilmiş oldu. Yani kimse bir sahtecilik olduğunu anlamıyor. Dolayısıyla önce sahte e-mail ardından katılımcılarla yapılan deepfake telekonferans görüşmesiyle şüpheye yer kalmıyor. Olay 25,6 milyon dolar uçup gittikten 2 gün sonra ortaya çıktı. Polis içeriden işbirlikçi olma ihtimali üzerinde duruyor. Bu çetenin daha önce yüz tanıma teknolojilerini aşarak bankalardan kredi çekme girişimleri de saptandı. 

Görüntü saçmak sizi hedefe koyar

Peki gitgide yayılan bu teknolojik kumpas ve dolandırıcılıklara karşı nasıl korunacağız? İlk iş kendi ellerimizle rıza verdiğimiz kişisel bilgilerimizin kullanımını sınırlamak. Çünkü sosyal medyada sesini ve videosunu sıkça paylaşan kişilerden birer ‘replika’ oluşturmak çok zor değil. Ses frekansı ve tonlamalar yüzde 100’e yakın taklit edilirken mimik ve karakteristik yüz ifadeleri de algoritmalarla başarılı şekilde kopyalanabiliyor. Genelde düşük ışık ve yüze gölge düşürme ile yakalanma riski azaltılıyor. Daha bu iş emekleme dönemindeyken, deepfake olgusu hayatımızda yokken ABD eski Başkanı Obama’nın görüntülerinden kesilip biçilen bir video ortalığı kasıp kavurmuştu. Rakiplerine ve siyasi liderlere küfürler savuran o videonun sahte olduğunu anlatmak Beyaz Saray için kolay olmamıştı. Bugün çok daha başarılı deepfake videolar siyasilerden film yıldızlarına hemen herkesi hedefe koydu. Son olarak da Taylor Swift mağdur oldu. 

Gözünüze kulağınıza bile tam inanmayın!

Diyelim ki kendiniz sosyal ağlarda pek bir şey paylaşmayarak riskleri azalttınız. Ya yakınlarınız bunu sıkça yapıyorsa?.. O zaman ailece risk altındasınız. Geçen yıl ABD’nin Arizona eyaletinde bir kadına ‘sözde hastane’den telefon geldi. Görevli kişiler kızının bir kaza geçirdiğini, acil operasyona girmesi gerektiğini aktardı. Fonda kızının acı çığlıkları geliyordu. Kısa bir görüşme yapmasına izin verildi ve kız yalvararak annesinden yardım istedi. Kadın telefondakinin kızı olduğuna şüphe duymadı. Tam havale ile parayı gönderecekken bir tesadüf eseri kızının hastanede olmadığını öğrendi ve dolandırıcılara para kaptırmadı. Dolayısıyla artık gördüğümüze ve duyduğumuza bile inanmak için iki kere düşünülmesi gereken bir çağa girdik. ABD’li bir siber güvenlik şirketi, acil durumlar için aile arası konuşmalarda özel gizli kod kelimesi kullanmayı öneriyor. Yani artık ajanlar gibi birbirini teyit için arkadaşlar arası ve aile içi özel parola kullanım dönemine giriyoruz. Bu paranoyakça yöntem biraz aşırı gibi gelse de kriz anında yaşanan panikle deepfake tuzakları aşmanın daha iyi bir yolu yok gibi. Çünkü ilerleyen yapay zeka çözümleri ile bu iş etkili bir silaha dönüşüyor.