Sosyal medya kullanıcılarının, ChatGPT’ye “Benim ve yaptığım işin bir karikatürünü, benimle ilgili bildiğin her şeye dayanarak oluştur” komutunu vererek oluşturdukları görseller sosyal medyada hızla yayılıyor. Ortaya çıkan karikatürler yaratıcı ve etkileyici. Ancak uzmanlara göre bu eğlenceli görünen trend, ciddi gizlilik risklerini de beraberinde getiriyor.
“Daha iyi sonuç” için daha fazla veri
Forbes'ta yer alan habere göre, karikatürün daha isabetli olması için birçok kullanıcı fotoğraflarını, mesleklerine dair ayrıntıları, hobilerini ve kişisel bilgilerini modele yüklüyor. Siber güvenlik şirketi ESET’in küresel danışmanı Jake Moore’a göre, bu tür viral akımlarda insanlar çoğu zaman olası sonuçları düşünmeden hareket ediyor.
Moore, bir sohbet botuna yüklenen fotoğraf ve kişisel bilgilerin analiz edildiğini ve sistemlerin geliştirilmesinde kullanılabildiğini belirtiyor. Uzun vadede bu verilerin nasıl saklanacağı ya da hangi amaçlarla değerlendirileceği ise kullanıcı açısından her zaman net değil.
Cytidel CEO’su Matt Conlon da benzer bir uyarıda bulunuyor. Kullanıcıların istedikleri sonucu elde edebilmek için giderek daha ayrıntılı bilgi paylaştığını söyleyen Conlon, “Sonuç yeterince iyi olmazsa daha fazla bağlam ekliyorlar. Bu da son derece kişisel verilerle bir yapay zekâ sistemini beslemek anlamına geliyor” diyor. Conlon’a göre bu durum, ileride kimlik hırsızlığı gibi riskleri artırabilir. “Bir kez yüklendiğinde, o bilginin tamamen silineceğine dair bir garanti yok” uyarısında bulunuyor.
Veriler nasıl kullanılıyor?
OpenAI’nin gizlilik politikasına göre kullanıcıların gönderdiği içerikler; hizmetlerin sunulması ve sürdürülmesi, ürünlerin geliştirilmesi ve araştırma amacıyla kullanılabiliyor. Politika, bağlı şirketler ve hizmet sağlayıcılarla veri paylaşımına da imkân tanıyor; ancak verilerin nihai kullanım alanları her zaman ayrıntılı biçimde açıklanmıyor.
Uzmanlara göre risk yalnızca yapay zekâ platformuyla sınırlı değil. Sosyal medyada paylaşılan görseller kopyalanabilir, yeniden yayımlanabilir ya da farklı bağlamlarda kullanılabilir. İnternete düşen bir içeriğin tamamen kontrol edilmesi çoğu zaman mümkün olmuyor.
OpenAI ise kullanıcıların veri kontrolünü artırabilecek ayarlar sunduğunu belirtiyor. “Hafıza” özelliği üzerinden geçmiş sohbetlerin referans alınıp alınmayacağı seçilebiliyor, kaydedilen bilgiler görüntülenip silinebiliyor ya da “geçici sohbet” modu kullanılarak oturum sonunda verilerin hafızaya alınması engellenebiliyor.
Daha güvenli hale nasıl getirilir?
Uzmanlar, akıma katılmak isteyenlerin gerçek fotoğraf yüklememesi, mümkün olduğunca genel ifadeler kullanması ve veri kullanım ayarlarını gözden geçirmesi gerektiğini vurguluyor. CultureAI’dan Oliver Simonnet, “Herkese açık şekilde paylaşmayacağınız bir bilgiyi, bir yapay zekâ komutuna da yazmamalısınız” diyor.
Sonuç olarak, ChatGPT karikatür akımı eğlenceli görünebilir. Ancak uzmanlara göre birkaç dakikalık viral bir paylaşım uğruna kişisel verilerin uzun vadeli etkilerini göz ardı etmemek gerekiyor.
Kaynak: Gazete Oksijen