23 Aralık 2024, Pazartesi Gazete Oksijen
Haber Giriş: 10.04.2023 11:50 | Son Güncelleme: 10.04.2023 13:14

Dolandırıcılık ve veri toplama tehlikesi artıyor: Yapay zekayla ne konuştuğunuza dikkat edin

Cazip ve kullanışlı olabilirler, ancak yapay zeka arayüzlerinin dolandırıcılık ve izinsiz veri toplama potansiyeline sahip olma olasılığı çok büyük. Bu tehlikenin daha da artması bekleniyor. Uzmanlar sohbet robotuna söylenenler konusunda dikkatli olunması konusunda uyarıyor
Dolandırıcılık ve veri toplama tehlikesi artıyor: Yapay zekayla ne konuştuğunuza dikkat edin

OpenAI'nin GPT-4'ü, Google'ın Bard'ı ve Microsoft'un Bing Chat'i gibi eğitilen sohbet robotlarının artan yetenekleriyle ilgili endişeler giderek çoğalıyor. Uzmanlar, devasa ölçekte yanlış bilgi yayma yeteneklerinin yanı sıra gelişimlerinin insanlık için oluşturabileceği varoluşsal risk konusunda uyarıyor. Bu durum yeterince endişe verici değilmiş gibi, İtalya'nın yakın zamanda ChatGPT'yi gizlilik gerekçesiyle yasaklamasıyla üçüncü bir endişe konusu daha ortaya çıktı.

İtalyan veri düzenleyicisi, ChatGPT'nin sahibi OpenAI tarafından kullanılan modele ilişkin endişelerini dile getirdi ve firmanın katı Avrupa veri koruma yasalarını ihlal edip etmediğini araştıracağını duyurdu. The Guardian Chatbot'ların iş ve kişisel görevler için faydalı olabileceğini ancak çok fazla veri topladığını yazdı. Yapay zeka ayrıca, suçluların daha ikna edici ve etkili siber saldırılar gerçekleştirmesine yardımcı olma yeteneği de dahil olmak üzere birçok güvenlik riski oluşturuyor.

Chatbot'lar arama motorlarından daha mı riskli?

Çoğu insan Google gibi arama motorlarının yarattığı gizlilik risklerinin farkında, ancak uzmanlar sohbet robotlarının daha da fazla veri açlığı çekebileceğini düşünüyor. Sohbet robotları insanları bir arama motoruna vereceklerinden daha fazla bilgi vermeye teşvik edebilir. Hukuk firması Lewis Silkin'in veri ve gizlilik ekibinde hukuk direktörü olarak görev yapan Ali Vaziri, "İnsana benzeyen üslup kullanıcıların gardını düşürebilir" uyarısında bulunuyor.

Sohbet robotları genellikle metin, ses ve cihaz bilgilerinin yanı sıra IP adresi gibi konumu ortaya çıkarabilecek verileri de toplar. Birmingham City Üniversitesi dekan yardımcısı Dr. Lucian Tipi, arama motorları gibi chatbot'ların da verileri topladığını ve bunların e-posta adresleri ve telefon numaralarıyla ilişkilendirilebileceğini söylüyor. 

Sohbet robotlarının arkasındaki firmalar, verilerin hizmetlerin iyileştirilmesine yardımcı olmak için gerekli olduğunu söylese de, bu veriler hedefli reklamcılık için de kullanılabilir. Yazılım firması ESET'in küresel siber güvenlik danışmanı Jake Moore, bir yapay zeka sohbet robotundan her yardım istediğinizde, mikro hesaplamaların bireylerin profilini çıkarmak için algoritmayı beslediğini söylüyor. Bu şimdiden gerçekleşmeye başladı. Microsoft, Bing Chat'e reklam getirme fikrini araştırdığını duyurdu. Ayrıca kısa bir süre önce Microsoft personelinin kullanıcıların chatbot konuşmalarını okuyabildiği ortaya çıktı. ABD'li şirket gizlilik politikasını bunu yansıtacak şekilde güncelledi.

Dorsey & Whitney hukuk firmasının ortaklarından Ron Moscona, ChatGPT'nin gizlilik politikasının kişisel verilerin ticari istismarına kapı açmıyor gibi göründüğünü, insanların verilerini korumayı ve üçüncü taraflarla paylaşmamayı vaat ettiğini söylüyor. Bununla birlikte, Google da bilgileri üçüncü taraflarla paylaşmama sözü verirken, teknoloji firmasının daha geniş gizlilik politikası, verileri kullanıcılara hedefli reklam sunmak için kullanmasına izin veriyor.

Sohbet robotları nasıl gizli ve güvenli bir şekilde kullanılabilir?

Sohbet robotlarını gizli ve güvenli bir şekilde kullanmak zordur, ancak topladıkları veri miktarını sınırlamanın yolları var. Örneğin, IP adresini maskelemek için ExpressVPN veya NordVPN gibi bir VPN kullanmak iyi bir fikir olabilir.

İşe yardımcı olmak için sohbet robotlarını kullanmak

Sohbet robotları iş yerinde faydalı olabilir, ancak uzmanlar çok fazla şey paylaşmaktan ve AB'nin genel veri koruma yönetmeliği (GDPR) güncellemesi gibi düzenlemelere aykırı düşmekten kaçınmak için dikkatli olunmasını tavsiye ediyor. Bu nedenle JP Morgan ve Amazon gibi şirketler ChatGPT'nin personel tarafından kullanımını yasakladı ya da kısıtladı.

Kötü amaçlı yazılımları, e-postaları veya diğer zararlı içeriklerin tespiti

Sohbet robotları internet ve sosyal medyada yerleşik hale geldikçe, kötü amaçlı yazılım veya kötü amaçlı e-postaların kurbanı olma ihtimali de artar. Birleşik Krallık Ulusal Siber Güvenlik Merkezi (NCSC), yapay zekalı sohbet robotlarının riskleri konusunda uyarıda bulunarak, bu robotlara güç veren teknolojinin siber saldırılarda kullanılabileceğini söyledi.

Uzmanlar ChatGPT ve rakiplerinin kötü niyetli kişilerin daha sofistike kimlik avı e-posta operasyonları oluşturmalarını sağlama potansiyeline sahip olduğunu söylüyor. Örneğin, çeşitli dillerde e-posta oluşturmak basit olacak böylece kötü dilbilgisi ve yazım gibi dolandırıcılık mesajlarının belirtileri daha az belirgin olacak. Bunu göz önünde bulunduran uzmanlar, bilinmeyen kaynaklardan gelen bağlantılara tıklama ya da ekleri indirme konusunda her zamankinden daha dikkatli olunmasını tavsiye ediyor.

Yapay zeka destekli hizmetler hızla gelişiyor ve geliştikçe riskler de artıyor. Uzmanlar ChatGPT'nin siber suçluların kötü amaçlı yazılım yazmalarına yardımcı olmak için kullanılabileceğini ve sohbet özellikli hizmetlere girilen hassas bilgilerin internete sızdırılması konusunda endişeler olduğunu söylüyor. Ses, metin ya da görüntü gibi içerikler üretebilen yapay zekanın diğer formları, suçlulara örneğin şifre soran bir banka çalışanını taklit ederek daha gerçekçi deepfake videolar yaratma şansı sunabilir.