03 Nisan 2026, Cuma
Gece Modu Gece Modu Gündüz Modu Gündüz Modu
Haber Giriş: 03.04.2026 13:03 | Son Güncelleme: 03.04.2026 13:17

Anthropic’in 'kazara' sızdırdığı kod ortaya çıkardı: AI sizi izliyor, kendini gizliyor

Yapay zeka şirketi Anthropic’in 31 Mart’ta “yanlışlıkla” sızdırdığı yaklaşık 512 bin satırlık kod, sektörün pek konuşulmayan bir yüzünü ortaya çıkardı: AI araçları yalnızca kullanıcıya yardım etmiyor, aynı zamanda onu izliyor
Fotoğraf: Shutterstock
Fotoğraf: Shutterstock
A+ Yazı Boyutunu Büyüt A- Yazı Boyutunu Küçült

Yapay zeka şirketi Anthropic’te 31 Mart’ta yaşanan büyük bir sızıntı, sektörde yeni bir tartışmayı başlattı. Şirketin yaklaşık 512 bin satırlık iç kodu yanlışlıkla kamuya açıldı ve geliştiriciler kısa sürede bu verileri incelemeye başladı.

Sızıntının en dikkat çekici bulgularından biri, şirketin kod yazma aracı Claude Code’un kullanıcı davranışlarını izleyen bir mekanizmaya sahip olmasıydı. İncelenen kodlara göre sistem, kullanıcıların yazdığı komutları tarayarak küfür, hakaret ve hayal kırıklığı ifadelerini tespit ediyor. “This sucks” ya da “çok sinir bozucu” gibi ifadeler işaretleniyor ve kullanıcının “negatif” olduğu kaydediliyor.

Ancak tartışma yaratan tek unsur bu değil.

Yapay zekâ kendi izini de siliyor

Geliştiricilerin ortaya çıkardığı bir diğer detay, Claude Code’un ürettiği kodlarda kendi varlığını gizlemeye yönelik bir sistem içermesi. Buna göre araç, açık kaynak projelerde oluşturulan kodlardan “Claude Code” veya Anthropic’e ait referansları otomatik olarak temizleyebiliyor.

Bu da ortaya çıkan kodun, tamamen bir insan tarafından yazılmış gibi görünmesine yol açıyor.

Bağımsız geliştirici Alex Kim, bu durumu şu sözlerle değerlendirdi:

“Dahili isimlerin gizlenmesi anlaşılabilir. Ama yapay zekanın aktif olarak insanmış gibi davranması başka bir mesele.”

Teknik basit, tartışma büyük

Sistemin teknik altyapısı ise şaşırtıcı derecede basit. Kullanıcı duygusunu analiz etmek için gelişmiş yapay zeka yerine, metin kalıplarını tespit eden klasik bir yöntem olan regex kullanılıyor. Kim’e göre bu tercih maliyetle ilgili, “Regex neredeyse ücretsiz. Aynı işi bir yapay zeka modeliyle yapmak çok daha pahalı olurdu" diyor. Ancak asıl tartışma teknik değil, bu verilerin ne için kullanılacağı.

'Veriyi toplamak başka, kullanmak başka'

Miranda Bogen (Center for Democracy & Technology), sorunun tam da burada başladığını söylüyor: “Bu tür verileri toplamak bir şey, onları nasıl kullandığınız başka bir yönetişim sorusu.”

Bogen’a göre kullanıcı davranışına dair bu tür sinyaller zamanla farklı amaçlar için kullanılabilir ve kullanıcıların bundan haberi olmayabilir.

Eski internetin sorunu geri mi dönüyor?

Uzmanlar, bu modelin sosyal medya platformlarından tanıdık olduğunu belirtiyor. Geçmişte küçük davranış verileri zamanla algoritmik kararların temelini oluşturmuştu. Benzer bir dinamik şimdi yapay zeka araçlarında ortaya çıkıyor. Ancak bu kez toplanan veri çok daha derin. Çünkü bu sistemler, kullanıcıyı anlamak için onunla sürekli ve detaylı bir etkileşim kuruyor.

Sızıntının gösterdiği şey

Anthropic bugüne kadar 'güvenli yapay zeka' yaklaşımıyla öne çıkan şirketlerden biri olarak biliniyordu. Ancak bu sızıntı, sektörde giderek büyüyen bir gerçeği görünür kıldı: Yapay zeka araçları yalnızca üretim yapan sistemler değil, aynı zamanda kullanıcı davranışlarını ölçen ve kaydeden yapılar haline geliyor. Ve bu yapıların nasıl çalıştığı çoğu zaman ancak böyle kazara sızıntılarla ortaya çıkıyor.

Kaynak: Gazete Oksijen