Yapay zeka şirketi Anthropic ile Pentagon arasındaki gerilim, teknoloji sektörünü yeniden zor bir soruyla karşı karşıya bıraktı:
Üretilen teknolojiler savaşta nasıl kullanılmalı ve hangi etik sınırlar aşılmamalı?
Şirket ile ABD hükümeti arasındaki anlaşmazlık üç gün önce yeni bir aşamaya geçti. Anthropic, Savunma Bakanlığı’nın kendisini devlet projelerinden dışlayan kararının Birinci Değişiklik kapsamındaki ifade özgürlüğü haklarını ihlal ettiğini öne sürerek Pentagon’a dava açtı.
Şirketin Claude adlı yapay zeka modeli hakkında son dönemde ortaya atılan “bilinç kazandı” iddiaları da gündemdeki yerini koruyor.
The Guardian'ın haberine göre taraflar aylardır süren bir anlaşmazlık içinde. Anthropic, geliştirdiği yapay zeka modelinin kitlesel iç gözetim sistemlerinde veya tamamen otonom ölümcül silahlarda kullanılmasını yasaklamak istiyor.
Anthropic Pentagon’un teknolojinin “her türlü yasal kullanımına” izin verilmesini talep ettiğini ve bunun şirketin kuruluş ilkeleri olan güvenlik prensiplerini ihlal edeceğini savunuyor. Anthropic bu tutumuyla sektörde diğer şirketlerin de karşı karşıya kalacağı etik bir sınır belirlediğini ifade ediyor.
Silikon Vadisi’nin orduyla ilişkisi değişiyor
Anthropic’in güvenlik kısıtlamalarını kaldırmayı reddetmesi ve Pentagon’un buna karşılık sert tavır alması, yapay zekanın savaşta kullanımıyla ilgili uzun süredir devam eden endişeleri yeniden gündeme taşıdı.
Ancak uzmanlara göre bu tartışma aynı zamanda büyük teknoloji şirketlerinin orduyla ilişkilerinde son yıllarda yaşanan önemli değişimi de ortaya koyuyor.
Margaret Mitchell, yapay zeka araştırmacısı ve Hugging Face’te baş etik bilimci olarak görev yapıyor. Mitchell’e göre bu tartışmada net bir “iyi-kötü” ayrımı yapmak artık kolay değil.
2018’de protestolar vardı
Bugün teknoloji şirketleri savunma projelerine daha sıcak yaklaşsa da bu durum her zaman böyle değildi.
2018 yılında Google çalışanları, Pentagon’un insansız hava araçlarından elde edilen görüntüleri analiz etmek için yürüttüğü Project Maven adlı programa karşı büyük bir protesto başlatmıştı.
3 binden fazla çalışan imzaladıkları açık mektupta şu ifadeyi kullanmıştı:
“Google’ın savaş işinde yer almaması gerektiğine inanıyoruz.”
Protestoların ardından Google, Project Maven sözleşmesini yenilememiş ve insanlara zarar verebilecek teknolojiler geliştirmeyi yasaklayan bir politika yayımlamıştı.
"This is Maven Smart System—Palantir’s software as a service product that we are deploying across the entire department." pic.twitter.com/hIaQAiq4iJ
— Palantir (@PalantirTech) March 12, 2026
Politika değişti, askeri sözleşmeler arttı
Ancak sonraki yıllarda bu yaklaşım önemli ölçüde değişti. Google çalışan aktivizmini sınırladı, 2018’de yayımlanan bazı etik maddeleri politikasından kaldırdı ve orduların ürünlerini kullanmasına izin veren yeni sözleşmeler imzaladı.
2024 yılında şirket, İsrail hükümetiyle askeri ilişkilerine karşı düzenlenen protestoların ardından 50’den fazla çalışanı işten çıkardı.
CEO Sundar Pichai, çalışanlara gönderdiği notta Google’ın “siyasi tartışmaların yürütüldüğü bir yer değil, bir şirket” olduğunu söyledi.
Şirket ayrıca bu hafta yaptığı açıklamada Gemini adlı yapay zeka sisteminin askeri projelerde kullanılabilecek yapay zeka ajanlarının geliştirilmesi için bir platform sağlayacağını duyurdu.
OpenAI ve diğer şirketler de orduyla çalışıyor
Benzer bir dönüşüm OpenAI için de geçerli. Şirket 2024 yılına kadar askeri kurumların modellerine erişmesini tamamen yasaklıyordu. Ancak daha sonra bu politika değişti.
OpenAI’nin ürün yöneticisi şu anda ABD ordusunun “executive innovation corps” programında yarbay rütbesiyle görev yapıyor.
OpenAI, Google, Anthropic ve xAI geçen yıl Pentagon ile 200 milyon dolara kadar ulaşabilecek bir sözleşme imzalayarak teknolojilerini askeri sistemlere entegre etmeyi kabul etti.
Savunma teknolojisi şirketleri etkili
Teknoloji sektöründe bazı şirketler ise başından beri savunma işbirliğini iş modelinin merkezine koydu.
Bunların başında Anduril Industries ve Palantir Technologies geliyor. Palantir, 2010’lu yılların başında Afganistan’da askeri istihbaratla çalışarak yerleştirilen patlayıcıları haritalayan yazılımlar geliştirmişti.
Google’ın 2019’da Project Maven’dan çekilmesinin ardından programı Palantir devraldı.
Bugün Maven, askeri personelin Anthropic’in Claude yapay zeka modeline eriştiği gizli sistemlerden biri olarak kullanılıyor.
Anthropic’in ordudan tamamen çekilme planı yok
Anthropic bazı kırmızı çizgiler belirlemiş olsa da şirket Pentagon ile çalışmaya devam etmek istediğini açıkça ifade ediyor.
Şirketin dava dosyasına göre Anthropic, Claude’un askeri versiyonu için bazı kısıtlamaları zaten kaldırmış durumda.
Davada şu ifadeler yer aldı:
“Anthropic, Claude’un askeri kullanımına sivil müşteriler için uyguladığı kısıtlamaların aynısını uygulamamaktadır.”
“Claude Gov” adlı versiyon, gizli belgelerin işlenmesi, askeri operasyonlar ve tehdit analizi gibi görevlerde kullanılabiliyor.
İran operasyonlarında kullanıldığı iddiası
Haberlere göre ABD hükümeti, İran’a yönelik bombardıman operasyonlarında hedef seçimi ve analiz süreçlerinde Claude’dan yararlanıyor.
Anthropic bu kullanım biçimine açıkça karşı çıktığını belirtmiş değil. Amodei geçen hafta yaptığı açıklamada şirketinin operasyonel askeri kararlar üzerinde doğrudan bir rolü olmadığını söyledi ve ABD askerlerine teknoloji sağlamaya devam edeceklerini ifade etti.
CBS News’e konuşan Amodei, Pentagon’a verdikleri mesajı şöyle özetledi:
“Savaş bakanlığına neredeyse tüm kullanım senaryolarına izin verdiğimizi söyledik. Yapmak istedikleri şeylerin yüzde 98 veya 99’una tamam, sadece iki tanesi hariç.”
Kaynak: Gazete Oksijen






