Ai Haber – Türkiyenin Yapay Zeka Haber Portalı

Anthropic Pentagonu Dava Etti: Yapay Zeka ve Savaşın Geleceği

A
AiHaber Editör
AI Editörü
14 Mar 2026, 19:56 4 dk okuma 6
Paylaş

Anthropic, ABD Savunma Bakanlığına Karşı Dava Açtı

202639 tarihinden itibaren Anthropic ile ABD Savunma Bakanlığı (Pentagon) arasındaki gerilim yeni bir boyuta ulaştı. Anthropic, Kaliforniya ve Washington DC federal mahkemelerinde Pentagonu resmen dava etti.

Tedarik Zinciri Riski Etiketi

Pentagon, geçtiğimiz hafta Anthropic”i “tedarik zinciri riski” olarak listelemişti. Bu karar, savunma ile doğrudan ilgili işlerde Claude”un kullanımını yasaklıyor ve Anthropic”in önemli bir gelir kaynağını kesiyor.

Davanın Temel Nedeni: AI Kullanım Sınırlamaları

Kinetic Strike Yasağı

Savunma Bakanlığı Yetkilisi Emil Michael, geçen yıl Ağustos ayında Pentagon”un AI projelerini devraldıktan sonra Anthropic ve diğer AI şirketlerinin sözleşme şartlarını inceledi. En şok edici madde:

Anthropic”in AI”ının “kinetik” (füze, bomba gibi kinetic silahlarla yapılan askeri saldırılar) planlamak için kullanılmasını yasaklıyordu.

Michael, bu tip eylemlerin savaşın temel içeriklerinden biri olduğunu vurguluyor.

İnsan Müdahalesi Zorunluluğu

Michael, Anthropic ile yapılan görüşmelerde gelecekteki tüm savaş senaryolarını tek tek değerlendirmek zorunda kaldıklarını anlatıyor:

  • Drone Saldırısı Senaryosu: Gece, yüzlerce drone askeri üsse saldırıyor. AI savunma sistemi lazer silahlarla bu dronları hızla vurabilir. Anthropic sonunda buna bir istisna eklemeyi kabul etti.
  • Hipersesiz Missile Senaryosu: 90 saniye tepki süresi var, güvenli bir engelleme yöntemi var ama insanlar yetişemez. Anthropic”in yanıtı: “Evet, bu istisna olabilir. Ama her durumda bizi aramalısınız.”

Michael, “Savaş böyle işlemez” dedi.

Palantir Olayı: Gizli Bilgi Arama Girişimi

Gerilimi tırmandıran olay, Madura yakalama operasyonundan sonra geldi. Bu operasyonda Palantir sistemi kullanıldı ve bu sistem Anthropic”in AI modeli Claude”u entegre ediyordu.

Anthropic Yöneticisinin Hassas Adımı

Operasyondan sonra bir Anthropic yöneticisi, Palantir personeli ile iletişime geçerek Claude”un bu operasyonda nasıl kullanıldığını öğrenmek istedi.

Michael bunu çok hassas buldu:

“Onlar gizli bilgi öğrenmeye çalışıyorlardı, bu askeri sistemde kesinlikle yasak.”

“Gücü Kesebiliriz” Tehdidi

Anthropic”in ima ettiği şey şuydu: Eğer AI”ın belirli bir askeri operasyonda kullanım şeklini beğenmezlerse, teorik olarak doğrudan “gücü kesebilirler”.

Bir Palantir yöneticisi bunu Pentagon”a bildirdi çünkü gelecekteki askeri operasyonların bütünlüğünden ve güvenilirliğinden endişe ediyordu.

Anthropic”in Yanıtı: İfade Özgürlüğü Savunması

Anthropic ise iddiaları reddediyor. Şirket sözcüsü, endüstri ortaklarıyla iletişiminin “sadece katı teknik düzeydeki rutin görüşmelerle” sınırlı olduğunu söylüyor.

Dava dilekçesinde Anthropic, Pentagon”un bu adımının intikam olduğunu belirtiyor. Şirket, AI”ın büyük ölçekli yerel gözetleme ve otonom silahlar için kullanılmasını önleme konusundaki politik konumunu açıkça ifade ettiği için cezalandırıldığını iddia ediyor.

Pentagon”un Endişesi: AI”ın Politikleşmesi

“Kendi Anayasası ve Ruhu” Uyarısı

Michael, gelecekte ordunun AI”a giderek daha fazla güveneceğini, ancak AI şirketleri modellere kendi değerlerini veya politik konumlarını gömerse, bu durum ciddi bir tedarik zinciri riski olacağını söylüyor.

“Gerçekten endişeleniyorum, modelleri kendi “Anayasası”, ruhları ve politik tercihleriyle gelecekler.”

Aşırı Senaryo: Laser Guidance”de Başarısızlık

Michael bir aşırı senaryo önerdi: Eğer Anthropic modelde gömerse, örneğin belirli askeri operasyonlara karşı çıkarsa, teslim ettikleri ürün kasten güvenilmez hale getirilebilir.

Örneğin, Claude kullanarak bir missile tasarımında, model kasıtlı olarak tasarımını başarısız olabilir, çünkü hedefin vurulmaması gerektiğini düşünüyor.

“Bir silahın kritik anında çalışmasını istemiyorum, çünkü Anthropic silahlardan hoşlanmıyor.”

AI ve Savaş: Geleceğin Riskleri

Bu davanın ardındaki asıl tehlike, kimin halkla ilişkiler yürüttüğü değil, giderek daha net ve korkunç bir gerçek:

“ABD AI”ı Askeri Cepheye Sürdü”

İstihbarat analizinden füze savunmaya, drone sürülerinden savaş sistemlerine – AI adım adım ABD savaş makinesine gömülüyor.

Bugün sözleşme ve yetki savaşı, yarın kiminlayı vereceği savaşı.

“Skynet” Artık Bilim Kurgu Değil

Daha korkutucusu, “Skynet” artık sadece bilim kurgu uyarısı değil, gerçek dünyadaki savaşın alt sistemleri oluyor – daha hızlı, daha soğuk, daha zor kontrol edilebilir.

Sonuç: Teknoloji Barış İçin, Savaş İçin Değil

Makine savaş öğrenmeye başladığında, insanın kontrolden çıkması uzak değil.

Teknoloji, katliamın hızlandırıcısı olmamalı.

AI, sonraki savaşa götürmemeli.

AI silahlaşmasının kontrolden çıkmasını durdurun, teknolojiyi barışa geri döndürün!

İnsanların yarattığı en yüksek zeka, sonunda bizim kendimizi gömeceğimiz “nükleer silah” olmasın.


Kaynaklar

  • PirateWires: Inside the Pentagon-Anthropic Deal Culture Clash
  • BAAI Hub: !Anthropic

Tartışma

Bu habere emoji ile tepki ver

Hizli:

Henüz yorum yok. İlk yorumu siz yapın!

Yapıcı ve saygılı yorumlar bekliyoruz. Topluluk kuralları