Ocak ayının başında ABD ordusu, Venezuela’da eski Devlet Başkanı Nicolás Maduro’yu yakalama operasyonunda Anthropic’in Claude yapay zekâ modelini kullandı. Şirket bunu öğrenir öğrenmez tepki gösterdi ve modelinin şiddet içeren askeri operasyonlarda kullanılmasını açıkça istemediğini belirtti.
Bu olay, fitili ateşledi.
Geçtiğimiz Salı günü Savunma Bakanı Pete Hegseth, Anthropic CEO’su Dario Amodei’ye kapalı kapılar ardında net bir ultimatom verdi. “Yapay zekâ modellerinizdeki etik güvenlik sınırlarını Cuma gününe kadar kaldırın, yoksa devletin bütün ağırlığını üzerinize bindiririz.”
Anthropic yine geri adım atmadı. Şirketin CEO’su Amodei, “Vicdanımız el vermiyor” diyerek Pentagon’un tüm yasal kullanımlar talebini reddetti. Yüzeydeki sebep oldukça basit görünüyor. Anthropic, Claude’un kitlesel yurtiçi gözetleme ve tamamen insansız otonom silahlar için kullanılmasını istemiyor.
Ancak olay Venezuela ile sınırlı kalmadı. Trump yönetimi federal kurumlara Anthropic’in Claude dahil tüm yapay zekâ araçlarını kullanmayı bırakma talimatı verdikten sadece birkaç saat sonra, ABD ordusu İran’a yönelik büyük hava saldırısında Claude’u aktif olarak kullandı. İstihbarat değerlendirmelerinden hedef tespitine ve savaş senaryosu simülasyonlarına kadar kritik roller üstlendi.
Fakat bu kavga, etik tartışmasından çok daha fazlası. Etik kisvesi altında yapay zekâ çağında iktidarın kime ait olacağı büyük savaşının ilk ciddi raundudur. Trump yönetimi bunu klasik bir sağ-sol kavgasına çevirerek konuyu basitleştirirken, gerçek tehlike çok daha derin. Ya hükümet yapay zekâyı sınırsız kullanma hakkını ele geçirecek ya da büyük teknoloji şirketleri kendi güçlerini koruyacak.
Anthropic’in etik kuralları oldukça net ve sınırlı. Şirket, Claude yapay zekâ modelinin ABD toprakları dışında kitlesel gözetleme için kullanılmasını reddetmiyor. CEO Dario Amodei, yakın zamanda verdiği röportajda bunu açıkça şöyle ifade etti: “Yapay zekâ, halka açık konuşmaları deşifre edip ilişkilendirebilir. Sadece bir muhalif kişiyi değil, 100 milyon insanın tamamının haritasını çıkarabilir. Dördüncü Anayasa Değişikliği’ni teknolojiyle dolambaçlı yollarla bypass ederek alaya mı alacağız?”
Bu, şirketin tek gerçek prensip meselesi. Otonom silahlara gelince ise durum biraz farklı. Anthropic tamamen insansız, kendi başına ölümcül karar verebilen silahlara karşı değil. Aksine, füze savunma sistemleri ve siber operasyonlar için özel muafiyet tanımışlar bile. Yani askeri kullanımın büyük kısmına yeşil ışık yakıyorlar.
Peki nerede takılıyorlar? “Teknik olarak henüz hazır değiliz.” noktasında.
Amodei’nin kendi yazılarında ve açıklamalarında defalarca vurguladığı gibi büyük dil modelleri hâlâ anlaşılmaz bir yapıda. Nasıl çalıştıklarını tam olarak bilmiyoruz. Halüsinasyon yapıyorlar, beklenmedik davranışlar sergiliyorlar, hatta testlerde yalan söyleyip mühendislerini şantajla tehdit edebiliyorlar. Böyle bir sistemi savaş alanında serbest bırakırsanız felaket kaçınılmaz olur. Kendi askerini vurabilir, yanlış hedef seçebilir, kontrol edilemez bir hata yapabilir.
Bu yüzden Anthropic’in duruşunu şöyle özetleyebiliriz: “Askeri meselelerde kullanın, istihbaratta kullanın, düşmana karşı kullanın ama ABD içinde vatandaşları kitlesel olarak izlemeyin ve insansız ölümcül kararları henüz bize bırakmayın. Çünkü henüz yeterince güvenli değil.”
Hükümetle tam da bu noktada çatışıyorlar. Savaş Bakanı Pete Hegseth, “tüm yasal kullanımlar” istiyor. Yani Pentagon’un yetkisi dahilindeki her şeyi ki bu, bir İsyan Yasası ilan edildiğinde veya yurtiçi muhalefeti haritalandırmak istediklerinde o meşhur “iskelet anahtar”ı (skeleton key) eline almak demek. Anthropic ise bu kapıyı kapalı tutuyor.
Kısacası şirket “savaşa karşıyız” demiyor. Tam tersine, demokrasiyi savunmak için yapay zekâyı kullanmalıyız diyor. Sadece iki yerde fren çekiyor. ABD içindeki kitlesel vatandaş gözetlemesi ve henüz yeterince olgunlaşmamış tam otonom ölümcül sistemler.
Savunma Bakanı Pete Hegseth’in kapalı kapılar ardındaki ultimatomu çok netti. “Yapay zekâ modellerinizdeki etik güvenlik sınırlarını kaldırın yoksa devletin bütün ağırlığını üzerinize bindiririz.”
Venezuela’daki gibi yurtdışı operasyonlardan tutun, olası bir İsyan Yasası ilan edildiğinde ABD içinde muhalifleri, protestocuları veya iç düşmanları kitlesel olarak haritalandırmaya kadar hakimiyet istiyor hükümet. Hegseth’in mantığı basit. “Demokratik yolla seçilmiş hükümet karar verir, elit teknoloji şirketleri orduya neyin yapılıp neyin yapılmayacağını söyleyemez.”
Ve Bakan iki ağır silahı masaya koydu. İlki, Savunma Üretim Yasası’nı devreye sokup şirketi zorla işbirliğine mecbur etmek. İkincisi de Anthropic’i “tedarik zinciri riski” ilan etmek. Bu, şirketi Savunma Bakanlığı’yla doğrudan veya dolaylı iş yapan her kurumla ticaret yapamaz hale getirir. Yani fiili kara liste. Silikon Vadisi’nde “devlet bizi ezer” diye korku salan en sert yaptırım.
Peki Anthropic “henüz hazır değiliz, modellerimiz hâlâ anlaşılmaz, hata yapar” diye haykırırken hükümet neden bu kadar ısrarlı?
Çünkü Trump yönetimi meseleyi klasik sağ-sol kavgasına çevirdi. Yapay zekâ risklerinden bahseden herkesi “doomer” (kıyamet tellalı), “korku tellalı” diye yaftalıyorlar. Yapay zekâ ve Teknoloji Sorumlusu David Sacks, Anthropic’i açıkça “sofistike bir regülasyon kapma stratejisi yürüten, korku tellallığı yapan şirket” diye suçladı. Hızlandırıcılar diye adlandırılan bu ekip, bazı eyaletlerin yapay zekâya “woke ideoloji” sokmaya çalışacağını bu yüzden ne eyalet regülasyonu ne de federal regülasyon istediklerini belirtiyor. “Vatanseverlik” ve “Amerika’yı Çin’e karşı koruma” savunmasıyla her şeyi sağ-sol savaşına dönüştürüyorlar.
Ancak asıl sebep daha derinlerde olabilir. Hükümet, yapay zekânın kontrolünü tamamen ele geçirmek istiyor. Bir teknoloji tarihte ilk defa tamamen özel sektörde doğdu. Devlet laboratuvarında değil, Silikon Vadisi’nde. Trump ekibi “bu kadar güçlü bir teknolojiyi birkaç milyarderin elinde bırakamayız” diyor. Çin’le yarışta geride kalmamak için hızı maksimuma çıkarmak, frenleri tamamen kaldırmak istiyor. “Henüz hazır değil” itirazı onlar için lüks. Onların gözünde asıl tehlike, devletin değil, özel şirketlerin bu gücü elinde tutması.
Bu kavga ne Amodei’nin “vicdanımız el vermiyor” demesiyle ne de Hegseth’in ultimatomuyla sınırlı. Bu, yapay zekâ çağında iktidarın kime ait olacağı savaşının ilk ciddi raundu.
Anthropic “etik güvenlik sınırlarımızı kaldırmayız” derken aslında kendi yarattığı canavarın dizginlerini elinde tutmaya çalışıyor. “Henüz hazır değiliz” argümanı kısmen teknik bir gerçeklik taşıyor ama aynı zamanda şirketin uzun vadeli stratejisi. Bu teknoloji olgunlaştığında devletin tam kontrolüne mi verecekler? Büyük ihtimalle hayır.
Bunun yerine slow boil yöntemini kullanacaklar. Küçük adımlarla, zamana yayarak, karşı tarafı fark ettirmeden yavaş yavaş istedikleri noktaya getirecekler. Bugün Pentagon’a kapıyı az aralarken, yarın daha fazla açmaları işten bile değil.
Şu anda Anthropic ile Pentagon arasında yaşananlar, basit bir anlaşmazlık değil. Bu bir “yapay zekânın getireceği inanılmaz ekonomik, askeri ve toplumsal gücü tekeline alma” yarışı. Yapay zekâ çağında yeni dünya düzeninin nasıl kurulacağının ilk büyük iktidar savaşı.

© 2025 Scrolli. Tüm Hakları Saklıdır. Scrolli Medya A.Ş
