Son dönemde Pentagon ile lider yapay zeka şirketleri arasında ivme kazanan stratejik iş birlikleri, teknoloji gündeminin ilk sırasına yerleşti. Özellikle Anthropic ile veri kullanımı ve güvenlik protokolleri konusunda yaşanan uyuşmazlığın ardından Savunma Bakanlığı rotasını OpenAI'a çevirerek beklenen anlaşmayı gerçekleştirdi. Bu gelişmeyle birlikte alevlenen tartışmalar, teknoloji devleri ile devlet kurumları arasındaki derinleşen entegrasyonu ve yükselen gerilimi tüm çıplaklığıyla gözler önüne seriyor.
Tartışmaların odağında, Anthropic CEO'su Dario Amodei ile Savunma Bakanı Pete Hegseth arasındaki görüş ayrılığı yer alıyor. Anthropic, geliştirdikleri modellerin Amerikan vatandaşlarına yönelik kitlesel gözetim mekanizmalarında veya insan müdahalesi olmaksızın ölümcül karar verebilen otonom silah sistemlerinde kullanılmasına karşı tavizsiz bir duruş sergiliyor. Şirket bu direnci, yapay zekanın henüz bu denli yüksek riskli operasyonları yönetecek etik olgunluğa ve teknik güvenlik seviyesine ulaşmamış olmasıyla gerekçelendiriyor.
Hindistan Başkanı Modi, OpenAI CEO’su Sam Altman ve Anthropic CEO’su Dario Amodei Hindistan Yapay Zeka Zirvesinde. Amodei ve Altman’ın el ele tutuşmaması kamuoyunda oldukça yankı buldu.Mevcut askeri doktrin, doğrudan otonom silahlara karşı kesin yaptırımlara sahip değil. Anthropic, en azından söylem düzeyinde, henüz yeterli güvenlik eşiğine ulaşmamış tahminsel algoritmaların otomasyonuna böylesine kritik kararların devredilmesine karşı çıkıyor. Öte yandan işin gözetim boyutu da aynı derecede kritik bir öneme sahip. Yapay zeka; büyük ölçekli örüntü tespiti, tahminsel risk puanlaması ve sürekli davranışsal analiz gibi yetenekleriyle, yasal devlet gözetimini eşi benzeri görülmemiş bir mikro-iktidar aracına dönüştürme potansiyeli taşıyor.
Görünen tabloda Anthropic’in sosyal medyadaki imajı büyük oranda savaş karşıtı ve etik değerlere saygılı bir konumda yansıtılıyor olsa da, henüz geçtiğimiz yıl Savaş Bakanlığı ile yaptıkları sözleşme zaten en başından modellerin askeri gayelerle kullanımını içeriyordu. Bu düzlemde, Anthropic’in gerçekleştirdiği son hamlelerin büsbütün ahlaki gayelerle yapıldığını savunmak oldukça naif bir okuma olacaktır.
Savaş Bakanlığı’nın fesih açıklamalarının akabinde Başkan Trump’ın yaptığı çıkış da söz konusu gerilimin ideolojik altyapısını anlamak için önemli ipuçları sunuyor. Trump, Truth Social platformunda yaptığı açıklamada, "woke" (duyarkasıcı) ve sol tandanslı bir şirketin ordunun nasıl savaşacağı ve savaşların nasıl kazanılacağı hususunda devlete diktelerde bulunmasını reddettiğini ifade etti. Benzer bir egemenlik vurgusu Savaş Bakanlığı’nın açıklamalarında da gözlemleniyor; Bakanlık, operasyonel kararlara ve işleyişe herhangi bir şirketin karışmasına kesin bir dille karşı çıkıyor.
Bakan Hegseth’in Ocak ayında SpaceX ve xAI ofislerinde yaptığı konuşma, meselenin teknik olduğu kadar kültürel ve politik bir boyutu da olduğunu tescilliyor:
“Savaş Bakanlığı’nın yapay zekası duyarkasıcı (woke) olmayacak. Biz Ivy League okullarının fakülte salonları için sohbet botları değil, savaşa hazır sistemler inşa ediyoruz.”
Öte yandan Pentagon ve Anthropic arasındaki gerilim tırmanırken, bir başka yapay zeka devi olan OpenAI’ın söz konusu anlaşmanın şartlarını da kapsayan biçimde Pentagon’un yarattığı boşluğu doldurmaya aday olması kamuoyunda büyük yankı uyandırdı. Bu pragmatik hamlenin ardından pek çok kullanıcı OpenAI aboneliklerini iptal edip Anthropic’in modeli olan Claude’u kullanmaya başladığını duyurdu. Claude’un uygulama marketlerinde hızla zirveye yükselişi de bu tepkinin somut bir yansıması oldu.
Başlangıçta OpenAI CEO’su Sam Altman ve eski ortak Ilya Sutskever, Anthropic’in belirlediği bu "kırmızı çizgileri" takdir eden ve benzer bir duruş sergileyeceklerini ima eden açıklamalar yapmıştı. Ancak Trump yönetiminin Anthropic ile bağları kopardığını duyurmasından sadece saatler sonra OpenAI, ortaya çıkan boşluğu doldurarak Pentagon ile yeni bir anlaşma imzaladığını ilan etti.
Altman bu yeni sözleşmenin, Anthropic’in savunduğu (iç gözetim ve otonom silah yasakları gibi) temel prensipleri koruduğunu iddia etse de bazı kaynaklara göre OpenAI ve hükümet yetkilileri, bu anlaşmanın altyapısını kurmak için kapalı kapılar ardında çoktan masaya oturmuştu bile.
Geçtiğimiz Temmuz ayında Savaş Bakanlığı’ndan ortaklaşa sözleşme alan devlerden Google şimdilik sessizliğini korurken, Anthropic’in ilkeli itirazının bedelini sistemin dışına itilerek ödemesi ve OpenAI’ın anında bu ticari boşluğu doldurması, teknoloji ekosistemindeki ahlaki rekabetin ne denli pragmatik bir zeminde ilerlediğini özetliyor.
Tüm bu sürecin sonunda, Anthropic’in tutumunun da bütünüyle etik bir zemine dayanmadığını belirtmek gerekiyor. Zira regülasyonların merkezi bir rol oynadığı Avrupa gibi katı pazarlardaki payını ve imajını da kaybetmek istemeyen şirket, şimdilik bu stratejik gerilimin merkezinde konumlanmayı tercih ediyor. Orta vadede bu uyuşmazlık, "devlet–şirket" geriliminin en sembolik vakalarından biri olmaya aday görünse de teknoloji şirketlerinin, uluslararası bağlamda yükselen jeopolitik gerilimlere karşı devlet aygıtından bağımsız "adacıklar" olarak kalmayı talep etmeleri artık oldukça zor, hatta imkansız görünüyor.
ChatGPT’yi Sil Akımı
Donald Trump yönetiminin, Anthropic’in teknolojilerinin federal kurumlarda kullanımını durdurma kararı ve şirketi "tedarik zinciri riski" olarak nitelemesi, yapay zeka şirketleri ile devlet arasındaki gerilimi yeni ve görünür bir aşamaya taşıdı. Anthropic’in CEO’su Dario Amodei’nin, geliştirdikleri Claude modelinin kitlesel gözetim ya da tam otonom silah sistemlerinde kullanılmasına yönelik çekincelerini kamuoyuna açık biçimde dile getirmesi, tartışmayı yalnızca bir ticari sözleşme krizi olmasının ötesine taşıdı. Bu gelişme, büyük teknoloji şirketlerinin devletlerle kurduğu ilişkinin sınırları konusunda zaten artmakta olan toplumsal hassasiyeti daha da derinleştirdi.
Kararın hemen ardından Sam Altman’ın, OpenAI ile Pentagon arasında yeni bir anlaşma yapıldığını duyurması ise kamuoyundaki şüpheleri artırdı. Her ne kadar Altman, kitlesel gözetim ve otonom silahlar konusunda "kırmızı çizgilerin" sözleşmeye yazıldığını ifade etse de, birçok kullanıcı açısından asıl mesele teknik güvencelerden ziyade yapısal bir sorun; devletlerin, özellikle askeri ve istihbari kurumların, özel sektörün geliştirdiği yapay zeka altyapılarına ne ölçüde erişeceği ve bu erişimin hangi denetim mekanizmalarına tabi olacağı.

Sosyal medyada başlatılan "ChatGPT’yi sil" çağrıları tam da bu bağlamda okunmalı. Tepki yalnızca belirli bir şirketin aldığı ya da almadığı pozisyona yönelik olmaktan öte, daha geniş bir güvensizlik dalgasının parçası. Büyük teknoloji şirketlerinin kullanıcı verilerini işleme, saklama ve analiz etme kapasitesi ile bu verilerin gözetleme, hedefleme ya da askeri planlama süreçlerine dolaylı veya doğrudan entegre edilme ihtimali, özellikle son yıllarda ciddi etik tartışmalara konu oldu. Bu tartışmalar, İsrail’in Gazze’de yürüttüğü katliam savaşı sonrasında doğrudan İsrail ordusuna teknoloji sağlayan şirketlere yönelik boykot çağrılarıyla daha da görünür hale gelmişti. Benzer bir refleksin şimdi Amerikan ordusu ve iç güvenlik kurumlarıyla çalışan yapay zeka şirketlerine yönelmesi şaşırtıcı değil.
Buradaki temel kaygı iki katmanlı. Birincisi, insan hakları ihlalleriyle anılan askeri operasyonlarda yapay zeka sistemlerinin rolü. Amerika ve İsrail ordularının saldırılarında ciddi sivil kayıplarının olduğu, hatta sivil unsurların bilerek hedef alındığı bir gerçek. Bu durum, bu sistemlerin hedef belirleme, istihbarat analizi ya da operasyonel karar destek süreçlerinde kullanılması ihtimalini daha hassas bir mesele haline getiriyor. İkincisi ise gözetim meselesi. Eğer bir yapay zeka modeli kitlesel veri analizi kapasitesine sahipse ve bu model devlet kurumlarıyla entegre çalışıyorsa, özellikle hükümet karşıtı eleştirilerde bulunan bireylerin tedirginliği anlaşılabilir bir zemine oturuyor.
Bu nedenle "ChatGPT’yi sil" çağrısı, bir teknoloji karşıtlığı değil; şeffaflık ve hesap verebilirlik taleplerinin dijital bir tezahürü olarak değerlendirilebilir. Kullanıcılar, verilerinin hangi koşullarda devletlerle paylaşıldığını, askeri projelerde hangi sınırların geçerli olduğunu ve şirketlerin etik ilkelerinin kriz anlarında ne kadar bağlayıcı olduğunu bilmek istiyor. Devlet–teknoloji şirketi ilişkisi ne kadar derinleşirse, bu sorular da o kadar yüksek sesle sorulacak gibi görünüyor.