Yapay Zeka, Askeri Sistemler ve Anthropic'in Tarihi Reddi
- Deniz Dede
- 1 gün önce
- 7 dakikada okunur

OpenAI CEO'su Sam Altman, 27 Şubat 2026'da yaptığı açıklamada, şirketin ABD Savunma Bakanlığı (Pentagon) ile mutabakata vardığını duyurdu. Şirket, bünyelerindeki modellerin Pentagon'un sınıflandırılmış ağlarına entegre edeceğini resmen beyan etmiş oldu. Bu entegrasyon bildiğimiz ChatGPT sürümlerinden farklı; "GenAI.mil" platformu adıyla hayata geçirilen yeni sistem, ordunun tamamen kapalı ve "güvenli" altyapısında çalışmak üzere özel olarak geliştirildi. Amerikan hükümetine ve spesifik olarak Pentagon'a bağlı çalışacak olan bu sistem; birincil olarak gizli belgelerin analiz edilmesi, raporlanması ve operasyonel planlama yapılması gibi alanlarda kullanılacak.
Bu açıklamanın hemen ardından tüm dünya ayağa kalktı, Altman'ın açıklamasını ve ABD'nin böyle bir karar almış olmasını dehşet verici bir gelişme olarak değerlendirerek arka arkaya açıklamalar yaptı. Öyle ki OpenAI'ın kendi bünyesindeki çalışanlar bile şirketin bu yeni kararının karşısında yer aldı.
Bu meseleyi bu kadar dehşet verici hâle getiren başka bir şirket var bu denklemde. Bu şirket, Pentagon'un kararlarını uygulayarak değil, tam aksine devletin en güçlü bürokratik birimlerinden birine net bir biçimde "hayır" diyerek meselenin bu hâle gelmesine neden oldu. OpenAI ile anlaşmaya varılmadan önce Pentagon'un çalışmak istediği şirketin bu olduğunu da bilmek gerekir. Bahsettiğimiz şirketin adı Anthropic. OpenAI'ın ChatGPT'si gibi bu şirketin de geliştirdiği Claude adında bir yapay zeka aracı var. Dario ve Daniela Amodei kardeşlerin kurduğu bu şirket, yapay zekanın güvenli ve insani değerlerle uyumlu çalışabilir şekilde programlaması gerektiğini savunan bir felsefeye sahip. Bu şirketin Pentagon karşısındaki duruşu da bu felsefeye son derece uygun.
Peki işler bu noktaya nasıl geldi? Anthropic şirketinin verdiği kararın arkasındaki felsefe ne? ABD'de kamu kurumlarında Anthropic şirketine ait yapay zeka modelleri neden yasaklandı? Dahası OpenAI CEO'su Sam Altman, neden Anthropic ile kavgalı?
Yapay Zeka ve İstihbarat Çalışmaları
2025 yılının ortasında ABD Savunma Bakanlığı, dört büyük yapay zeka şirketine —OpenAI, Anthropic, Google ve xAI— 200'er milyon dolarlık pilot program sözleşmeleri verdi. Bu hamle, yapay zeka teknolojisinin sivil uygulamalar ötesine geçerek askeri ve istihbarat altyapısına doğrudan entegre edilmesine yönelik kapsamlı bir devlet stratejisinin parçasıydı.
Pentagon, bu pilot programlar neticesinde odağını Anthropic şirketine çevirdi. Pentagon'un ilk aşamada Anthropic'e öncelik vermesinin ardında yapısal bir mantık yatmaktaydı. Anthropic, kuruluşundan bu yana kendini 'güvenlik odaklı' (safety-first) bir şirket olarak konumlandırmış ve 'Anayasal Yapay Zeka' (Constitutional AI) yaklaşımıyla modellerinin kontrol edilebilir ve öngörülebilir olduğunu savunmuştu. Bu disiplinli yapı, askeri kurumların hiyerarşik komuta-kontrol anlayışıyla örtüşüyordu.
Nitekim Anthropic, ABD ordusunun sınıflandırılmış (gizli) ağlarında kullanım için onay alan ve entegrasyonu fiilen hayata geçiren ilk şirket oldu. Claude modelinin tutarlı davranış profili, Pentagon'un güvenlik mimarlarına cazip geliyordu. Bu bağlamda Anthropic, henüz 2025 ortasında yapay zeka-savunma ekosisteminin öncü aktörü konumuna yükseldi. Kısacası yapay zeka ve devlet entegrasyonuna liderlik edecek konuma yükselmişti.
"Tüm Yasal Amaçlar" Dayatması ve Anthropic'in Reddi
Ocak 2026'da Pentagon, yeni bir Yapay Zeka Hızlandırma Stratejisi yayımladı. Bu strateji, entegrasyon sürecinin ötesine geçerek şirketlerden çok daha kapsayıcı bir taahhüt istedi. Bu taahüde göre Pentagon, yapay zeka şirketlerinin geliştirdikleri modelleri "tüm yasal askeri amaçlar" için ve hiçbir kısıtlama olmadan kullanmasına izin verecekti.
Diğer üç şirket çekinceli yaklaşırken Anthropic CEO'su Dario Amodei, bu talebe net bir biçimde "hayır" dedi. Kamuoyuna yaptığı açıklamada Amodei, kitlesel gözetleme sistemleri ve insan müdahalesi olmadan çalışan otonom silah sistemleri konularında bulundukları konumdan asla taviz vermeyeceklerini duyurdu. Amodei'ye göre bu sınırlar, Anthropic'in varoluşsal amacıyla doğrudan bağlantılıydı; aşılmaları halinde şirketin kuruluş gerekçesi de ortadan kalkmış olurdu.
Bu açıklama, yapay zeka sistemlerinin geleceğiyle ilgili de tarihi bir özelliğe sahip. İlk defa bu kadar açık bir biçimde bir devlet, bir yapay zeka aracını askeri amaçlarla doğrudan kullanmayı talep ediyor. Bu talebe verilen olumsuz yanıt, yapay zeka araçlarını geliştiren şirketlerin güvenilirliğiyle ilgili pek çok soru işaretini ortadan kaldırıyor.
ABD Savunma Bakanı Pete Hegseth, ret yanıtının ardından Anthropic'e 27 Şubat 2026 tarihine kadar süre tanıdı. Şirketin tutumunda herhangi bir değişiklik yapmayacağını ilan etmesinin ardından Anthropic, federal çevrelerde 'ulusal güvenlik riski' olarak nitelendirildi. Buna paralel olarak federal kurumların Anthropic teknolojisi kullanması yasaklandı. Bu karar, sektörde 'kara liste şoku' (blacklisting shock) olarak yankı uyandırdı. Yani, meselenin "blacklisting" kısmında Anthropic, "ahlaki" olanı seçtiği için devletle bağlantısını tamamen koparmak zorunda kalmanın yanı sıra, "güvenlik riski" etiketini de taşımaya başladı. Meselenin "shock" tarafında ise, diğer teknoloji devlerine yönelik de bir mesaj var. Bu olay ile tüm dev şirketler, "devlete karşı gelmenin bir cezası olacağı" yönünde tehdit edilmiş oldu.
OpenAI'ın Stratejik Atılımı
OpenAI, Haziran 2025'te devlet sektörüne özel çözümler sunmak amacıyla 'OpenAI for Government' birimini hayata geçirdi. Pentagon ile imzalanan anlaşmanın değeri 200 ila 256 milyon dolar olarak açıklandı. Projenin Temmuz 2026'ya kadar tamamlanması ve öncü yapay zeka prototiplerinin orduya kazandırılması öngörülüyordu. Anlaşmanın kapsamı; idari süreçlerin hızlandırılması, askeri personelin sağlık hizmetlerine erişiminin kolaylaştırılması ve siber savunmanın güçlendirilmesini içeriyordu.
Şubat 2026 sonunda CEO Sam Altman, OpenAI modellerinin Pentagon'un sınıflandırılmış ağlarına entegre edileceğini duyurdu. 'GenAI.mil' platformu adıyla hayata geçirilen bu sistem, ChatGPT'nin standart sürümünden farklı olarak ordunun kapalı ve güvenli altyapısında çalışmak üzere tasarlandı. Gizli belgelerin analizi, raporlama ve operasyonel planlama bu sistemin başlıca kullanım alanları olarak belirlendi.
OpenAI bu iş birliklerinin önünü açmak için etik politikalarında belirleyici değişikliklere gitti. Ocak 2024'te kullanım şartlarındaki 'askeri ve savaş uygulamaları' yasağı sessiz sedasız kaldırıldı; yerine 'başkalarına zarar verecek şekilde kullanmama' gibi daha muğlak ifadeler getirildi. Altman, ulusal güvenlik alanında çalışmaktan gurur duyduklarını açıklarken iki kırmızı çizgilerini de net biçimde tanımladıklarını belirtti: yurt içi kitlesel gözetim yasağı ve öldürücü güç kullanımında zorunlu insan gözetimi (human-in-the-loop).
Entegrasyon salt metin analiziyle sınırlı kalmadı. OpenAI'ın, Pentagon'un 100 milyon dolarlık otonom drone sürüsü projesinde sesle kontrol edilen yazılımlar geliştirmek üzere savunma teknolojisi firmaları ile ortaklık kurduğu bildirildi. Şirket aynı zamanda siber tehditlerin tespiti ve yazılım açıklarının kapatılması amacıyla savunma araştırma birimi DARPA ile de ortak çalışmalar yürütüyor.
OpenAI, Anthropic'in boşalttığı alanı doldurmak için yalnızca sözleşme imzalamakla yetinmedi; Pentagon ile çalışırken kısıtlamaları kağıt üzerinde yasaklar olarak belirtmek yerine, askeri ağlara kurulan yazılımın içine teknik bariyerler yerleştirmeyi teklif etti. Bu 'teknik çözüm' yaklaşımı, Pentagon tarafından 'çözüm odaklılık' ve pragmatizm olarak yorumlandı. Anthropic'in katı ilkeci tutumu ise her ne kadar kurumsal bütünlüğünü korumuş olsa da şirketi dev bir piyasanın dışına itti.
Tüm bunların yanında, OpenAI'ın teklifleri her ne kadar "görüntüde" iyi dursa da, pek çok açıdan kontrolü tamamen devletin güç unsurlarına bırakmak anlamına geliyor. Az önce bahsi geçen kitlesel gözetim yasağı ve human-in-the-loop prensiplerini ihlal eden bu yaklaşım, pek tabii tepki çekti.
"Dijital Vicdan" İsyanı
Şubat 2026 sonunda, aralarında 60'tan fazla OpenAI mühendisi ve 300'den fazla Google araştırmacısının bulunduğu bir grup ortak bir bildiri yayımladı. Bu nadir görülen iş birliğinde Anthropic'in 'kırmızı çizgilerinin' korunması gerektiği ve Pentagon'un 'tüm yasal amaçlar' dayatmasının tehlikeli bir emsal teşkil ettiği vurgulandı. OpenAI çalışanları, yönetimi Pentagon'un 'şirketleri birbirine düşürme' stratejisine kanmakla suçladı. Sam Altman'ın orduyla anlaşma imzalaması şirket içinde ciddi tartışmalara yol açtı. Bazı kıdemli araştırmacıların 'şeffaflık eksikliği' ve 'askeri odaklılık' nedeniyle istifa aşamasına geldiği bildirildi.
Anthropic cephesinde ise durum çok netti. Şirket çalışanları, CEO Amodei'nin kararını büyük ölçüde destekledi. Şirket içindeki hâkim kanı, Claude'un bir 'savaş makinesine' dönüştürülmesinin şirketin kuruluş felsefesiyle bağdaşmayacağı yönündeydi. Federal kara listeye alınmanın yarattığı finansal baskıya karşın kurumsal uyum yüksek kaldı.
Yine bu sürecin en ciddi sonuçlarından biri, kullanıcılardaki "güven" unsuru oldu. Sosyal medyada örgütlenen kullanıcılar, kitleler hâlinde ChatGPT üyeliklerini sonlandırarak Claude üyeliği almaya ve yapay zeka araçları ile yürüttükleri işlerini buradan sürdürmeye karar verdiler. Mali açıdan ABD hükumetinin yol açtığı zararı karşılamasa bile politik bir duruş olarak Anthropic'in elinde de güçlü bir kamuoyu oluşmaya başladı.
Olayın Uluslararası Yansımaları
BM Genel Sekreteri António Guterres, 26 Şubat 2026'da New York’ta düzenlenen acil durum oturumunda, OpenAI’ın Pentagon’un gizli ağlarına entegrasyonunu "Yapay Zekanın Oppenheimer Momenti" olarak nitelendirdi. Guterres, algoritmaların hedef seçme ve angajman kararlarında "insan denetimini" sembolik bir düzeye indirgediği uyarısında bulundu. BM bünyesindeki Otonom Silah Sistemleri Uzman Grubu, 2026 sonuna kadar hukuki bağlayıcılığı olan küresel bir yasak getirilmezse, "yazılım tabanlı soykırımların" önünün açılacağını belirterek tüm üye devletlere ultimatom verdi.
AB, 2024’te yasalaşan AI Act'in askeri istisnalarını genişletme baskısı altında. Brüksel, Washington'ın hamlesini sadece bir teknoloji transferi değil, transatlantik bir güvenlik kırılması olarak görüyor. Fransa ve Almanya, ortak bir bildiriyle OpenAI’ın "şeffaf olmayan askeri entegrasyonunu" kınadı. AB çevrelerinde, ABD’nin silikon vadisi devlerini kullanarak "AI sömürgeciliği" yaptığı ve Avrupa'nın etik standartlarını bypass ettiği konuşuluyor. AB Komisyonu, spesifik olarak OpenAI’ın askeri kanadına rakip olabilecek, tamamen Avrupa menşeli ve "insan hakları odaklı" bir savunma yapay zekası projesi için 50 milyar Euro'luk ek fon talebinde bulundu. Bu da yakın gelecekte "milliyetçi" yapay zeka araçlarının kullanımına sebep olacak.
OpenAI'ın bu iş birliğini "Otoriter rejimlere karşı demokratik savunma" olarak pazarlaması, Pekin ve Moskova'da da karşılık buldu. Çin Dışişleri Bakanlığı, 27 Şubat’ta yaptığı açıklamada ABD’yi "yapay zekayı bir kitle imha silahına dönüştürmekle" suçladı. Hemen ardından, halka arz edilen tüm teknoloji devlerine (Baidu, Alibaba vb.) ordunun "Büyük Zeka Duvarı" (Great Wall of Intelligence) projesine tam entegrasyon talimatı verildi. Çin, 2026 askeri yapay zeka bütçesini, OpenAI-Pentagon anlaşmasına misilleme olarak %120 artırdığını duyurdu. Bu, tarihin en hızlı askeri bütçe genişlemesi olarak kayıtlara geçti.
Şubat 2026'da Madrid'de düzenlenen Askeri Alanda Sorumlu Yapay Zeka (REAIM) zirvesi, diplomatik tarihin en büyük fiyaskolarından birine dönüştü. Zirvenin hedefi, "Yapay zekanın asla nükleer ateşleme yetkisine sahip olmaması" üzerine 20 maddelik bir protokol imzalamaktı. ABD ve Çin heyetleri, 28 Şubat gece yarısı operasyonuyla imzalarını geri çektiler. Gerekçe olarak "stratejik muğlaklık ihtiyacı" ve "teknolojik üstünlüğü yasal prangalarla kısıtlamama" gösterildi. REAIM 2026’nın başarısızlığı, yapay zekanın "kuralsız bir savaş alanı" olduğunu tescilledi. Küresel diplomasi, algoritmik silahlanmanın hızına yetişemediğini resmen kabul etmiş oldu. OpenAI ile Pentagon'un son anlaşması, bu kuralsız savaş alanının varlığını da kesin olarak kamuoyuna göstererek, şirket misyonunun "insanlığın yararına yapay zeka"dan "devletin stratejik uzvu olma"ya dönüşümünü de tamamladığını ortaya koydu.
Sonuç ve Gelecek Beklentileri
2025–2026 dönemi, yapay zeka sektörünün tarihsel bir kavşaktan geçtiğini belgeleyen bir süreç olarak kayıtlara geçti. Pentagon'un Anthropic'e verdiği öncelikten başlayan ve OpenAI'ın birincil sağlayıcı konumuna yükselmesiyle noktalanan bu süreç, gerçekte tek bir temel soruyu yanıtlamaktadır: Yapay zeka şirketi olmak, neye hizmet etmek demektir?
Anthropic'in seçimi, şirketin kuruluş amacına —güvenli ve kontrol edilebilir yapay zeka— tam anlamıyla sadık kalarak devasa bir pazar dilimini reddetmesini gerektirdi. Bu tutum, kısa vadede ağır finansal ve operasyonel maliyetler doğurdu. OpenAI'ın seçimi ise stratejik esneklik yoluyla devlet desteğini ve büyük sözleşmeleri kazanmayı mümkün kıldı; ancak bu, hem kendi çalışanlarının güveninin hem de uluslararası 'etik liderlik' imajının ciddi biçimde sarsılması pahasına gerçekleşti.
Uzun vadede bu ayrışmanın nasıl değerlendirileceği belirsizliğini korumaktadır. Rekabetçi piyasa analizi açısından bakıldığında OpenAI açıkça kazanan konumdadır. Ancak teknolojik gelişimin toplumsal etkisi açısından değerlendirildiğinde, Anthropic'in tutumunun bıraktığı normatif miras çok daha kalıcı olabilir. Nihayetinde bu kriz, yapay zekanın yalnızca teknik bir sorun olmadığını; aynı zamanda derin bir etik ve siyasi sorun olduğunu bir kez daha ortaya koymuştur.