Verileriniz Cepheye Sürüldü: Kişisel Bilgileriniz Pentagon’un Yeni Mühimmatı

ABD-İran çatışması tam gaz sürerken gökyüzünde füzeler patlıyor, ama yeryüzünde daha sessiz ve belki daha tehlikeli bir savaş yaşanıyor: Yapay zeka modellerinin askeri kullanım krizi.

28 Şubat 2026 gecesi, ABD Başkanı Donald Trump’ın İran’a yönelik hava saldırıları duyurmasından saatler sonra, OpenAI CEO’su Sam Altman bir açıklama yaptı: Şirket, modellerini ABD Savunma Bakanlığı’nın (artık resmi adıyla Department of War – Savaş Bakanlığı) gizli/classified ağlarında kullanılmak üzere anlaşma imzaladı.

Aynı günlerde rakip Anthropic (Claude AI’nin üreticisi), benzer bir anlaşmayı reddetti.

Kırılma Noktası: Kırmızı Çizgiler ve Reddiyeler

Anthropic’in iki temel kırmızı çizgisi vardı:

  • Modellerinin ABD vatandaşlarına yönelik kitlesel gözetim (domestic mass surveillance) için kullanılmaması.
  • İnsan denetimi olmadan tamamen otonom ölümcül silah sistemleri (fully autonomous lethal weapons) ile insan öldürme yeteneği sağlamaması.

Pentagon bu çizgileri kaldırmayı talep etti. Anthropic kabul etmeyince Savunma Bakanı Pete Hegseth ültimatom verdi: 27 Şubat akşamına kadar anlaşma yoksa “tedarik zinciri riski” etiketi ve yasak gelecekti. Anthropic geri adım atmadı; Trump da tüm federal kurumlara Anthropic teknolojisi kullanımını yasakladı.

Sam Altman’ın X’teki Tam Açıklaması (28 Şubat 2026 gecesi):

“Bu akşam, modellerimizi gizli ağlarında devreye almak için Savaş Bakanlığı (Department of War / DoW) ile bir anlaşmaya vardık.
Tüm etkileşimlerimizde, DoW güvenlik konusunda derin bir saygı gösterdi ve en iyi sonucu elde etmek için ortaklık arzusu sergiledi.
Yapay zeka güvenliği ve faydaların geniş dağıtımı misyonumuzun çekirdeğidir. En önemli güvenlik ilkelerimizden ikisi: yurt içi kitlesel gözetim yasağı ve güç kullanımında (otonom silah sistemleri dahil) insan sorumluluğudur. DoW bu ilkeleri kabul ediyor, yasa ve politikalarında yansıtıyor ve bunları anlaşmamıza koyduk.
Ayrıca modellerimizin doğru davranmasını sağlamak için teknik güvenlik önlemleri (technical safeguards) oluşturacağız; DoW da bunu istiyordu. Modellerimize yardımcı olmak ve güvenliğini sağlamak için FDE’ler (muhtemelen Field Deployment Experts veya benzeri uzman ekipler) konuşlandıracağız, sadece bulut ağlarında devreye alacağız.
DoW’den bu aynı şartları tüm yapay zeka şirketlerine sunmasını istiyoruz; bizim görüşümüze göre herkes bunu kabul etmeye istekli olmalı. Yasal ve hükümet eylemlerinden uzaklaşıp makul anlaşmalara doğru gerilimi azaltma arzumuzu güçlü bir şekilde ifade ettik.
İnsanlığa en iyi şekilde hizmet etmeye bağlıyız. Dünya karmaşık, dağınık ve bazen tehlikeli bir yer.”

Ancak birçok kişi bunu “aynı prensipler” kisvesi altında fırsatçılık olarak görüyor. Sözleşme dili muğlak; “insan sorumluluğu” ifadesi, pratikte insan onayını bypass edebilecek loophole’lara açık. Pentagon’un tek taraflı politika değişikliği yapma hakkı da korunuyor.

Trump’ın Trilyon Dolarlık AI Masası ve Bugünkü Sonuç

Hatırlayın: 2025 Eylül’ünde Trump, Beyaz Saray’da teknoloji devlerini (Sam Altman, Mark Zuckerberg, Sundar Pichai, Tim Cook, Bill Gates ve diğerlerini) masaya dizmişti. Video kayıtlarında Trump tek tek soruyor: “Yapay zekaya ne kadar yatıracaksınız?”

Cevaplar devasa: Meta’dan Zuckerberg 600 milyar dolar, toplamda trilyonlarca dolarlık yatırım sözü verildi. O toplantı “Amerikan AI hakimiyeti” için kutlanıyordu.

Bugün o yatırımların bir kısmı, İran’a atılan füzelerin hedefleme algoritmalarında, istihbarat analizinde veya potansiyel otonom sistemlerde kullanılıyor olabilir. Savaşın “insan kaybını sıfırlamak” vaadi kulağa hoş geliyor: Drone’lar, füzeler veya karar sistemleri insan askerleri riske atmadan iş görecek.

Ama asıl tehlike burada başlıyor: Tetiği çeken bir insan değil de bir algoritma olursa, etik sorumluluk kime ait? Kod hatası, yanlış prompt veya veri yanlılığıyla ölen binlerce masumun hesabını kim verecek? Savaş bir video oyununa dönerse, “ölüm”ün psikolojik maliyeti azalır mı, yoksa daha kolay ve yaygın hale mi gelir?

Çalışanların Başkaldırısı: “Bölünmeyeceğiz”

Bu krizde en çarpıcı gelişme, şirket içi isyan oldu. Google (DeepMind dahil) ve OpenAI çalışanları, “We Will Not Be Divided” (Bölünmeyeceğiz) başlıklı açık mektubu yayımladı.

  • İmza sayısı: Google’dan 600+, OpenAI’dan 90+ (toplam 700’e yakın, imzalar notdivided.org’da hâlâ açık).
  • Mektup doğrudan Pentagon’u suçluyor: “Şirketleri böl ve yönet taktiğiyle birbirine düşürüyorlar. Anthropic’in reddettiği talepleri bize dayatıyorlar.”
  • Çağrı: Liderler farklılıkları bir kenara bırakıp, kitlesel gözetim ve otonom öldürme taleplerini reddetsin.

Mektup, şirket liderlerine hitaben şöyle diyor:

“Biz Google ve OpenAI’ın çalışanlarıyız, dünyanın en büyük yapay zeka şirketlerinden ikisi. Liderlerimizin farklılıkları bir kenara bırakıp birlikte durarak, modellerimizin yurt içi kitlesel gözetim ve insan denetimi olmaksızın insanları öldürmek için kullanılmasına izin veren Savaş Bakanlığı’nın mevcut taleplerini reddetmeye devam etmelerini umuyoruz.”

Mektubun tam metnine ve güncel imzacı listesine buradan ulaşabilirsiniz: https://notdivided.org/

AI Artık Taraf Oldu

Bu olay, AI’nin sadece “yardımcı araç” olmaktan çıkıp savaş teknolojisinin parçası haline geldiği dönüm noktası. Anthropic prensipte kazandı ama erişim kaybetti; OpenAI kısa vadede dev bir devlet sözleşmesi aldı ama kullanıcı güvenini, çalışan vicdanını ve “etik AI” imajını riske attı.

Sosyal medyada #CancelChatGPT trend oluyor, abonelik iptalleri artıyor. Birçok kullanıcı (ben dahil) “Günlük sohbetlerimin, kodlarımın parası mı savaş makinelerine gidiyor?” diye sorguluyor.

Bugün füzeler ateşlendi, ama algoritmalar da ateşlendi. Ve soru hâlâ aynı: Bu teknoloji insanlığı kurtaracak mı, yoksa daha etkili bir ölüm makinesi mi olacak?

Dünya izliyor – ve birçok vicdanlı ses, “Bölünmeyeceğiz” diyor.

Kaynaklar

Sam Altman’ın X’teki tam açıklaması (28 Şubat 2026 gecesi)

Altman, Sam. “Tonight, we reached an agreement with the Department of War…” X (eski Twitter), 28 Şubat 2026.
https://x.com/sama/status/2027578652477821175

OpenAI’nin Pentagon anlaşması duyurusu

“OpenAI Reaches A.I. Agreement With Defense Dept. After Anthropic Clash.” The New York Times, 28 Şubat 2026.
https://www.nytimes.com/2026/02/27/technology/openai-agreement-pentagon-ai.html

“OpenAI strikes deal with Pentagon hours after Trump admin bans Anthropic.” CNN, 28 Şubat 2026.
https://www.cnn.com/2026/02/27/tech/openai-pentagon-deal-ai-systems

“OpenAI reaches deal to deploy AI models on U.S. Department of War classified network.” Reuters, 28 Şubat 2026.
https://www.reuters.com/business/openai-reaches-deal-deploy-ai-models-us-department-war-classified-network-2026-02-28

Anthropic’in reddi ve “ulusal güvenlik riski” ilanı

“Trump admin blacklists Anthropic; AI firm refuses Pentagon demands.” CNBC, 28 Şubat 2026.
https://www.cnbc.com/2026/02/27/trump-anthropic-ai-pentagon.html

“Anthropic rejects Pentagon’s AI demands.” Politico, 27 Şubat 2026.
https://www.politico.com/news/2026/02/26/anthropic-rejects-pentagons-ai-demands-00802554

Anthropic resmi açıklaması: https://www.anthropic.com/news/statement-department-of-war

“We Will Not Be Divided” açık mektubu ve imza sayıları

Resmi site: https://notdivided.org/

“Employees at Google and OpenAI support Anthropic’s Pentagon stand in open letter.” TechCrunch, 27 Şubat 2026.
https://techcrunch.com/2026/02/27/employees-at-google-and-openai-support-anthropics-pentagon-stand-in-open-letter

“Google, OpenAI workers push for military AI limits.” Axios, 27 Şubat 2026.
https://www.axios.com/2026/02/27/google-openai-workers-push-for-military-ai-limits

Trump’ın İran hava saldırıları (28 Şubat 2026)

“Trump Says Khamenei, Iran’s Supreme Leader, Is Dead: Live Updates.” The New York Times, 28 Şubat 2026.
https://www.nytimes.com/live/2026/02/28/world/iran-strikes-trump

“U.S. and Israel attack Iran as Trump urges Iranians to ‘take over’ the government.” NBC News, 28 Şubat 2026.
https://www.nbcnews.com/world/iran/us-israel-attacks-iran-protests-nuclear-talks-rcna253784

“2026 Iran–United States crisis.” Wikipedia (olay özeti, kaynaklı).
https://en.wikipedia.org/wiki/2026_Iran–United_States_crisis

Yorumlar

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir