Geçen hafta bir şey oldu. Tarihte ilk kez, gerçek bir savaşta hangi hedeflerin vurulacağına bir yapay zeka karar verdi.

Bu cümleyi okuyunca "abartıyorsun" diye düşünebilirsin. Ama abartmıyorum.

28 Şubat 2026'da ABD ve İsrail'in başlattığı İran operasyonunun ilk 24 saatinde yaklaşık 1.000 hedef vuruldu. Bu ölçekte bir operasyonun geleneksel yöntemlerle planlanması geçmişte haftalar, bazen aylar sürerdi. Bu sefer aldığı süre: birkaç saat. Farkı yaratan şey Palantir'in Maven sistemi ve içine entegre edilen yapay zeka modeli.

Bu yazı o sistemin ne yaptığını, nasıl çalıştığını ve "yapay zeka ilk kez savaştı" cümlesinin gerçekte ne anlama geldiğini anlatıyor.

Önce Şu Soruyu Sormak Lazım: Bu Yapay Zeka Ne Yapıyor?

Savaşta kullanılan yapay zeka sistemi, Anthropic şirketinin geliştirdiği Claude modeli. Sohbet robotu olarak tanıyabilirsin — binlerce sayfalık metni okuyup özetleyebilen, sorulara yanıt veren, analiz yapabilen bir sistem. Normal hayatta insanlar onu hukuki belgeleri incelemek, kod yazmak, araştırma yapmak için kullanıyor.

Ama Pentagon, onu bambaşka bir şey için kullandı.

Washington Post'un haberine göre Claude, Palantir'in Maven platformuna entegre edildi.

Maven uydu görüntülerini, drone kayıtlarını, radar verilerini, sinyal istihbaratını tek bir arayüzde topluyor. Claude ise bu devasa veri yığınını analiz ediyor, yüzlerce potansiyel hedefi önceliklendiriyor ve insan komutanların önüne sıralanmış bir liste koyuyor.

NBC News'e bilgi veren bir kaynağa göre Claude doğrudan hedefleme tavsiyesi vermiyor — istihbarat analistlerinin veriyi ayıklamasına yardımcı oluyor.

Ama bu ince ayrım, sistemin ne kadar merkezi bir rol oynadığı gerçeğini değiştirmiyor.

Savaşın Beyni: Maven Sistemi

Palantir Technologies, 2017'den beri ABD ordusunun yapay zeka programı olan Project Maven'ı geliştiriyor. Başlangıçta mütevazı bir drone görüntüsü analiz aracıydı. Google ilk teknik ortaktı — ama 2018'de çalışanlarının protestoları üzerine çekildi. Palantir devraldı ve sistemi büyük ölçüde genişletti.

Bugün Maven 150'den fazla veri kaynağını tek bir arayüzde birleştiriyor: uydu görüntüleri, drone video kayıtları, radar, kızılötesi sensörler, sinyal istihbaratı ve coğrafi konum verileri. Bilgisayarlı görü algoritmaları milyonlarca etiketlenmiş görüntü üzerinde eğitilmiş durumda — potansiyel hedefleri saniyeler içinde tespit edip sınıflandırabiliyor.

Georgetown Üniversitesi'nin araştırmasında ilginç bir veri var: bu sistemle 20 kişilik bir birimin, normalde 2.000 kişinin yapabileceği istihbarat işini yapabildiği tespit edildi. ABD Ordusu'na göre 18. Hava İndirme Kolordusu, Irak Özgürlük Harekâtı'nda 2.000 kişilik bir hücrenin ürettiğiyle kıyaslanabilir hedefleme kapasitesine yalnızca 20 kişiyle ulaşıyor.

Peki bütün bunlar ne kadar hızlı oluyor? Geleneksel sistemde hedef önceliklendirmesi yaklaşık 72 saat sürüyordu. Maven ile bu süre 2 saatin altına indi. NGA Direktörü Amiral Frank Whitworth'a göre Maven saatte 1.000 hedefleme önerisi üretebilir.

Savaş insan hızından makine hızına geçti.

Palantir'in Hisseleri Ne Oldu?

Savaşın patlak vermesiyle birlikte Palantir hisseleri (NASDAQ: PLTR) yaklaşık yüzde 6 yükseldi. Şirketin piyasa değeri 370 milyar dolara yaklaştı. Pentagon'un Maven sistemini resmi "program of record" ilan etmesiyle — yani tüm askeri kollara yaygınlaştırmasıyla — hisse yeniden yukarı yönlü hareket etti.

Rakamlar şaşırtıcı: 2024'te 480 milyon dolarlık bir sözleşmeyle başlayan Maven, 2025'te 1,3 milyar dolarlık bir anlaşmayla büyüdü. 2025'te ek olarak 10 milyar dolarlık bir ordu çerçeve anlaşması imzalandı. Pentagon bu yıl yalnızca yapay zeka için 13,4 milyar dolar harcıyor.

Savaş, bir teknoloji şirketi için beklenmedik bir reklam kampanyasına dönüştü. Savunma hisselerinin bu tür gelişmelere nasıl tepki verdiğini merak ediyorsan Finans Gundem borsa haberlerini takip edebilirsin.

İsrail'in Sistemleri: Lavender, Gospel ve Where Is Daddy

ABD'nin Maven'ı varken, İsrail'in de kendi yapay zeka sistemleri var. Bunların adları daha da çarpıcı.

Lavender — İsrail ordusunun Hamas ve Hizbullah üyelerini tespit etmek için geliştirdiği bir sistem. Kişilerin telefon bağlantıları, dijital ayak izleri, sosyal ağları analiz ederek "bu kişi hedef olabilir" listesi oluşturuyor. Raporlara göre sistem yüzde 10'a kadar hata payıyla çalışıyor — yani her 10 hedeften 1'i yanlış kişi olabilir.

Gospel — yapıların hedef alınmasını önceliklendiren sistem. Binalar, bunkerlar, altyapı — bunların hepsini drone görüntüsü ve sinyal istihbaratından analiz ederek potansiyel hedef olarak işaretliyor.

Where Is Daddy — en tüyler ürpertici isim. Hedef kişilerin evlerine girdiklerinde tespit edilerek vurulması için tasarlanmış. İsim, tam anlamıyla söylediği şeyi anlatıyor.

Bu sistemlerin Gazze ve Lübnan çatışmalarında kullanıldığı, sonrasında İran operasyonuna da taşındığı raporlara yansıdı.

Minab'daki Okul: Yapay Zeka Yanılınca Ne Olur?

İşte burada hikaye ağırlaşıyor.

28 Şubat 2026'da, operasyonun ilk saatlerinde, İran'ın güney kenti Minab'daki Shajareh Tayyebeh ilkokuluna bir Tomahawk füzesi isabet etti. BM ve İran yetkililerinin açıklamalarına göre 168 kişi hayatını kaybetti — bunların 100'den fazlası 12 yaşın altındaydı.

Okul binası, uzun süredir kullanılan bir İslam Devrim Muhafızları Kolordusu deniz üssünün yüz metreden kısa bir mesafesinde bulunuyordu. Amnesty International'ın uydu görüntüsü analizine göre okul ile IRGC tesisi arasına 2013-2016 yılları arasında bir duvar örülmüştü — yani okul, eskiden tesisle aynı çevre içindeydi, artık değildi.

Pentagon soruşturma başlattı. Military Times'a konuşan eski askeri yetkililer "yapay zekanın değil, insanların sorumlu olduğunu" söyledi — Maven'a beslenen verinin güncel olmadığını ileri sürdüler.

Üstelik Pentagon'un kendi verileri gösteriyor ki Maven'ın nesne tanıma doğruluğu yüzde 60 civarında — insan analistler ise yüzde 84 doğrulukla çalışıyor.

Sonuç ne olursa olsun şu soru masada duruyor: Makine saniyeler içinde karar verirken, insan denetimi gerçekten mümkün mü?

Yapay Zeka Şirketi Savaşa Karıştı — İstemeden

Hikayenin en ilginç kısmı burada.

Anthropic, sistemini otonom silahlar ve kitlesel gözetim için kullanmama koşuluyla Pentagon'a sunmuştu. Savunma Bakanlığı bu koşulları kabul etmedi. Şubat 2026'da Pentagon, Anthropic'i "ulusal güvenlik için tedarik zinciri riski" ilan etti — bu, federal kurumların şirketle çalışmasını pratikte yasaklayan bir adım.

Anthropic Trump yönetimine dava açtı.

Responsible Statecraft'ın haberine göre Maven içindeki yapay zeka modeli, Pentagon bir alternatif bulana kadar kullanımda kalmaya devam etti.

Çünkü sistem zaten çalışıyordu, zaten entegre edilmişti ve artık çıkarılması operasyonel bir risk yaratıyordu.

Savaş, bir yapay zeka şirketinin en büyük reklam kampanyasına — ve aynı anda en büyük etik krizine — dönüştü. İsteseler de istemeseler de.

Uzmanlar Ne Diyor?

Yeni Amerikan Güvenliği Merkezi'nin başkan yardımcısı Paul Scharre, CNN'e şunu söyledi: "Artık resmi olarak yapay zeka savaşı çağındayız. Savaş alanındaki devasa ve değişken veri miktarı düşünüldüğünde yapay zeka bu ortamda inanılmaz derecede değerli."

Newcastle Üniversitesi'nden Craig Jones, The Guardian'a konuştu: "Yapay zeka hedefleme önerilerini düşüncenin hızından daha hızlı üretebilir. Bu sistemlerin ölçeği ve hızı, Pentagon'un aynı anda hem suikast tarzı operasyonlar hem de rejimin karşılık verme kapasitesini etkisiz kılma operasyonları yürütmesine olanak sağlıyor — geçmiş savaşlarda bu günler hatta haftalar alırdı."

Georgia Tech'ten uluslararası ilişkiler araştırmacısı ise şunu vurguluyor: "Yapay zekanın karar destek sistemi olduğunu, silah olmadığını hatırlatmak gerekiyor. İnsanlar her zaman nihai kararı veriyor. Ama otomasyon yanlılığı gerçek bir risk — insanlar otomatik kararlara gereğinden fazla ağırlık verme eğiliminde."

Bu Bizi Nereye Götürüyor?

"Yapay zeka savaştı" demek tam olarak ne anlama geliyor?

Silah tetiklemedi. Füze ateşlemedi. Ama neyin nerede, ne zaman, nasıl vurulacağını belirledi. Karar zincirinin en kritik halkası olan "hedef seçimi" artık kısmen makinelerin elinde.

Uzmanlar buna "öldürme zincirinin makine hızına çıkması" diyor. Ve bu hız beraberinde çözülmemiş sorular getiriyor:

Makine yanlış karar verdiğinde sorumluluk kime ait? İnsan denetimi, saniyeler içinde üretilen yüzlerce hedef önerisinde gerçekten mümkün mü? Bir sistemin yüzde 60 doğruluk oranı savaş alanında kabul edilebilir mi?

Birleşmiş Milletler uzman panelleri, insan müdahalesi olmadan yapay zeka üzerinden hedefleme yapılmasının etik ve hukuki riskler barındırdığı konusunda uyarıyor. Kongre üyeleri denetim mekanizmaları talep ediyor. Palantir ise son kararın her zaman bir insanda kaldığını savunuyor.

Tartışma çözülmüş değil. Aksine daha yeni başlıyor. Tarih, bu soruların sorulduğu ilk büyük savaşı zaten yaşıyor.


⚠️ Yasal Uyarı: Bu içerik yalnızca bilgilendirme amaçlıdır. Minab okul saldırısına ilişkin soruşturma devam etmekte olup sorumluluk henüz kesin olarak belirlenmemiştir.