Orta Doğu, tarih boyunca devletler arası güç mücadelesinin yaşandığı en karmaşık ve tehlikeli bölgelerden biri olmuştur. Bölgenin iki önemli gücü İsrail ile İran arasında son yıllarda iyice artan gerilim, mevzubahis coğrafyada güvenlik mimarisini derinden sarsmaya devam etmektedir. Günümüzde yaşanan karşılıklı hava saldırıları ve diplomatik suçlamalarla devam eden bu hasımlık topyekûn bir savaşa dönüşme potansiyeli taşımakta olup, bu ihtimal dahilinde yaşanabilecekler tüm dünyada olduğu gibi Türk kamuoyunda da merak konusudur. İsrail’in İran’a yönelik saldırısı başladığından beri İran’da üst düzey askeri yetkililere ve nükleer bilimcilere karşı nokta atışı suikastlar düzenlenmiştir. İran’ın Tel Aviv başta olmak üzere İsrail’de gerçekleştirdiği yıkıcı füze ve İHA saldırıları genellikle daha üstünkörü bir görünümdeyken, İsrail’in muayyen hedeflerin vurulmasında daha başarılı olduğu görülmektedir. İsrail’in operasyonlarındaki bu başarının arkasında sahip olduğu askeri teknolojinin önemli bir payı bulunmaktadır. Yapay zekâ tarafından desteklenen Demir Kubbe savunma sistemi İsrail hava sahasının güvenliğini sağlamakta, ülkenin sahip olduğu Gospel ve Lavender isimli yapay zekâ destekli programlar ise çatışmalar sırasındaki karar alma süreçlerinde ve uygulamalarda önemli bir rol oynamaktadır. Ancak, yeni teknolojilerin savaş alanındaki kullanımına dair uluslararası hukukta boşluk olduğu için, söz konusu sistemlerin askeri operasyonlarda kullanımına dair soru işaretleri ve eleştiriler de mevcuttur. Bu sebeple uluslararası toplumun yeni teknolojilerin savaş alanındaki kullanımına ilişkin ortak ilkeler ve bağlayıcı düzenlemeler oluşturması gerekmektedir.
Gospel ve Lavender
“The Gospel (Habsora)” isimli yapay zekâ destekli sistem, ordunun hedef belirleme süreçlerini hızlandırarak İsrail Savunma Kuvvetleri’nin (ISK) operasyonlarını daha etkili ve hızlı bir şekilde gerçekleştirilmesini sağlamaktadır. ISK’in kullandığı bu sistem, diğer sistemlerin toplayıp sınıflandırdığı verileri analiz etmekte ve insanlar tarafından yürütülen hedef belirleme süreçlerini kendi eline alarak en etkili biçimde hızlandırmaktadır. İsrail’in, Gospel sayesinde uydu görüntüleri, drone kayıtları, haritalar, kat planları, sismik veriler gibi bilgileri de içeren büyük veri kümelerini kullanarak, eskiden bir yılda belirlediği hedef sayısının iki katını bir gün içinde belirleyebildiği iddia edilmektedir. Çeşitli kaynaklardan toplanan istihbarat bilgileri Gospel sistemi tarafından işlenerek karar alıcılara hedefler önerilmekte ve bu hedeflerin imha edilmesi sağlanmaktadır. Gospel sisteminin makine öğrenimini kullanan yani verilerden ve deneyimlerden öğrenebilen ve asgari insan müdahalesi ile karar veren bir sistem olduğu göz önüne alındığında, her kullanıldığında kendisini geliştirebileceği söylenebilir. Ancak, Gospel kendi belirlediği hedeflerin vurulmasına otomatik olarak onay veremediği için, belirlenen hedefin vurulmasında nihai kararın bir insan tarafından alınması gerekmektedir. Sistemin kullanılmasının operasyonlarda sivil kayıpların önüne geçtiği iddia edilse de sistemin hedef belirleme sürecine insanların müdahale edememesi ve yanlış hedefler belirleme potansiyeli çeşitli riskleri beraberinde getirmektedir. Sistemin kullanılmasının etik yönleri sorgulanmasına karşın, Gospel’in hedef bölgede yer alan sivil sayısına yönelik doğru tahminler yaptığı ve bunun İsrail güçlerine daha temkinli davranmak için imkanlar sunduğu iddia edilmektedir. Ancak günün sonunda sistemi kullanan bir askeri personelin, Gospel’in önerdiği hedeflerin nasıl belirlendiğini bilememesi ve bu hedeflerin doğruluğunu sorgulayacak zamana sahip olamaması muhtemeldir.
Gospel, lokasyon ve altyapıların hedef alınmasına yönelik kullanılırken, ISK tarafından kullanılan yapay zekâ destekli başka bir program olan Lavender ise şüpheli kişiler hakkında bilgilerin saklandığı ve çapraz eşleştirmeye tabi tutulduğu bir veri tabanı görevi yapmaktadır. Biyolojik veriler, fotoğraflar, dijital ayak izi, telefon görüşmeleri gibi verileri toplayıp eşleştirerek doğrudan birey bazlı etiketleme yapan Lavender sisteminin tahminlerinde %10 hata payının mevcut olduğu söylenmektedir. Gospel ve Lavender isimli sistemler birbirlerinin tamamlayıcısı olarak çalışmaktadır. Örneğin Lavender, bir kişiye ait verileri bir havuzda toplayarak işler; Gospel ise bu kişinin yaşadığı veya anlık olarak bulunduğu lokasyonu tespit eder, bu yerlerin ne amaçla kullanıldığına dair ipuçları verir ve belirlenen hedefi kesinliğine göre derecelendirir. Operatör olarak görev yapan askeri yetkiliye ise sadece sistem tarafından önerilen hedefi vurup vurmama konusunda karar vermek kalır. İran’ın dini lideri Ayetullah Hamaney’in İsrail’in saldırıları sonrası yaptığı açıklamalarda ses ve görüntü kaydının yer almaması bu sistemlere karşı alınan önlemlerden biri olarak düşünülebilir. Nitekim Hamaney’in yer altında bir sığınakta korunduğu iddia edilmektedir. Hamaney’in, İsrail’in hedef belirleme sistemlerinden korunmak için tedbir amaçlı olarak çok az kişiyle görüştüğü ve dış dünyayla bağlantısının oldukça sınırlı olduğu da düşünülebilir.
Yapay zekâ ve adil savaş
Yapay zekânın savaş alanında kullanımı, sivil zayiatlar verilmesinin önüne tam olarak geçememektedir. Uluslararası Ceza Mahkemesi (UCM), bir suçun işlendiğini kanıtlarken failin niyetli davranışını esas almaktadır. Sivillerin öldüğü/zarar gördüğü bir askeri operasyonda yapay zekânın kullanılması, bunun devlet veya şahıs tarafından işlenen bir suç olup olmadığıyla ilgili çelişkiler yaratabilir. Çünkü yapay zekanın önerileri, o teknolojiyi kullanan kişilerin niyetinden bağımsız olarak hataya sebebiyet verebilir. Uluslararası hukukta yapay zekânın savaşlarda kullanımına dair boşluk olduğu için bu teknolojinin sorumlular tarafından nasıl kullanılabileceğine dair belirsizlik mevcuttur. Yani Gospel veya Lavender’e benzer bir sisteme sahip olan bir aktörün, bu sisteme hedeflerin vurulmasını insan kararı olmadan onaylama yetkisi vermesi de mümkün olabilir. Yine söz konusu sistemlerle çalışan operatörlerin Gospel sistemi tarafından önerilen hedefleri ne derece sorguladığı da belirsizdir. Örneğin İsrail, operasyonları sırasında hedef olarak belirlediği bir kişiyi gündüz saatlerinde dışarıda bir yerde öldürmek yerine gece evinde uyurken öldürebilir. Bu özellikle İran’daki suikast girişimlerinde gerçekleşen bir durumdur. Bunun sebebi hedefin uyurken hareket etmemesi ve daha savunmasız olması olabilir. Ayrıca hedef gece uyurken çevresindeki sivil kayıpların sayısı daha sınırlı olabilecek ve suikastçilerin gizliliği sağlanabilecektir. Ancak bu durumda dahi sivil kayıpların önlenememesi mümkündür. Bunlar gibi pek çok husus, yapay zekânın savaş alanında kullanımının etik ve hukuki yönleri hakkında soru işaretleri yaratmaktadır. Öte yandan, yalnız İsrail Ordusunda değil, ABD ve Çin gibi ülkelerin silahlı kuvvetlerinde de yapay zekâ destekli sistemler bulunmakta ve yapay zekanın askeri amaçlarla kullanılması için yeni projeler geliştirilmektedir. ABD son olarak DeepSeek’in Çin ordusuna istihbarat sağladığını iddia etmiş, eş zamanlı olarak da Palantir gibi yapay zekâ şirketleriyle yeni ortaklıklar kurmuştur. Buna ek olarak bulut bilişim, blok zincir ve büyük veri gibi teknolojiler de ülkelerin silahlı kuvvetlerinde yapay zekâyla birlikte kullanılmaya başlanmıştır. Dolayısıyla bu teknolojilerin savaş alanındaki kullanımının engellenmesi mümkün olmasa da konuya yönelik yapılacak uluslararası düzenlemeler, askeri operasyonların adil savaş (ahlaki ve hukuki yönden haklı görülen savaş) çerçevesinde devam ettirilmesine olanak tanıyacaktır.
Sonuç
Yapay zekâ destekli sistemlerin savaş alanındaki rolü her geçen gün artmakta, İsrail’e ait Gospel ve Lavender gibi sistemler bu dönüşümün çarpıcı örneklerini sunmaktadır. İsrail ordusu tarafından özellikle Gazze ve İran’da hedef tanıma ve lokasyon belirleme amacıyla kullanılan bu sistemler IDF’e operasyonel verimlilik anlamında ciddi katkılar sağlamaktadır. Ancak söz konusu teknoloji vesilesi ile hedefleme süreçlerinde insan karar alma mekanizmalarının geri plana atılma potansiyeli ciddi etik ve hukuki kaygılara yol açmaktadır. Yapay zekânın karar alma üzerindeki etkisi nedeniyle sivil kayıpların yaşanması halinde sorumluların belirlenmesinde yaşanabilecek zorluklar, uluslararası hukukta konuya dair bir boşluğun olduğunu gözler önüne sermektedir. Blok zincir, bulut bilişim ve büyük veri gibi teknolojilerin savaş alanlarında yapay zekâya eşlik etmesi ve siber saldırıların düşmanlar arasında karşılıklı misilleme olarak kullanılması da uluslararası toplumun, yapay zekâ başta olmak üzere yeni teknolojilerin savaş alanındaki kullanımına yönelik ortak ilkeler ve bağlayıcı düzenlemeler oluşturması gerektiğinin önemini göstermektedir.
Dr. Polat Üründül
Polat Üründül, Bilkent Üniversitesi İngiliz Dili ve Edebiyatı bölümünden mezun olduktan sonra yüksek lisansını Uluslararası İlişkiler ve Avrupa Çalışmaları üzerine University of Portsmouth’ta tamamlamıştır. Doktora derecesini Orta Doğu Teknik Üniversitesi’nde (ODTÜ) Uluslararası İlişkiler alanında almıştır. Akademik ilgi alanları arasında Türk-İngiliz İlişkileri, Güvenlik Çalışmaları ve İngiliz Dış Politikası bulunan Üründül, doktora çalışmaları sırasında London School of Economics and Political Science’ta (LSE) misafir doktora öğrencisi olarak bulunmuştur. Siyaset Araştırma Merkezi (SİYASAM) Yönetim Kurulu Üyesidir.
[1] NOT: Bu makale önce İngilizce olarak yazılmış olup, https://politikaakademisi.org/2025/06/20/the-algorithmic-battlefield-the-case-of-israel/ adresinde yayınlanmıştır. Şu an okumakta olduğunuz versiyonu Türkçe dilinde olup, yeni kaynaklar verilerek yeni bilgiler eklenmiştir.