Yaşamın çeşitli alanlarında yapay zeka teknolojilerinin artmasıyla birlikte, kullanımı savaş alanlarına da yayıldı, özellikle asimetrik çatışmalarda cepheler test ve geliştirme amaçlı canlı laboratuvarlara dönüştü.
Popüler Gazete'nin Muhammed Mansur imzalı analizden aktardığına göre bu cephelerin başında, İsrail'in askeri operasyonlarında yapay zeka sistemlerini ileri düzeyde kullandığı Gazze ve Lübnan geliyor.
İsrail ordusunun son aylarda özellikle Gazze Şeridi ve Lübnan'daki askeri operasyonlarını desteklemek için gelişmiş yapay zeka sistemlerine güvenmesi, bu kullanımın etik ve yasal boyutları konusundaki soruları gündeme getirdi.
Bu teknolojilerin geliştirilmesinde önemli bir rol oynayan İstihbarat Birimi 8200, savaş alanından gelen büyük verileri izlemek ve analiz etmek için yapay zeka tabanlı programlar geliştiren teknoloji uzmanlarını içeriyor.
Birim 8200, "The Studio" adlı bir inovasyon merkezi kurarak, yapay zeka projelerinin eşleşme çalışmalarını yürütüyor.
Siber kol
İsrail'in en büyük istihbarat teşkilatı olan Aman'ın siber kolu olan 8200 Birimi, 1952 yılında ABD askeri teçhizatı kullanılarak kuruldu.
Siber casusluk operasyonlarını yönetmek, sinyalleri toplamak, kodları çözmek ve siber savaş yürütmek amacıyla da çok uzun yıllar önce modernize edildi.
Birim, İsrail askeri sanayisinin en son ürünlerine ve ileri teknolojilere dayanıyor ve özel sektör şirketlerinin geniş desteğini alıyor.
Bu önemli birim, İsrail'in Batı Şeria ve Gazze'deki iletişim ağları üzerindeki kontrolünden yararlanarak, günlük milyonlarca iletişimi işleyip istihbarat elde etme kapasitesini geliştirdi.
Telefon ve cep telefonu şebekeleri, İsrail şebekelerine neredeyse tamamen bağlı olduğundan, gizlice dinlemek rutin ve kolay bir iş haline geldi.
Birim ayrıca İran'a karşı siber savaşta da önemli bir rol oynadı ve Tahran'ın nükleer programını sekteye uğratmak amacıyla Stuxnet virüsünü geliştirdi.
Birimin faaliyetleri gözetleme ve dinlemenin ötesine geçerek, Arap ülkelerinin içlerine casusluk cihazları yerleştirmeye kadar uzandı.
Söz konusu birim aynı zamanda, Gazze savaşı sırasında Filistinlileri izlemek için yüz tanıma teknolojisini kullandı.
Bu operasyonlar, suikastleri gerçekleştirmek ve istihbarat toplamakla görevli seçkin Sayeret Matkal birimiyle yakın koordinasyon içinde yürütülüyor.
Bu birimin son dönemde geliştirdiği en önemli projelerden biri, Arapça lehçelerindeki metinleri anlayabilecek kapasitede büyük bir dil modeli oluşturmak oldu.
Bu adım, klasik Arapçaya kıyasla lehçeler konusunda yıllardır var olan veri eksikliğinden dolayı oluşan boşluğu doldurmayı amaçlıyor.
Peki bu model nasıl inşa edildi?
Böylesine büyük bir dil modelinin inşası, klasik Arapça gibi akademik bir belgelendirmeye tabi tutulmamış lehçeler nedeniyle dağınık haldeki çok sayıda günlük konuşma dili verisinin toplanmasıyla muazzam bir çaba gerektiriyor.
Model, metinlerin sosyal medyadan, kullanıcı yorumlarından, teknik senaryolardan ve günlük konuşmalardan çıkarılmasını gerektirdi.
Verilerin toplanması ve temizlenmesinden sonra, çok dilli öğrenme ve gelişmiş dönüşümsel modeller gibi teknikler kullanıldı.
Yüz tanıma sistemi
Birimin kullandığı en dikkat çekici araçlardan biri, insanların bulanık veya kısmi görüntülerini bile analiz edebilen yerleşik yüz tanıma sistemiydi.
Ancak sistemin tüm bu yeteneklerine rağmen zaman zaman hatalar yapması ve yanlış kimlik tespiti yapılan masum Filistinlilerin tutuklanmasına yol açması, savaş koşullarında bu teknolojinin güvenilirliği konusunda soru işaretleri yarattı.
İsrail ordusu, Hizbullah eski Genel Sekreteri Hasan Nasrallah'ın geçen Eylül ayında öldürülmesinin ardından, suikasta karşı bir misilleme olasılığını değerlendirmek için bu sistemlerini kullanarak, Arap halkının sosyal medyadaki duygularını analiz etti.
İsrail ayrıca, yüz tanıma doğruluğundaki zorluklara rağmen, Gazze sınırındaki geçici kontrol noktalarını, modern kameralarla kişileri tanımlayabilen ve şüpheli değişiklikleri tespit edebilen yapay zeka sistemleriyle donattı.
Tüm bu başarılara rağmen bahsi geçen teknolojilerin kusurları yok değil. İsrail istihbarat görevlileri, bazı dil modellerinin ciddi hatalar yaptığını, örneğin su borusu görsellerinin ateşli silah olarak yanlış yorumlandığını veya modern argo ve Arapçalaştırılmış İngilizce terimlerinin anlaşılmadığını kaydetti.
Bunun için algoritmaların sonuçlarının analistler tarafından incelenmesi ve düzeltilmesi gerekiyor.
Ancak yetkililer, bu araçların eksikliklerine rağmen istihbarat analiz sürecini önemli ölçüde hızlandırdığını ve İsrail'e savaş alanında değerli bir zaman avantajı sağladığını vurguladı.
Yaşam ve ölüm kararları
Yapay zekanın askeri operasyonlarda kullanımı meşruiyet ve etik sınırları konusunda karmaşık soruları gündeme getiriyor.
Otomatik sistemlere aşırı güvenerek, tam insan müdahalesi olmaksızın yaşam ve ölüm kararlarının yapay zekaya bırakılmasının savaş yasalarının ciddi şekilde ihlal edilmesine yol açabileceği konusunda gerçek bir korku var.
Günümüzde dünya, yapay zekanın insan yaşamının birçok alanında yarattığı etkiye tanık oluyor.
Son on yılda yüz tanıma yazılımları, otonom araçlar, arama motorları ve çeviri yazılımları gibi yapay zeka teknolojilerinin kullanımında keskin bir artış görüldü.
Bu teknolojilerin benimsenmesi modern toplumların vazgeçilmez bir parçası haline gelirken, modern savaş alanlarındaki kullanımı da arttı.
Yapay zekanın silahlandırılmasının artışıyla birlikte, bazı uzmanlar bu değişimi Soğuk Savaş dönemindeki nükleer silahlanma yarışına benzetiyor. Ancak günümüzde nükleer silahların yerini otomatik silah sistemleri alıyor.
Birleşmiş Milletler ve uluslararası hukuk, bu hızlı değişimlere ayak uydurmada ve bu sistemlerin kullanımına ilişkin düzenleyici bir çerçeve oluşturmada hala zorluk çekiyor.
Çatışmalarda otonom görev yapabilen silahların geliştirilmesi ve kullanımı, devletlerin ve büyük teknoloji şirketlerinin ilgi odağı haline geldi.
Yaşamın Geleceği Enstitüsü (FLI) 2017 yılında Birleşmiş Milletler'e, yapay zeka ve robotik şirketlerinin 126 CEO'su ve kurucusunun imzasını taşıyan açık bir mektup göndererek, hükümetleri otonom silahlara yönelik bir silahlanma yarışını önlemek için acilen harekete geçmeye çağırdı.
Ancak bugüne kadar, yapay zekanın savaşta kullanımını düzenleyen kapsamlı bir uluslararası yasal çerçeve hazırlanmadı.
Otonom silahlar
Otonom silahların neleri kapsadığı konusunda tanımlar farklılık gösteriyor.
İngiliz Savunma Bakanlığı, 2011 yılında bu sistemleri “yüksek niyetleri anlayabilen ve insan anlayışı düzeyinde hedeflere ulaşmak için kararlar alabilen sistemler” olarak tanımladı.
ABD Savunma Bakanlığı ise 2023 yılında daha doğrudan bir tanımı benimseyerek otonom silahı, "bir kez aktive edildiğinde herhangi bir ek insan müdahalesi olmaksızın hedefleri seçip vurabilen" bir silah olarak nitelendirdi.
2012 tarihli İnsan Hakları İzleme Örgütü raporunda da benzer bir tanım yapıldı ve "insan müdahalesi olmadan hedefleri seçip saldırabilen tam otonom silahlar" ifadesi yer aldı.
Otonom silahlara örnek olarak İsrail'in Demir Kubbe ve Almanya'nın Mantis gibi savunma sistemlerinin yanı sıra İsveç'in LEDS-150 gibi aktif savunma araçları da verilebilir.
Ancak asıl zorluk, insan algısını taklit eden ve karmaşık kararlar alabilen yapay zeka sistemleri de dahil olmak üzere, hızlı gelişmelerle uyumlu gelecek tanımları formüle etmekte yatıyor.
Acil ihtiyaca rağmen uluslararası toplum bu silahların düzenlenmesi konusunda henüz bir anlaşmaya varamadı.
BM Konvansiyonel Silahlar Sözleşmesi, bu konuları görüşmek üzere her yıl toplanan Hükümet Uzmanları Grubu'nun gözetiminde değiştirilmiş bir protokolü içeriyor.
Mayıs 2023 toplantısında otonom silahlar üzerinde insan kontrolünün sağlanması çağrısında bulunan bir taslak rapor yer almasına rağmen, bağlayıcı düzenleyici çerçeveler üzerinde anlaşmaya varılamadı.
Taslağı destekleme sözü veren 50 ülke, bunun asgari düzeyde gerekli olduğunu vurgulayarak, daha sıkı ve iddialı yasal standartlar çağrısında bulundu.
Uluslararası çabalar
Rusya Devlet Başkanı Vladimir Putin bu konuda tartışmalı bir açıklama yaparak, "Yapay zekayı kim yönetirse dünyayı da o yönetir" dedi.
Bu çılgın yarışta Çin, yapay zeka alanında küresel liderliğe ulaşmak için 150 milyar dolar ayırırken, Rusya 2021-2023 arasında 181 milyon dolar, ABD ise aynı dönemde 4,6 milyar dolar harcadı.
Önümüzdeki 10 yıl içerisinde dünya çapında 80 binden fazla keşif uçağı ve 2 bine yakın saldırı SİHA'nın satın alınması bekleniyor.
İngiltere ayrıca 2024 yılına kadar Protector insansız hava araçlarına 415 milyon sterlin yatırım yapmayı planladığını duyurdu.
Suudi Arabistan, 2023 bütçesinin %23'üne denk gelen 69 milyar doları savunmaya ayırdı ve yapay zekaya yatırım yapmak için 40 milyar dolarlık bir fon kurmayı planlıyor. Bu da onu bu alanda potansiyel olarak en büyük küresel yatırımcı haline getirecek.
Askeri harcamaların artmasıyla birlikte SİHA'lar, savaşlarda insan müdahalesi olmadan gerçek zamanlı kararlar alabilecek duruma gelebilir ve bu durum barışçıl müzakerelerin yerini acımasız otomatik müdahalelerin almasına neden olabilir.
Teknolojik gelişmelere rağmen, tam otonom silah sistemleri henüz insan denetimi olmadan muharebede kullanılmadı.
Ancak yapay zekanın askeri operasyonlara giderek daha fazla entegre edilmesi, özellikle SİHA'ların siviller ile askerler/savaşçılar arasında ayrım yapma yeteneği konusunda ciddi etik ve hukuki endişeleri gündeme getiriyor.
Şu ana kadar yapay zeka teknolojilerinin çoğu, sınırlı bir kapsamda ve insan gözetimi altında faaliyet gösterdi.
Ancak ilerleme ve gelişmeyle birlikte, makinelerin savaşta ahlaki karmaşıklıkları hiçe sayarak kritik kararlar alması giderek daha olası hale geliyor.