İsrail Savunma Kuvvetlerinin (IDF), geçtiğimiz hafta Gazze’de Hamas’a karşı savaşta hedefleri seçmek için Habsora (İbranice “İncil” anlamına gelen) adlı bir yapay zeka (AI) sistemi kullandığına dair raporlar ortaya çıktı. Sistemin bombalama için daha fazla hedef bulmak, yerleri Hamas görevlileriyle ilişkilendirmek ve muhtemel sivil ölüm sayısını önceden tahmin etmek için kullanıldığı bildiriliyor.
Bunun gibi yapay zeka hedefleme sistemlerinin çatışmalarda kullanılması ne anlama geliyor? Uzak ve otonom sistemlerin askeri kullanımının sosyal, politik ve etik sonuçlarına ilişkin araştırmam, yapay zekanın halihazırda savaşın karakterini değiştirdiğini gösteriyor.
Ordular, birliklerinin etkisini artırmak ve askerlerinin hayatlarını korumak için uzak ve otonom sistemleri “kuvvet çarpanı” olarak kullanıyor. Yapay zeka sistemleri askerleri daha verimli hale getirebilir ve insanlar savaş alanında daha az görünür hale gelse de bunun yerine istihbarat toplayıp uzaktan hedefleme yapsa bile muhtemelen savaşın hızını ve ölümcüllüğünü artıracaktır.
Ordular kendi askerlerini çok az riske atarak istedikleri zaman öldürebildiklerinde, savaşla ilgili mevcut etik düşünce hakim olacak mı? Yoksa yapay zekanın artan kullanımı, düşmanların insanlıktan çıkarılmasını ve savaşlar ile bu savaşların adına yapıldığı toplumlar arasındaki kopukluğu da artıracak mı?
Savaşta yapay zeka
Yapay zeka, IDF’nin Habsora sistemi gibi “istihbarat, gözetleme ve keşif” desteğinden, insan müdahalesi olmadan hedefleri seçip saldırabilen “ölümcül otonom silah sistemlerine” kadar savaşın her düzeyinde etki yaratıyor.
Bu sistemler savaşın karakterini yeniden şekillendirerek çatışmaya girmeyi kolaylaştırma potansiyeline sahiptir. Karmaşık ve dağıtılmış sistemler olduklarından, tırmanan bir çatışma bağlamında kişinin niyetlerini belirtmeyi veya düşmanın niyetlerini yorumlamayı da zorlaştırabilirler.
Bu amaçla yapay zeka, savaş zamanlarında tehlikeli yanlış anlamalar yaratıp güçlendirerek yanlış veya dezenformasyona katkıda bulunabilir.
Yapay zeka sistemleri, insanların makinelerden gelen önerilere güvenme eğilimini artırabilir (bu, adını Tanrı’nın şaşmaz sözünden alan Habsora sistemi tarafından vurgulanır), otonom sistemlere ne kadar güvenileceği konusunda belirsizliğin ortaya çıkmasına neden olabilir. Diğer teknolojilerle ve insanlarla etkileşime giren bir yapay zeka sisteminin sınırları net olmayabilir ve ne kadar nesnel ve rasyonel görünürse görünsün, çıktılarını kimin veya neyin “yazdığını” bilmenin bir yolu olmayabilir.
Yüksek hızlı makine öğrenimi
Belki de yapay zekanın yol açtığını göreceğimiz en temel ve önemli değişikliklerden biri savaşın hızındaki artıştır. Bu , savaştaki istihbarat ve etkileşimin birincil aktörleri ve kaynakları olduğunu varsayan askeri caydırıcılık anlayışımızı değiştirebilir.
Ordular ve askerler karar verme süreçlerini “OODA döngüsü” (gözlemlemek, yönlendirmek, karar vermek, eyleme geçmek için) adı verilen bir çerçeveye oturtuyorlar. Daha hızlı bir OODA döngüsü, düşmanınıza üstünlük sağlamanıza yardımcı olabilir. Amaç, aşırı müzakere yoluyla kararları yavaşlatmaktan kaçınmak ve bunun yerine savaşın artan temposuna uyum sağlamaktır.
Bu nedenle yapay zekanın kullanımı, büyük miktarda veriyi yorumlayıp sentezleyebilmesi, işleyebilmesi ve insan bilişini çok aşan oranlarda çıktılar sunabilmesi temelinde potansiyel olarak haklı görülebilir.
Ancak savaştan güvenli bir mesafede gerçekleşen, giderek daha hızlı ve veri merkezli bir OODA döngü döngüsünde etik müzakere için alan nerede?
İsrail’in hedefleme yazılımı bu ivmenin bir örneğidir. IDF’nin eski bir başkanı, insan istihbarat analistlerinin her yıl Gazze’de 50 bombalama hedefi üretebileceğini, ancak Habsora sisteminin günde 100 hedef üretebildiğini ve hangilerine saldırılacağına dair gerçek zamanlı tavsiyeler verebildiğini söyledi.
Sistem bu hedefleri nasıl üretiyor? Bunu, makine öğrenimi algoritmalarının sunduğu olasılıksal akıl yürütme yoluyla yapar.
Makine öğrenimi algoritmaları veriler aracılığıyla öğrenir. Devasa veri yığınlarında kalıplar arayarak öğrenirler ve başarıları verinin niteliğine ve niceliğine bağlıdır. Olasılıklara dayalı önerilerde bulunurlar.
Olasılıklar kalıp eşleşmesine dayanmaktadır. Eğer bir kişi, düşman savaşçısı olarak etiketlenen diğer insanlarla yeterince benzerliğe sahipse, kendisi de savaşçı olarak etiketlenebilir.
Yapay zekanın uzaktan hedeflemeyi etkinleştirme sorunu
Bazıları, makine öğreniminin hedeflemede daha fazla hassasiyet sağladığını, bunun da masum insanlara zarar vermekten ve orantılı miktarda güç kullanmaktan kaçınmayı kolaylaştırdığını iddia ediyor. Ancak, teröre karşı küresel savaşta beyan edilen ve beyan edilmeyen sivil kayıpların yüksek oranının gösterdiği gibi, hava saldırılarının daha kesin hedeflenmesi fikri geçmişte başarılı olmadı.
Üstelik bir savaşçı ile bir sivil arasındaki fark nadiren apaçık ortadadır. İnsanlar bile çoğu zaman kimin savaşçı olup olmadığını söyleyemez.
Teknoloji bu temel gerçeği değiştirmiyor. Çoğu zaman sosyal kategoriler ve kavramlar nesnel değildir, ancak tartışmalıdır veya zamana ve yere özgüdür. Ancak algoritmalarla birlikte bilgisayarlı görme, kavramların nesnel, makul ölçüde istikrarlı ve kendi içinde tutarlı olduğu öngörülebilir ortamlarda daha etkilidir.
Yapay zeka savaşı daha da kötüleştirecek mi?
Haksız savaşların ve askeri işgallerin, angajman kurallarının korkunç ihlallerinin ve ABD-Çin rekabeti karşısında yeni başlayan bir silahlanma yarışının olduğu bir dönemde yaşıyoruz . Bu bağlamda yapay zekanın savaşa dahil edilmesi, zararı önlemek yerine daha da kötüleştiren yeni karmaşıklıklar ekleyebilir.
Yapay zeka sistemleri, savaştaki aktörlerin anonim kalmasını kolaylaştırır ve şiddetin kaynağını veya ona yol açan kararları görünmez hale getirebilir. Buna karşılık, askerler, askerler ve siviller arasındaki kopukluğun arttığını ve savaşların hizmet ettikleri ulus adına yapıldığını görebiliriz.
Yapay zeka savaşta daha yaygın hale geldikçe, ordular onu baltalamak için karşı önlemler geliştirecek ve artan bir militarizasyon döngüsü yaratacak.
Şimdi ne var?
Savaşların öğrenme algoritmaları tarafından desteklenen teknolojiye olan bağımlılığın artmasıyla yönlendirildiği bir geleceği engellemek için yapay zeka sistemlerini kontrol edebilir miyiz? Yapay zeka gelişimini herhangi bir alanda, özellikle yasa ve düzenlemeler aracılığıyla kontrol etmenin zor olduğu kanıtlandı.
Birçoğu, makine öğrenimi tarafından desteklenen sistemleri açıklamak için daha iyi yasalara ihtiyacımız olduğunu öne sürüyor, ancak bu bile basit değil. Makine öğrenimi algoritmalarının düzenlenmesi zordur.
Yapay zeka destekli silahlar, kesinlik için yasal gerekliliklerden kaçınarak kendilerini programlayabilir ve güncelleyebilir. Mühendislik düsturu olan “yazılım asla yapılmaz” kanunun teknolojik değişimin hızına asla yetişemeyeceğini ima eder.
Habsora sisteminin yaptığı, sivil ölümlerinin olası sayılarını önceden tahmin etmeye yönelik niceliksel eylem, bize hedeflemenin niteliksel boyutları hakkında pek bir şey söylemiyor. Habsora gibi sistemler tek başına bir grevin etik mi yoksa yasal mı olacağı (yani diğer hususların yanı sıra orantılı, ayrımcı ve gerekli mi olduğu) konusunda bize pek bir şey söyleyemez.
Yapay zeka demokratik idealleri desteklemeli, onları baltalamamalı. Yapay zekayı çeşitli askeri uygulamalarda kullanmayı planlıyorsak, hükümetlere, kurumlara ve orduya olan güven aşınıyor ve bu güvenin yeniden sağlanması gerekiyor. Yeni teknolojileri ve bunların etkilerini sorgulamak için eleştirel etik ve politik analizler yapmamız gerekiyor; böylece her türlü askeri şiddet son çare olarak değerlendiriliyor.
O zamana kadar makine öğrenimi algoritmalarının hedefleme uygulamalarından ayrı tutulması en iyisidir. Ne yazık ki dünya orduları ters yöne doğru gidiyor.
Kaynak: Laura Hood / The Conversation
Yapayzeka.news’in hiçbir güncellemesini kaçırmamak için bizi Facebook, Twitter, LinkedIn, Instagram‘ ve Whatsapp Kanalımız‘dan takip edin.