ABD Savunma İleri Araştırma Projeleri Ajansı (DARPA), iki askeri komutanın bir karar üzerinde anlaşamadığı durumlarda karmaşık kararlar alabilen yapay zeka algoritmaları geliştirecek. Geçen ay başlatılan DARPA’nın In the Moment (ITM) programı, ABD Savunma Bakanlığının (DoD) kritik operasyonları için durumu değerlendirmeyi ve güvenilir algoritmik kararlar oluşturmayı amaçlıyor[1].
Bu tür bir teknolojinin, savaş, terör saldırıları ve afetler gibi toplu yaralanma olaylarında kimin hayatta kalabileceğini tespit için de yararlı olabileceği kaydediliyor.
IMT program yöneticisi Matt Turek’e göre, programın yapay zekaya yönelik geliştirme yaklaşımı, doğru sonuçlar için insan mutabakatı gerektirmemesi bakımından farklı. Bu, karar vermenin zor olduğu durumlarda, nesnel temelli gerçek verileri oluşturmak için geleneksel yapay zeka değerlendirme tekniklerinin kullanılmasını engellediği gibi durumlarda kullanılacak.
Gerçekçi ve zorlu karar verme senaryolarında, teknolojinin geliştirilmesinde yanıtların haritalandırılması ve bunların insan karar vericilerle karşılaştırılması şeklinde bir yol izleneceği belirtiliyor. Bu tür bir teknoloji, insan önyargılarını ortadan kaldırmanın hayat kurtarabileceği varsayımına dayanarak, algoritmalar ve veriler kullanarak stresli durumlarda hızlı kararlar verebilecek.
ITM programı, askeri karar vericilere iki durumda yardımcı olacak algoritmalar oluşturmayı ve değerlendirmeyi amaçlıyor.
- Özel Harekat Kuvvetleri tarafından meydana gelenler gibi küçük birim yaralanmaları
- Terör saldırıları veya doğal afetler gibi toplu zayiat olayları için.
Programın dört teknik alanı var.
- Zor alanlardaki kilit karar verici niteliklerini belirleyen ve nicelleştiren karar verici karakterizasyon teknikleri geliştirmek,
- Bir insan karar verici ile bir algoritma arasında, son kullanıcı güvenini öngören yollarla nicel bir uyum puanı oluşturmak,
- Program değerlendirmesinin tasarlanması ve yürütülmesi,
- Politika ve uygulama entegrasyonu
Programa yasal, ahlaki ve etik uzmanlık sağlamak; gelecekteki Savunma Bakanlığı politikasının ve operasyon kavramlarının (CONOPS) geliştirilmesini desteklemek; bir etik operasyon sürecinin (DevEthOps) gelişimini denetlemek; ve daha geniş politika topluluğuna erişim etkinlikleri yürütmek.
Programın özel sektör işbirliğiyle üç buçuk yıl sürmesi bekleniyor, ancak bütçe rakamları açıklanmadı.
Kim Yaşayacak, Kim Ölecek?
Kriz ortamında veri toplamak, bilgiyi işlemek ve karar vermek son derece zor. Bu durumlarda, yapay zeka potansiyel olarak insan sınırlamalarının üstesinden gelebilir, ancak aynı zamanda insan özerkliğini, failliğini ve yeteneklerini azaltırken etik sorunlar da ortaya çıkarabilir.
Bununla birlikte, bu sorunların en göze çarpanlarından biri, bu tür teknolojilerin kullanımının, bir toplu zayiat olayında kimin yaşayıp kimin öleceğine karar vermesine bir makinenin sahip olmasıyla eş anlamlı olabilmesidir. Böyle bir ikilem, belirli insan tercihlerini yansıtabilen eğitim verilerinden elde edilen AI yanlılığı ile daha da kötüleşebilir.
Yapay zekanın kullanımı aynı zamanda bu önyargılara bilimsel güvenilirlik kazandırarak, tahminlerinin veya yargılarının nesnel bir statüye sahipmiş gibi görünmesini sağlar, aslında sadece üreticisinin tasarım parametrelerine göre hareket eder.
Yapay zekanın giderek daha fazla konuşlandırıldığı ölüm kalım durumları göz önüne alındığında, bu rahatsız edici bir olasılık olabilir. Ayrıca, önyargılı yapay zeka eğitim verilerine dayanarak bazı askerlere diğerlerinden daha fazla öncelik verilip verilmeyeceği konusunda soruları gündeme getiriyor.
Bu tür yapay zeka, karar vermede, mahremiyet ve gözetim endişelerini açarken bireyler hakkındaki gizli bilgilere muhtemelen erişebilir. Aynı zamanda, savaşın ortasında görevlendirilen komutanların ve askerlerin yapay zekanın tavsiyelerine uyup uymayacağı da belli değil.
Ayrıca, özellikle kararları yaralanmalara veya ölümlere yol açtığında, yapay zeka ile ilgili potansiyel hesap verebilirlik ikilemi vardır. Bu sorunlar, insani değerlerin, ahlakın ve etiğin yapay zekaya sabit kodlanmış olmaması gerçeğinden kaynaklanmaktadır.
Yapay Zeka Duygusallaşmaz
Bununla birlikte, yapay zeka, kilit karar vericilerin yerine geçmek yerine askeri kuruluşlar tarafından kullanılan değer sistemlerini netleştirmek ve güçlendirmek için kullanılabilir .
Yapay zeka askeri karar verme teorik çerçevelerini algoritmalarıyla güçlendirebilir ve ayrımcı bir olumsuz önyargı yerine olumlu bir önyargı etkisi sağlayabilir. Bunu yapmak için, askeri liderler, yapay zekaya kendi değerleriyle tutarlı bir veri seti sağlamak için kararlarının ahlaki temelini sürekli olarak yeniden değerlendirmek zorunda kalacaklardı.
Diğer yandan yapay zeka savaşın sıcağında duygusallaşmıyor. Stres, yorgunluk ve kötü beslenmeden etkilenmez. Bu nedenle, fiziksel ve duygusal faktörler nedeniyle insan yargısı bozulduğunda yapay zeka ahlaki bir danışman olarak kullanılabilir.
Diğer yandan yapay zeka bilgileri daha hızlı ve insanların yapabileceğinden çok daha büyük bir ölçekte toplayabilir, işleyebilir ve yayabilir. Yapay zeka, sonraki kararların öngörülemeyen etkileri olabilecek, yardımsız insan bilişi için çok sayıda veya karmaşık olabilecek değişkenleri keşfedebilir veya ortaya çıkarabilir.
Son olarak, yapay zeka etik kararlar almak için gereken süreyi uzatabilir. ITM projesi bağlamında yapay zeka, bireysel vakaları gerçek zamanlı olarak daha büyük operasyonel ve stratejik bir resimle ilişkilendirerek tıbbi bakım uygulamasını optimize edebilir, kaynakların tahsisini ve dağıtımını geleneksel triyaj yöntemlerinden çok daha hızlı optimize edebilir.
Bu avantajlara rağmen, belki de hiçbir yapay zeka sistemi insan kararlılığı, birinci elden durumsal farkındalık ve genel hayatta kalma içgüdüsüyle boy ölçüşemez.
[1] Developing Algorithms that Make Decisions Aligned with Human Experts