ABD Savunma Bakanlığı (Pentagon), yapay zeka teknolojisinin askeri strateji ve operasyonlarda devrim yaratacak şekilde kullanılmasının yollarını araştırıyor. Pentagon’un Dijital ve Yapay Zeka Sorumlusu Dr. Radha Plumb’un son açıklamalarına göre, yapay zeka “öldürme zinciri” olarak adlandırılan tehdit tanımlama, izleme ve müdahale sürecinde hız ve etkinliği artırıyor. Ancak bu kullanım, hem etik hem de teknolojik sınırların zorlandığı yeni bir tartışmayı da beraberinde getiriyor.
Öldürme Zinciri ve Yapay Zeka
“Öldürme zinciri” terimi, bir tehdidin tanımlanmasından etkisiz hale getirilmesine kadar geçen süreci ifade ediyor. Bu süreç, radarlar, sensörler, analiz araçları ve silah sistemleri gibi bir dizi teknolojik bileşeni içeriyor. Yapay zeka, özellikle planlama ve strateji oluşturma aşamalarında komutanlara daha hızlı ve doğru karar alma fırsatı sunuyor.
Dr. Plumb, yapay zeka araçlarının, komutanların doğru zamanda müdahale etmesini kolaylaştırdığını belirtti:
“Komutanlarımızın güçlerimizi korumak için doğru zamanda yanıt verebilmeleri amacıyla, öldürme zincirinin yürütülmesini hızlandırmanın yollarını açıkça artırıyoruz.”
Ancak bu açıklama, yapay zeka teknolojilerinin askeri uygulamalarda etik sınırlarını da gündeme getiriyor. Pentagon, insan hayatına zarar verme potansiyeli taşıyan tam otonom sistemler kullanmadığını ısrarla vurgulasa da, teknolojinin bu doğrultuda ilerlemesi bazı kaygıları artırıyor.
Silikon Vadisi ve Pentagon İş Birliği
Yapay zeka geliştiricileri OpenAI, Anthropic, Meta ve Cohere gibi şirketler, Pentagon ile ortaklıklarını son yıllarda artırdı. Bu iş birliği, üretken yapay zekanın savunma sanayinde kullanılmasını hızlandırırken, şirketlerin kullanım politikaları nedeniyle belirli sınırlamalarla karşılaşıyor.
Örneğin, Anthropic’in politikası, modellerinin insan hayatına zarar verme potansiyeli taşıyan sistemlerde kullanılmasını yasaklıyor. Ancak bu tür sınırlamalar, Pentagon’un yapay zeka kullanım alanlarını genişletme isteğiyle çatışıyor. Meta, Lockheed Martin gibi savunma sanayii devleriyle Llama modellerini paylaşırken, OpenAI de Anduril ile ortaklık kurdu.
Anthropic CEO’su Dario Amodei, bu tür iş birliklerinin kaçınılmaz olduğunu şu sözlerle savundu:
“Savunma ve istihbarat ortamlarında asla yapay zeka kullanmamamız gerektiği görüşü bana mantıklı gelmiyor. Ancak, yapay zekayı her alanda serbest bırakmamız gerektiği görüşü de aynı derecede çılgınca.”
Etik ve Güvenlik Kaygıları
Pentagon, yapay zeka sistemlerini yalnızca insanlar ve makineler arasında bir iş birliği mekanizması olarak kullandığını belirtiyor. Dr. Plumb, tam otonom silah sistemlerinin devrede olmadığını vurgularken, bu tür teknolojilerin karar alma süreçlerinde yalnızca destekleyici bir rol oynadığını ifade etti:
“İnsanlar genellikle bilim kurgu filmlerindeki gibi tamamen bağımsız çalışan robotlar hayal ediyor, ancak gerçeklik böyle değil. Kararlar insanlar tarafından alınıyor ve yapay zeka, yalnızca bu kararları daha bilinçli bir şekilde vermemize yardımcı oluyor.”
Buna karşın, yapay zeka destekli sistemlerin savaş sahasında daha fazla rol oynaması, çalışanlar ve kamuoyu arasında etik kaygıları artırıyor. Geçmişte Google ve Amazon çalışanları, askeri iş birliklerine karşı protestolar düzenlemiş ve bu durum, teknoloji sektöründe ciddi tartışmalara yol açmıştı.
Geleceğe Dair Beklentiler
Pentagon’un yapay zeka sistemlerini askeri stratejiye entegre etmesi, daha etkin bir savunma yapısı oluşturmayı amaçlarken, etik ve yasal sınırların belirlenmesi konusunda ciddi bir sorumluluk gerektiriyor. Yapay zeka uzmanı Evan Hubinger, bu teknolojilerin kaçınılmaz olarak askeri alanlarda kullanılacağını, ancak sorumlu kullanımın kritik olduğunu ifade ediyor:
“ABD hükümetinin yapay zekayı kullanmasını engellemeye çalışmak uygulanabilir bir strateji değil. Ancak kötüye kullanım ihtimalini en aza indirgemek için sıkı düzenlemeler şart.”
Yapay zeka, askeri alanda bir dönüm noktası yaratırken, teknoloji ile etik değerlerin bir arada nasıl yönetileceği konusu hem Silikon Vadisi hem de Pentagon için temel bir zorluk olmaya devam ediyor.