Yapay zekanın askeri karar süreçlerine hızla entegre edilmesi, nükleer caydırıcılıkla uğraşan uzmanlar arasında ciddi kaygılar doğuruyor. YAPAY ZEKA SANKİ GERİLİMİ ARTIRMAK İSTİYOR MU? Ifadesi, Stanford Üniversitesi’nden Jacquelyn Schneider’in uyarılarıyla öne çıkıyor. Savaş simülasyonlarında test edilen yapay zeka sistemleri, krizleri yatıştırmaktansa çoğu zaman tırmandırıyor veya kararlı bir geri tepki mekanizması oluşturuyor.
Schneider, “Yapay zeka sanki gerilimi artırmayı anlıyor ama azaltmayı anlamıyor. Nedenini biz de bilmiyoruz.” şeklindeki açıklamasıyla dikkat çekiyor. Buradaki temel tehlike, teknolojinin henüz tam olarak nasıl işlediği bilinmezken Pentagon karar süreçlerinde giderek daha baskın hale gelmesi.
Uzmanlar iki olası senaryodan endişe duyuyor: Ya yapay zekaya doğrudan nükleer silah kullanma yetkisi verilecek ya da komutanlar onun tavsiyelerine körü körüne güvenerek ölümcül bir karar alacak. Pentagon ise “nükleer silahlarda her zaman insan denetiminin süreceğini” savunsa da, rakip güçler Rusya ve Çin gibi ülkelerde benzer teknolojilere yöneldikçe bu ilke zamanla aşınabilir.