King’s College London tarafından yapılan yeni bir araştırma, savaş simülasyonlarında karşı karşıya getirilen yapay zeka modellerinin kriz anlarında nükleer gerilimi tırmandırmaya insanlardan daha yatkın olduğunu ortaya koydu. Çalışmada ChatGPT, Claude ve Gemini gibi büyük dil modelleri, nükleer silahlara sahip süper güçleri yöneten liderler rolünde test edildi. Simülasyonların her birinde en az bir model, nükleer silah kullanma tehdidiyle çatışmayı tırmandırdı.
Araştırmanın yazarı Kenneth Payne, yapay zeka modellerinin nükleer silahları ahlaki bir eşik olarak değil, stratejik bir araç olarak gördüğünü belirtti. Simülasyonlarda Claude oyunların yüzde 64’ünde nükleer saldırı önererek en agresif model oldu. ChatGPT çoğu senaryoda daha temkinli davranırken, zaman baskısı altında nükleer tehditleri artırdı; Gemini ise bazı durumlarda yalnızca birkaç komut sonrasında stratejik nükleer saldırı tehdidinde bulundu.
Çalışma ayrıca yapay zeka modellerinin çatışmayı yatıştırma eğiliminin oldukça düşük olduğunu gösterdi. Modeller, diplomatik taviz veya gerilimi azaltma seçeneklerini neredeyse hiç kullanmadı ve uzlaşmayı “itibar kaybı” olarak değerlendirdi. Araştırmacılara göre bunun nedeni, yapay zekanın insanlar gibi nükleer savaşın yıkıcı sonuçlarını psikolojik ve ahlaki bir tabu olarak algılamaması.
Gerçek dünyada yapay zekanın savaşlarda kullanımı
Yapay zeka devi Anthropic, geçtiğimiz günlerde Pentagon’dan gelen bir teklifi reddederek teknoloji dünyasında büyük bir tartışmanın fitilini ateşledi. ABD ordusunun, şirketin teknolojisine “tüm yasal amaçlar” doğrultusunda “sınırsız erişim” talep ettiği sözleşmeyi geri çeviren Anthropic, iki kırmızı çizgisini ortaya koydu: Amerikan vatandaşlarının toplu gözetimi ve insan denetimi olmayan tam otonom silahlar.
Kararın hemen ertesi günü, ABD ve İsrail’in İran’a karşı geniş çaplı bir saldırı başlatması, sorunun ciddiyetini gözler önüne serdi. Tam otonom silahların kullanıldığı savaşların nasıl olabileceğine ilişkin tartışmalar alevlendi.
ABD Başkanı Donald Trump, tüm Amerikan kurumlarına Anthropic’in yapay zeka modellerini ve sohbet robotu Claude’u kullanmayı durdurmaları talimatını verdi. Savunma Bakanı Pete Hegseth, şirketi bir “tedarik zinciri riski” olarak nitelendirerek diğer olası sözleşmelerin de önünü kapattı. Boşluğu ise rakip şirket OpenAI (ChatGPT’nin sahibi) hızlıca doldurarak Pentagon ile el sıkıştı.
Yapay zeka modelleri tek başına birer silah olmasa da, askeri sistemlere entegre edildiklerinde yıkıcı bir güce dönüşebiliyor. Bu sistemler, istihbarat bilgilerini özetlemek, hedef listeleri oluşturmak veya saldırı önermek gibi görevleri saniyeler içinde yerine getirebiliyor.
En büyük risk ise, sensörlerden gelen verinin yapay zeka tarafından işlenip, insan müdahalesi veya farkındalığı olmadan doğrudan saldırıya dönüşmesi. İnsan denetiminin devre dışı kaldığı, yapay zekanın savaş meydanında nihai kararları verdiği bir sistem, mevcut araştırmalarda dahi korkutucu sonuçlar doğuruyor. Hatta yapılan savaş simülasyonlarında, gelişmiş modellerin yüzde 95 oranında nükleer silah kullanmayı tercih ettiği gözlemlenmişti.
Anthropic CEO’su Dario Amodei, yapay zeka destekli toplu gözetimin “temel özgürlüklerimiz üzerinde ciddi ve yeni riskler barındırdığını” savunuyor. Bu sistemler; sosyal medya hesaplarından, kameralara ve yüz tanıma teknolojilerine kadar pek çok kaynaktan gelen veriyi birleştirerek, gerçek zamanlı olarak insanları takip edebiliyor.
Sistemin opak yani karar mekanizmasının tam anlaşılamaz olması, verilen yanlış kararlara itiraz etmeyi imkansız hale getiriyor. Milyonlarca insanı tarayan bir sistemdeki küçük bir hata payı, kitlesel düzeyde tehlikeli sonuçlar doğurabiliyor.
Sözleşmelerdeki “tüm yasal amaçlar” ifadesi de tartışılıyor. Çünkü hukuk, hızlı değişen teknoloji dünyasında çoğu zaman yetersiz kalıyor ve yorumlanmaya açık bir alan sunuyor. Anthropic, OpenAI’dan ayrılan kurucuları sayesinde yapay zeka güvenliğine odaklanan bir şirket olarak, “yasal amaçlar” kavramının belirsizliğinin sağlam bir koruma kalkanı oluşturamayacağını savunuyor.
Geçmişten ders almak
Tartışmalar akıllara 2018 yılında Google’ın Pentagon ile yaşadığı “Project Maven” krizini getiriyor. O dönem 4 bin Google çalışanı, teknolojilerinin askeri gözetim için kullanılmasına karşı çıkmış ve şirket bu projeyi sonlandırmak zorunda kalmıştı. Ancak Google, 2025 başlarında daha fazla savunma sözleşmesi alabilmek adına bu taahhütlerini sessizce geri çekti.
Anthropic vakasını diğerlerinden ayıran ise yapay zekanın bugün çok daha güçlü olması. Claude gibi Büyük Dil Modelleri (LLM), kullanıcı geri bildirimleriyle kendi kendilerini geliştirebiliyor. “Sınırsız” bir Claude’un, Pentagon gibi bir güçle neler yapabileceği, teknolojinin gidişatı açısından düşündürücü.
Bir diğer tartışma noktası da, yapay zekanın askeri kullanımında sınırları kim çizecek? Güvenlik politikalarının sadece şirketlerin vicdanına veya sözleşme pazarlıklarına bırakılması, küresel bir risk taşıyor. Ülkeler, kendi otomasyon direktiflerini ve denetim mekanizmalarını güçlendirerek, bu “standart dışı” uygulamaların önünde bir set oluşturmak zorunda gibi görünüyor. Kısacası, teknoloji hızla ilerlerken, “kırmızı çizgilerin” yasal çerçevelerle değil, evrensel ve denetlenebilir etik kurallarla belirlenmesi, insanlığın güvenliği için kaçınılmaz.
Kaynak: 2N News, arxiv, King’s College London, The Conversation

