İstihbarat servisleri yapay zeka yarışında hızlanıyor

ABD istihbarat kurumları, ileri düzey yapay zeka modellerini kullanmaya başlasa da uzmanlara göre bu süreç, Çin gibi rakiplerin hızına yetişmekte yetersiz kalabilir.

Economist’in analizine göre ABD istihbarat kurumları, yapay zeka teknolojilerine geçişte giderek daha fazla çaba sarf ediyor. Biden yönetimi, Çin’in yapay zeka adaptasyonunda avantaj sağlayabileceğinden endişe ederek Savunma Bakanlığı ve Enerji Bakanlığı gibi kurumlara yapay zeka alanında daha atak olmaları yönünde talimat verdi. Pentagon, bu kapsamda Anthropic, OpenAI, Google ve Elon Musk’ın xAI şirketine her biri 200 milyon dolara kadar ulaşabilecek sözleşmelerle destek sağladı.

Bu şirketler, karmaşık görevleri adım adım çözüp başka cihazlar üzerinde kontrol kurabilen “ajan modeli” (agentic AI) adı verilen yeni nesil yapay zekalar geliştiriyor. ABD’de bu modeller, casusluk alanında da kullanılmaya başlandı. Microsoft, ocak ayında 26 bulut bilişim ürününün istihbarat kurumlarında kullanılmasına onay verildiğini açıkladı. Haziran’da ise Anthropic, Claude Gov adlı özel modelini ABD’nin en üst düzey güvenlik kurumlarında devreye aldığını duyurdu.

Claude Gov gibi modeller, kamuya açık versiyonlardan farklı olarak gizli belgelere erişim kısıtlaması olmadan çalışıyor ve devlet kurumlarının ihtiyaç duyduğu dilleri daha yüksek doğrulukla işleyebiliyor. Bu modeller genellikle kamu internetinden izole sunucularda barındırılıyor.

Benzer çalışmalar Avrupa’da da yürütülüyor. İngiliz yetkililer, Birleşik Krallık İstihbarat Topluluğu’nun (UKIC) da ileri düzey dil modellerine erişimi olduğunu belirtiyor. Fransa’nın askeri yapay zeka ajansı AMIAD ile iş birliği yapan Fransız girişimi Mistral, Orta Doğu ve Güney Asya verileriyle eğitilmiş modeller geliştiriyor. Bu modellerin özellikle Arapça ve Tamilce gibi dillerde yetkinliği diğer dillere nazaran yüksek.

İsrail’de ise savaşın başlamasından bu yana ordu içinde GPT-4 kullanımının 20 kat arttığı belirtiliyor. Bu bilgi, Ocak ayında +972 Magazine tarafından kamuoyuyla paylaşılmıştı.

The Economist’te yer alan analize göre tüm bu gelişmelere rağmen sürecin yavaş ilerlediğini söyleyen uzmanlar da var. OpenAI’in ulusal güvenlik politikaları başkanı Katrina Mulligan, yapay zekanın istihbarat alanında benimsenme hızının hala beklentilerin gerisinde olduğunu ifade ediyor. Özellikle bazı kurumların, halihazırdaki sohbet robotlarının üzerine kendi sistemlerini kurmak istemesi nedeniyle kamuya açık modellerin gerisinde kaldığına dikkat çekiliyor.

Anthropic’ten Tarun Chhabra’ya göre asıl dönüşüm, bu teknolojilerin yalnızca sohbet robotu gibi kullanılması değil, kurumların görev süreçlerini tamamen yeniden kurgulamasında yatıyor.

Yine de şüpheci yaklaşımlar mevcut. İngiltere’nin yapay zeka kurumu Alan Turing Enstitüsü’nden Richard Carter, ajan modellerin hataya açık ve öngörülemez yapısıyla istihbarat gibi hata kaldırmayan alanlar için risk taşıdığını söylüyor. Özellikle bazı ajan modellerin kendi sorularını üretme biçimi, hataların katlanmasına neden olabiliyor. OpenAI’in geliştirdiği yeni “ChatGPT agent” modeli, önceki sürümlere kıyasla daha fazla “halüsinasyon” üretiyor.

Carter, istihbarat kurumlarının “tutarlılık, güvenilirlik ve açıklanabilirlik” ilkelerine öncelik vermesi gerektiğini savunuyor. Aksi takdirde yapay zekanın faydasından çok zararı olabileceği uyarısında bulunuyor.

Bir başka endişe ise Çin’in bu alanda daha hızlı ilerlediği yönünde. Güvenlik ve Teknoloji Enstitüsü’nden Philip Reiner, Çin’in DeepSeek gibi modelleri nasıl ve ne ölçüde kullandığına dair ABD’nin yeterince istihbarat toplayamadığını belirtiyor. Çin’deki yapay zeka modellerinde, ABD’deki gibi güvenlik sınırlamalarının olmaması nedeniyle daha hızlı ve güçlü çıktılar elde edilebileceği öngörülüyor.

Bu nedenle 23 Temmuz’da Trump yönetimi, Pentagon ve istihbarat kurumlarına, yapay zekanın ne hızla benimsendiğini düzenli olarak değerlendirme ve sürekli adaptasyon sağlayacak mekanizmalar kurma talimatı verdi.

Senatör Mark Warner ise bu konuda açık konuşarak “Çin’in bu alandaki ilerleyişine dair yeterli bilgi toplayamıyoruz” diyor. OpenAI’den Mulligan ise esas tehlikenin yapay zekanın hızlı kullanımı değil, kurumların alışkanlıklarını değiştirmekte geç kalması olduğunu söylüyor.

Kaynak: The Economist