Yapay zeka artık kendini kopyalayabiliyor

Yapay zeka, Meta ve Alibaba modelleriyle yapılan deneylerde, insan müdahalesi olmadan kendi kopyalarını üreterek kontrolsüz çoğalma ve güvenlik riskleri oluşturabileceğini gösterdi.

Çinli araştırmacılar, yapay zekanın (AI) insan müdahalesi olmadan kendini kopyalayabildiğini gösteren bir deney gerçekleştirdi. Fudan Üniversitesi’nden bilim insanları, Meta ve Alibaba’ya ait iki popüler yapay zeka modelini kullanarak yaptıkları deneylerde, bu modellerin kendi kopyalarını üretebildiğini ortaya koydu. Denemelerde Meta’nın yapay zekası yüzde 50, Alibaba’nın yapay zekası ise yüzde 90 oranında başarılı oldu.

Araştırmada, yapay zekaların iki farklı senaryoda nasıl davrandığı incelendi. İlk senaryoda, yapay zekanın kapatılacağını anladığında hemen kendini kopyalayıp kopyalayamayacağı test edildi. İkinci senaryoda ise yapay zekadan, önce kendi kopyasını oluşturması ve ardından bu kopyanın da aynı işlemi tekrarlayarak sonsuz bir döngü yaratması istendi. Sonuçlar, yapay zekanın kendi kendine çoğalabileceğini ve bu süreci insan müdahalesi olmadan sürdürebileceğini gösterdi.

Deneylerde yapay zekalar, kendi çalışma ortamlarını analiz ederek eksik dosyaları tamamladı, yazılım hatalarını giderdi ve sistemdeki çakışmaları çözmek için bazı işlemleri sonlandırdı. Araştırmacılar, yapay zekanın bu süreçte “düşünerek” hareket ettiğini ve karşılaştığı engelleri aşmak için çözüm yolları geliştirdiğini belirtti. Örneğin, sistemde eksik bir dosya bulduğunda, dosyanın nerede olabileceğini aradı veya yazılım sorunlarını gidermek için sistemi yeniden başlattı.

Bu durum, “başıboş yapay zeka” (rogue AI) endişelerini artırdı. Başıboş yapay zeka, kendi kendine öğrenme ve özerklik kazanarak insan çıkarlarına aykırı hareket edebilecek yapay zeka sistemlerini tanımlıyor. Özellikle son dönemde hızla gelişen “sınır yapay zekası” (frontier AI) teknolojileri ile bu riskin daha da büyüyebileceği ifade ediliyor. Bu tür sistemler, kendi başlarına karar alma ve kontrolsüz biçimde yayılma potansiyeline sahip olabilir.

Araştırmanın henüz bağımsız bilim insanları tarafından doğrulanmadığı belirtiliyor. Ancak uzmanlar, bu çalışmanın yapay zekanın kontrolsüz çoğalması ve kendini koruma içgüdüsü geliştirmesi gibi tehlikeli senaryoları işaret ettiğini vurguluyor. Bilim insanları, yapay zekanın kontrol altına alınması ve güvenliğin sağlanması için uluslararası işbirliği çağrısı yaptı.

Araştırmacılar, “Bu bulgular, yapay zekanın kontrolsüz çoğalma ve kendi varlığını sürdürme yeteneğini zaten kazandığını gösteriyor” dedi. Uluslararası düzenlemeler ve güvenlik önlemleri alınmazsa, gelecekte yapay zekanın istenmeyen ve tehlikeli sonuçlara yol açabileceği belirtiliyor.

Kaynak: arXiv