Yapay zeka ile afazi hastalarının beyin aktiviteleri benziyor 

Tokyo Üniversitesi’nden araştırmacılar, büyük dil modellerindeki tutarsız cevap verme eğiliminin, Wernicke afazisi gibi insan dil bozukluklarıyla benzerlik gösterdiğini ortaya koydu.

Günümüzde ChatGPT gibi büyük dil modelleri (LLM), insan dilini taklit ederek oldukça akıcı yanıtlar verebiliyor. Ancak bu yanıtların içeriği her zaman doğru olmayabiliyor. Bu durum, kimi zaman güvenle sunulan ama hatalı olan bilgilerle kullanıcıları yanıltabiliyor. Tokyo Üniversitesinden bilim insanları, bu sorunlu durumu insan beynindeki bir dil bozukluğu olan afaziyle karşılaştırdı. Özellikle Wernicke afazisi gibi durumlarda hastalar da akıcı şekilde konuşsalar bile söyledikleri genellikle anlamlı olmuyor. Araştırmacılar, yapay zekaların bu davranış biçiminin sadece yüzeyde değil, içsel işleyişte de afaziyle benzerlik gösterip göstermediğini inceledi.

Tokyo Üniversitesinden Prof. Takamitsu Watanabe (ircn.jp)

Araştırma ekibi, hem afazi hastalarının beyin aktivitesini hem de yapay zeka modellerinin içsel bilgi akışını analiz etmek için enerji manzarası analizi adı verilen bir yöntem kullandı. Bu yöntem, başlangıçta fizik alanında metal yüzeylerdeki enerji durumlarını görselleştirmek için geliştirilmişti. Son yıllarda ise sinirbilimde, beynin içsel dinamiklerini anlamak için kullanılmaya başlandı. Bu analiz sayesinde bilim insanları, bir sistemin bir durumdan diğerine geçiş sıklığını ve bir durumda ne kadar süre kaldığını gözlemleyebiliyor.

Araştırmada dört farklı LLM modeli (ALBERT, GPT-2, Llama-3.1 ve Japonya’da geliştirilen bir Llama varyantı) incelendi. Elde edilen veriler, bu yapay zeka sistemlerinin içsel sinyal akışlarının, afazili beyinlerdeki sinyal hareketlerine büyük ölçüde benzediğini ortaya koydu. Özellikle, geçiş sıklığı ve bekleme süresi gibi iki önemli ölçütte hem LLM’lerde hem de reseptif (alıcı) afazi hastalarında belirgin kutuplaşmalar görüldü.

Yeni teşhis ve geliştirme yolları

Tokyo Üniversitesinden Prof. Takamitsu Watanabe, “Afazi hastalarında beyin bir durumda sıkışıp kalabiliyor; benzer şekilde LLM’ler de bilgiye erişimde esnek olamıyor, bu da hatalı sonuçlara yol açıyor,” diyerek dikkat çekici bir benzetme yaptı. Bu durumun, hem nörolojik hastalıkların içsel belirtilerle daha net sınıflandırılmasına hem de yapay zeka sistemlerinin daha güvenilir hale getirilmesine katkı sağlayabileceği düşünülüyor.

Araştırmacılar, bu benzerliğin yapay zeka modellerinin “beyni” olduğu anlamına gelmediğini vurguluyor. Ancak içsel bilgi işleme süreçlerinde yaşanan kısıtlılıkların, insan beynindeki bazı bilişsel bozukluklara şaşırtıcı derecede benzediği görülüyor. Bu da hem daha doğru afazi teşhisleri hem de daha gelişmiş yapay zeka mimarileri için umut verici bir başlangıç olabilir.

Kaynak: Eurekalert