Yapay zeka destekli sahte makaleler, bilimsel dünyada hızla yayılıyor ve akademik güvenilirlik için ciddi bir tehdit oluşturuyor. İsveçli araştırmacılar, bu tehlikenin boyutlarını gözler önüne seriyor.
İsveçli araştırmacıların yaptığı bir çalışma, ChatGPT gibi yapay zeka araçlarıyla üretilen sahte araştırma makalelerinin hızla yayıldığını ve bunun bilimsel topluluk ile toplum için ciddi bir tehdit oluşturduğunu ortaya koyuyor.
Bu sahte makaleler, gerçek bilimsel çalışmaları taklit ederek Google Scholar gibi akademik platformlara sızıyor ve güvenilir araştırmaların yanında listeleniyor. Harvard Kennedy School Misinformation Review dergisinde yayımlanan bu çalışma, bu durumun bilimsel güvenilirlik ve toplumsal bilgi üzerindeki etkilerine dikkat çekiyor.
Üretken yapay zeka araçları, özellikle ChatGPT, gerçek akademik çalışmaların biçim ve üslubunu taklit eden metinler üretiyor. Bu metinler genellikle sağlık, çevresel zorluklar ve teknoloji gibi politik ve toplumsal açıdan hassas konulara odaklanıyor. İlk bakışta güvenilir görünen bu sahte makaleler, akademik ekosisteme hızla dahil oluyor ve tespit edilmeleri zorlaşıyor.
İsveç’te gerçekleştirilen bir araştırmada, Google Scholar üzerinde incelenen makaleler, özellikle ChatGPT gibi yapay zeka araçlarının sıkça kullandığı ifadelerden yola çıkılarak seçildi. Bu makalelerin metin yapısı, kaynakları ve bağlamı detaylı analiz edilerek yapay zeka kullanımı izleri arandı. Bulunan 227 makale arasından 139 yapay zeka ürünü makale tespit edildi. İncelenen makalelerin çoğu, endekslenmemiş dergilerde (89 makale) yayımlanmıştı. Diğerleri öğrenci ödevleri veya ön baskı platformlarında yayımlanırken, bazıları Scopus ve Web of Science gibi güvenilir veritabanlarında endekslenmiş dergilerde bile yer almayı başardı. Sahte makaleler genellikle bilişim, çevre ve sağlık gibi kamu politikalarını ve toplumsal kararları etkileyebilecek hassas alanlara odaklanarak kötü niyetli manipülasyonlara açık bir tehdit olarak değerlendirildi.
Araştırmacılar bu sorunun yalnızca makalelerin yayımlanmasıyla sınırlı olmadığı vurguluyor. Google Scholar gibi platformlarda yer aldıktan sonra, bu makaleler hızla ResearchGate, ORCiD, X ve benzeri platformlara yayılarak erişilebilir hale geliyor. Bu durum, sahte içeriklerin izini sürmeyi ve tamamen kaldırmayı neredeyse imkansız hale getiriyor. Hatta bir makale geri çekilmiş olsa bile, kopyaları çevrimiçi kalmaya devam ediyor ve etkisini sürdürüyor. Örneğin, çalışmada sağlıkla ilgili makalelerin 46 farklı alanda yayıldığı, çevre konulu makalelerin ise 56 farklı alanda yer aldığı tespit edildi. Bu geniş ve kontrolsüz yayılım, bu sahte çalışmaların görünürlüğünü ve kalıcılığını artırıyor.
Kanıt manipülasyonu riski büyüyor
Çalışmanın en önemli bulgularından biri, “kanıt manipülasyonu” adı verilen bir kavram. Bu, kamuoyu ve politika kararlarını manipüle etmek amacıyla sahte araştırmaların kasıtlı olarak oluşturulup yayılması anlamına geliyor. Örneğin, iklim değişikliğiyle ilgili sahte bir araştırma, bilimsel fikir birliğini sorgulamak veya yanlış anlatıları teşvik etmek için kullanılabililiyor.
Yapay zeka tarafından üretilen makalelerin artışı, zaten zorlanan hakemlik sistemine ek bir yük getiriyor. Hakemlerin her zaman bu tür sahte içerikleri tespit edecek araçlara veya uzmanlığa sahip olmaması, bu tür makalelerin yayınlanma şansını artırıyor. Araştırmacılar en büyük tehlikenin, bilime olan güvenin zedelenmesi olduğunu söylüyor. Google Scholar gibi platformlar, kullanıcılar tarafından güvenilir bir kaynak olarak görülse de, kalite kontrol eksikliği nedeniyle sahte makalelerle gerçek çalışmaların aynı platformda listelenmesine neden oluyor. Bu durum, özellikle öğrenciler, politikacılar ve profesyoneller için güvenilir bilgiyi bulmayı zorlaştırıyor.
İsveç Kütüphanecilik ve Bilgi Bilimi Okulu’ndan Profesör Jutta Haider, bu sorunun bilgi okuryazarlığı üzerindeki etkisine dikkat çekerek, “Okuduğumuz araştırmanın gerçek olduğuna güvenemiyorsak, yanlış bilgilere dayalı kararlar alma riskimiz var. Ancak bu bilimsel suistimal meselesi olduğu kadar, medya ve bilgi okuryazarlığı meselesidir.” diyor.
Bilimsel güvenilirlik i̇çin yol haritası
Araştırmacılar, bu sorunu çözmek için bir bazı öneriler sunuyor. Bunlar arasında Google Scholar gibi platformların, kullanıcıların hakem değerlendirmesinden geçmiş içerikleri filtreleyebilmelerini sağlayacak araçlar geliştirmesi yer alıyor. Ayrıca, içeriklerin kalitesini ve güvenilirliğini açıkça gösterecek şeffaflık politikaları uygulanması gerektiği vurgulanıyor.
Akademik yayıncıların, sahte içerikleri tespit etmek için yapay zeka tespit araçlarına entegre olmaları tavsiye ediliyor. Araştırmacıların önerilerine göre hakemlerin bu tür içerikleri fark edebilmesi için özel eğitim programları düzenlenmesi gerekiyor. Ayrıca, kar amacı gütmeyen, kalite kontrolüne öncelik veren alternatif bir akademik arama motoru geliştirilmesini öneriyor. Böyle platformların, güvenilirliğe dayalı bir bilimsel bilgi ekosistemi yaratabiliceğine inanılıyor. Özellikle politikacılar, gazeteciler ve halk için bilgi kaynaklarının değerlendirilmesi üzerine eğitim kampanyaları düzenlenmesi öneriliyor.
Bu durum yalnızca akademik dünyayı değil, toplumu da etkileyerek, kritik kararların yanlış bilgilere dayanarak alınmasına yol açabilir. Teknolojinin hızla geliştiği bir çağda, bilimsel iletişimin bütünlüğünü korumak için sistematik değişimlere ihtiyaç duyuluyor. Akademisyenler, teknoloji sağlayıcılar ve yöneticiler arasında iş birliği sağlanmazsa, doğru bilgi ile sahte bilgi arasındaki çizgi bulanıklaşabilir ve bu durumun sonuçları, akademik dünyanın çok ötesine uzanabilir.
Kaynak: Harvard Kennedy School Misinformation Review, Phys.org