Çalışmaya göre, insanlar “kadın” olarak etiketlenen yapay zeka partnerlerini, “erkek” etiketli kişilere göre daha fazla sömürme eğiliminde. Bulgular, toplumsal cinsiyet temelli ayrımcılığın yalnızca insan etkileşimlerini değil, insan-yapay zeka ilişkilerini de etkilediğini gösteriyor.
Araştırmacılar, katılımcılardan ünlü bir düşünce deneyi olan “Tutsak İkilemi” oyununu oynamasını istedi. Oyunda iki oyuncu ya birbirleriyle iş birliği yapmayı ya da bağımsız hareket etmeyi seçiyor. En iyi sonuç, karşılıklı iş birliği yapıldığında elde ediliyor ancak bir taraf iş birliği yaparken diğeri yapmazsa, iş birliği yapmayan taraf daha fazla kazanıyor; buna da sömürü fırsatı deniyor. Hiçbiri iş birliği yapmazsa, her ikisi de kaybediyor.
Araştırmada, partnerlerin (hem insan hem yapay zeka) kadın, erkek, ikili cinsiyet dışı (nonbinary) ve cinsiyetsiz olarak etiketlenmesiyle katılımcıların davranışları incelendi.
Çalışmada, katılımcıların kadın, ikili cinsiyet sistemi olmayan ve cinsiyetsiz partnerlerle, erkek partnerlere kıyasla daha fazla iş birliği yapma olasılıkları olduğu ortaya çıktı çünkü diğer oyuncunun da iş birliği yapmasını bekliyorlardı. Yani “erkek” etiketine güven daha azdı. Özellikle kadın katılımcılar, “erkek” partnerlere kıyasla “kadın” partnerlerle daha fazla iş birliği yaptı (homofili etkisi).
Öte yandan, katılımcılar, “kadın”, “ikili cinsiyet dışı” veya “cinsiyetsiz” olarak etiketlenen partnerleri “erkek” partnerlere göre daha fazla sömürdü. Partner bir yapay zeka ise, bu sömürü olasılığı daha da arttı.
Erkek katılımcılar, partnerlerini sömürmeye daha yatkındı ve insan partnerlerle, yapay zeka partnerlere kıyasla daha fazla iş birliği yaptı.
Kadın katılımcılar ise genel olarak erkeklerden daha fazla iş birliğine yatkındı ve partnerin insan mı yoksa yapay zeka mı olduğu konusunda ayrım yapmadı.
Yapay zeka cinsiyetçiliği artırır mı?
Günümüzde birçok yapay zeka aracı, insanların onlara güvenmesi ve etkileşime girmesi için insan özellikleri (isim, cinsiyet, ses vb.) ile donatılıyor. Ancak çalışma, toplumsal cinsiyet ayrımcılığını dikkate almadan yapay zekayı insanlaştırmanın, var olan önyargıları güçlendirip ayrımcılığı daha da kötüleştirebileceğini ortaya koyuyor.
Gelecekte sadece sohbet botlarıyla değil, otonom arabalarla, iş programlarımızı yöneten yapay zeka araçlarıyla da iç içe yaşayacağız. Bu da yapay zeka ile, tıpkı diğer insanlardan beklediğimiz gibi iş birliği yapmamızı gerektirebilir. Dolayısıyla yapay zekadaki toplumsal cinsiyet önyargısının farkında olmak kritik önem taşıyor.
Makale yazarları, “Cinsiyetleştirilmiş yapay zeka ajanlarına karşı ayrımcı tutumlar sergilemek başlı başına büyük bir etik sorun teşkil etmese de, zararlı alışkanlıkları besleyebilir ve toplumlarımızdaki mevcut cinsiyete dayalı ayrımcılığı daha da kötüleştirebilir.” ifadesini kullandı.
Yazarlar devamında ise bir öneride bulunarak, “Tasarımcılar, bu önyargı kalıplarını ve kullanıcı algılarını anlayarak, kullanıcıların ihtiyaçlarını karşılarken aynı zamanda adalet ve eşitlik gibi olumlu toplumsal değerleri koruyan etkili, güvenilir yapay zeka sistemleri geliştirmeye çalışmalı.” dedi.
Kaynak: iScience

