Araştırmacılar, yapay zekanın adalet sistemini ancak daha hesap verebilir ve sorgulanabilir kılması halinde faydalı bir araç olabileceğini savunuyor.
Araştırmacılar, yapay zekanın adalet sistemini ancak daha hesap verebilir ve sorgulanabilir kılması halinde faydalı bir araç olabileceğini savunuyor.
ABD’de ceza adalet sisteminde insanların özgürlüğünü doğrudan etkileyen kararlar uzun yıllar boyunca hakimler, jüri ve tahliye kurulları gibi kişiler tarafından tarafından alındı. Ancak son yıllarda bu tablo değişiyor. Suç tahmininden DNA analizine, ceza sürelerinin önerilmesine kadar pek çok alanda yapay zeka sistemleri karar süreçlerine dahil edilmeye başlandı.
Dolayısıyla, hem bu sistemlerin verileri nasıl kullandığına hem de adaletin nasıl korunacağına dair yeni ve kritik sorular gündeme geliyor. Özellikle “kara kutu” olarak nitelenen, yani nasıl çalıştığı dışarıdan anlaşılamayan sistemlerin ceza adaletinde yer bulması kamu güveni ve anayasal haklar açısından büyük tartışma konusu. İstatistiksel olarak doğru ya da “adil” sonuçlar verse bile bu sistemlerin hukukun gerektirdiği usule uygun adalet standartlarını karşılamaması olası görülüyor.
Nisan 2024’te ABD Ulusal Adalet Enstitüsü (NIJ), yapay zekanın ceza adalet sisteminde güvenli ve etkili biçimde kullanılmasına yönelik bilgi toplamak için kamuya açık bir çağrı yaptı. Bilgisayar Araştırmaları Derneği (CRA) bu çağrıya yanıt vermek için akademi ve özel sektörden uzmanların yer aldığı bir ekip topladı. Santa Fe Enstitüsünden Prof. Chris Moore ve Arizona Eyalet Üniversitesinden Prof. Stephanie Forrest de bu çalışmaya katkı sunan isimler arasında yer aldı.
Hazırlanan görüş yazısında, anayasal hakların söz konusu olduğu durumlarda kararların, “gizli süreçleri” olan yapay zeka sistemlerine bırakılmaması gerektiği vurgulandı. Yazarlar, sanığın neyle suçlandığını görebildiği ve delilleri sorgulayabildiği bir yargı sisteminde, kimsenin yüzleşemediği ve çapraz sorguya çekemediği bir “dijital tanığın” adil yargılama ilkesini zedeleyeceğine dikkat çekti.
Bu uyarılar Ağustos ayında Communications of the ACM dergisinde yayınlanan bir makaleyle yeniden gündeme taşındı. Her ne kadar NIJ’nin çalışmasının yapılmasına neden olan 14110 sayılı başkanlık kararnamesi iptal edilmiş olsa da, yeni yürürlüğe giren 13859 sayılı kararname yapay zekanın güvenli test edilmesini, kamu güveninin ve sivil özgürlüklerin korunmasını şart koşuyor. Moore’a göre yapay zeka teknolojileri ancak mevcut sistemi hem daha adil hem de daha şeffaf hale getirirse bu şartı karşılayabilir. İnsan kararlarının da her zaman şeffaf olmadığına dikkat çeken Moore, yapay zekanın sistemi daha hesap verebilir ve sorgulanabilir kılması halinde faydalı bir araç olabileceğini savunuyor. Aksi durumda ise kullanılmaması gerektiğini belirtiyor.
Uzmanlar NIJ’ye sundukları görüşte şeffaflığın altını özellikle çizdi. Yapay zekadan faydalanan veya bu sistemlerin önerilerinden etkilenen herkesin hangi verilerin kullanıldığını ve risk puanlarının nasıl hesaplandığını anlayabilmesi gerektiği vurgulandı. Ayrıca bir hakimin yapay zeka çıktısını hangi prosedürle değerlendirdiğinin de açık olması gerektiği belirtildi.
Moore, şeffaflığın herkesin algoritmanın kodunu ya da matematiğini bilmesi anlamına gelmediğini, hangi verilerin kullanıldığını ve sistemin ne tür sonuçlar ürettiğini bilmenin çoğu zaman yeterli olabileceğini ifade ediyor. Kredi notu düzenleyen şirketlerin tüketici verilerini açıklamak zorunda olduğu Fair Credit Reporting Act örneğini hatırlatan Moore, aynı yaklaşımın ceza adaletinde de uygulanabileceğini ancak bunun yeterli olmayacağını, algoritmanın iç işleyişine de bakılabilmesi gerektiğini söylüyor.
Ayrıca yapay zeka sistemlerinin çıktılarının “yüksek risk” gibi niteliksel etiketler yerine “şiddet içeren bir suçtan yeniden tutuklanma olasılığı yüzde 7 gibi sayısal ifadelerle verilmesi öneriliyor. Moore, hakimlerin sistemin hangi tür hataları yapabileceğini ve sonuçların ne anlama geldiğini bilirse bu araçların yararlı birer referans noktası sağlayabileceğini düşünüyor. Ancak insan karar vericilerin tamamen devre dışı bırakılması, özellikle özgürlük ve anayasal haklarla ilgili durumlarda kabul edilemez bir risk olarak görülüyor.
En iyi senaryoda yapay zeka bir “dijital danışman” rolü üstlenebilir; hakim, bu öneriyi davanın diğer unsurlarıyla birlikte değerlendirebilir. Moore’un ifadesiyle, yapay zekanın tavsiyelerini her zaman açıklayabilmek ve nasıl üretildiğini sorgulayabilmek adaletin temel koşullarından biri olmayı sürdürüyor.
Kaynak: Eurekalert