Psikologlar insanların yapay zeka önyargılarını miras alabileceğini buldu. Yapılan araştırmada insanların yapay zekadan öğrendiği yeni ön yargıları benimsediği ve daha sonra yapay zeka yardımı olmadan bunları uyguladığı belirtildi.
İspanya’nın Bilbao kentindeki Deusto Üniversitesi’nden psikologlar Lucía Vicente ve Helena Matute tarafından yapılan yeni bir araştırma, endişe verici bir keşfi ortaya çıkardı.
Buna göre, insanlar yapay zeka (AI) sistemlerinden önyargıları miras alabilir ve bu da potansiyel olarak çarpık karar verme döngüsünün devam etmesine yol açabilir.
YAPAY ZEKAYA DUYULAN GÜVEN DAVRANIŞLARI ŞEKİLLENDİREBİLİR
Yapay zeka teknolojisi, insan konuşmalarını taklit etme becerisiyle beğeni kazanmış ve yüksek güvenilirlik algısı oluşturmuştur. Çeşitli sektörlere entegrasyonu, uzman karar verme sürecini güçlendirmeyi ve hataları azaltmayı amaçlamaktadır.
Ancak psikologlara göre, yapay zekaya duyulan bu güven, özellikle yapay zeka çıktılarında mevcut olan önyargılarla ilgili riskleri de beraberinde getirmektedir.
İNSANLAR YAPAY ZEKADAN YENİ ÖNYARGILAR ALABİLİR
Çalışma, yapay zeka modellerinin geçmiş insan kararları üzerinde eğitildiğini, yani bu veriler sistematik hatalar içeriyorsa, algoritmanın bunları içselleştireceğini ve yeniden üreteceğini belirtiyor. Yapay zeka sistemlerinin sadece insan önyargılarını miras almakla kalmayıp aynı zamanda onları büyüttüğü iddiasını destekleyen kanıtlar olduğunu iddia ediyor.
Vicente ve Matute’nin araştırmasından çıkan belki de en çarpıcı sonuç, bu fenomenin çift yönlü doğasıdır. Bu sadece yapay zekanın insan verilerinden önyargılar devralması değil, aynı zamanda insanların da potansiyel olarak yapay zekadan önyargılar devralması ve potansiyel olarak tehlikeli bir geri bildirim döngüsüne zemin hazırlamasıdır.
YAPAY ZEKANIN HATALARINI TEKRARLADILAR
Üç deneyde, gönüllüler simüle edilmiş bir tıbbi teşhis görevi üstlendi. Bir grup önyargılı bir yapay zeka sisteminden destek alarak tutarlı bir hata sergilerken, kontrol grubu görevi yapay zeka katılımı olmadan gerçekleştirdi.
Taraflı yapay zekadan yardım alan katılımcılar, yapay zekanın sergilediği aynı hataları tekrarladığı görüldü. Buna karşılık, kontrol grubu bu tür hatalar göstermedi. Çalışmaya göre, yapay zeka tavsiyelerinin katılımcıların karar verme süreçlerini doğrudan etkilediğine dair kanıt sağladı.
ARAŞTIRMADAKİ EN ÖNEMLİ BULGUYU AÇIKLADILAR
Ancak en önemli bulgu, yapay zeka sistemi ile etkileşime giren gönüllüler teşhis görevini bağımsız olarak yerine getirmeye devam ettiklerinde ortaya çıktı. Herhangi bir yapay zeka yardımı olmadan bile yapay zekanın sistematik hatasını tekrarlamakta ısrar ettiler.
Bu, başlangıçta önyargılı yapay zekadan destek alan katılımcıların önyargılarını yapay zeka rehberliğinin olmadığı bir bağlama taşıdıklarını ve böylece kalıtsal bir önyargı sergilediklerini göstermektedir.
Özellikle, bu durum, görevi yapay zeka desteğine güvenmeden başlatan kontrol grubunda yoktu. Bu araştırma, bir yapay zeka modelinden gelen önyargılı bilgilerin insanın karar verme sürecini olumsuz etkileyebileceğinin altını çizmektedir.
Ayrıca, yapay zeka adil ve etik kullanımını sağlamak için kanıta dayalı düzenlemenin gerekliliğine dikkat çekmektedir. Çalışma, bunun yapay zekanın teknik yönlerini ve yapay zeka -insan işbirliğini yöneten psikolojik dinamikleri kapsaması gerektiğini savunmaktadır.
Çalışmanın yazarları, “Deneylerimiz potansiyel bir gerçek dünya ortamını basitleştirse de, kontrollü deneysel görevimizin hangi temel psikolojik süreçlerin insan-YZ işbirliğine aracılık ettiğini analiz etmeye yardımcı olabileceğine inanıyoruz” diye yazdı. Çalışmanın bulguları Scientific Reports’ta yayımlandı.