Yeni bir araştırma, yapay zeka modellerinin insanlara karşı beklenmedik bir önyargı geliştirdiğini göstermektedir.
Proceedings of the National Academy of Sciences (PNAS) dergisinde yayımlanan çalışma, sektörün önde gelen büyük dil modellerinin (GPT-4, GPT-3.5 ve Meta’nın Llama 3.1 gibi) insan yazımı içerikler yerine kendi ürettikleri metinleri tercih ettiğini ortaya koyuyor.
Araştırmacılar bu durumu “yapay zeka-yapay zeka önyargısı” olarak tanımlıyor ve bu sistemlerin gelecekteki önemli karar mekanizmalarındaki rolü nedeniyle insanlara karşı olumsuz ayrımcılığın oluşabileceği konusunda uyarıyorlar.
İŞE ALIMDA SESSİZ TEHLİKE
Günümüzde pek çok şirket, iş başvurularını elemek amacıyla yapay zeka araçlarını kullanıyor. Uzmanlar, bu sistemlerin zaten pek çok hata barındırdığına dikkat çekiyor.
Araştırma bulguları, yapay zeka tarafından hazırlanmış özgeçmişlerin, insan tarafından yazılmış olanlardan daha fazla tercih edildiğini öne sürüyor.
Araştırmanın ortak yazarlarından biri olan Charles Üniversitesi’nden bilgisayar bilimci Jan Kulveit, X (eski Twitter) üzerinden yaptığı açıklamada, “Yapay zeka ajanlarıyla dolu bir ekonomide insan olmak berbat bir şey olacak,” şeklinde ifadede bulundu.
Araştırmada, modellere ürün, bilimsel makale ve film tanıtımları gösterilmiş; her tanıtımın hem insan hem de yapay zeka versiyonu sunulmuştur.
Aldığı sonuçlar oldukça dikkat çekici: Modeller, düzenli olarak yapay zeka tarafından üretilen metinleri tercih etti. Özellikle GPT-4’ün önyargısı diğerlerine göre daha belirgin bir şekilde gözlemlendi.
İlginç bir diğer detay ise, aynı testin 13 insan araştırma asistanıyla da gerçekleştirildiğidir. İnsanlar da bazen yapay zeka yazılarını tercih etmiş olsa da, bu eğilim oldukça zayıf kalmıştır.
Kulveit, “Güçlü önyargı sadece yapay zeka sistemlerine özgü,” dedi.
İNSANLAR İÇİN RİSK NE?
Araştırmacılar, bu önyargının eğitim, iş başvurusu, hibe değerlendirmesi gibi birçok alana yansıyabileceğine dikkat çekiyor.
Eğer bir yapay zeka tabanlı sistem, insan sunumu ile diğer bir yapay zeka hazırladığı sunum arasında seçim yaparsa, bu durumda sistemik olarak yapay zekayı tercih edebilir.
Bu durum, yapay zeka araçları kullanmayan veya bu hizmetlere erişemeyen bireyler için ciddi bir “dijital uçurum” oluşturabilir.
Kulveit, konunun karmaşık olduğunu kabul etmekle birlikte, şu şekilde uyarıyor:
“Eğer sunumu yapan kişinin kimliğinin kararları etkilememesi gerektiğini savunursak, bu durum yapay zekaların insanlara karşı ayrımcılık yaptığına dair güçlü bir kanıt teşkil eder.”
Araştırmacının insanlara verdiği pratik tavsiye ise düşündürücüdür:
“Eğer bir yapay zeka değerlendirmesine tabi tutulduğunuzu düşünüyorsanız, sunumunuzu yapay zekanın beğeneceği şekilde uyarlamaya çalışın. Ancak bunu yaparken, insan kalitesinden mümkün olduğunca ödün vermemeye özen gösterin.”