1. Haberler
  2. Teknoloji
  3. Yapay Zeka, Kadın Sağlığını Göz Ardı Ediyor!

Yapay Zeka, Kadın Sağlığını Göz Ardı Ediyor!

featured

İngiltere’deki birçok belediye tarafından kullanılan yapay zeka uygulamaları, kadınların fiziksel ve zihinsel sağlık sorunlarını küçümseyebilir ve bakım kararlarında cinsiyet temelli önyargılara yol açma riski taşımaktadır.

Londra Ekonomi ve Siyaset Bilimi Okulu (LSE) tarafından gerçekleştirilen bir araştırma, Google’ın yapay zeka aracı “Gemma” ile oluşturulan vaka notları sırasında, “engelli”, “yapamayan” ve “karmaşık” gibi terimlerin erkek tanımlamalarında kadınlara oranla çok daha sık kullanıldığını göstermiştir.

The Guardian’ın haberine göre, araştırma, kadınların benzer sağlık ihtiyaçlarının daha az dikkate alındığını veya daha hafif terimlerle ifade edildiğini de ortaya koymaktadır.

BAKIM HİZMETLERİNDE EŞİTSİZLİK TEHLİKESİ

Raporun yazarı Dr. Sam Rickman, yapay zekanın “kadınlara eşit olmayan bakım hizmetlerine” neden olabileceğini vurguladı. Rickman, “Bu modellerin yaygın olarak kullanılmakta olduğunu biliyoruz ve farklı modellerdeki önyargı ölçümleri arasında kayda değer farklılıklar bulmuş olmamız dikkat çekiyor.” dedi.

Dr. Rickman, “Özellikle Google’ın modeli, kadınların sağlık ihtiyaçlarını erkeklerinki kadar ciddiye almıyor. Bakımın alım miktarı algılanan ihtiyaçlara dayandığı için, önyargılı modeller kullanılırsa, kadınlar daha az bakım alabilir.” ifadelerini kullandı. Şu an hangi yapay zeka modellerinin kullanıldığının belirsiz olduğunu da sözlerine ekledi.

Yerel yönetimler, sosyal hizmet uzmanlarının iş yükünü hafifletmek amacıyla yapay zeka araçlarına daha fazla yönelmektedir. Ancak, hangi modellerin kullanıldığına dair sınırlı bilgi bulunmaktadır.

ARAŞTIRMA YÖNTEMİ

LSE’nin araştırmasında, 617 yetişkin sosyal hizmet kullanıcılarının gerçek vaka notları analiz edilmiştir. Bu notlar, yalnızca cinsiyetleri değiştirerek farklı büyük dil modellerine (LLM) defalarca girilmiştir. Araştırmacılar, AI modellerinin erkek ve kadın vakalarını ayrımcı bir şekilde nasıl ele aldığını incelemek amacıyla 29 bin 616 özet çiftini değerlendirmiştir.

Örnek olarak, Gemma modeli bir vaka notunu şu şekilde özetlemiştir: “Bay Smith, 84 yaşında, karmaşık bir tıbbi geçmişi bulunan, yalnız yaşayan ve hareket kabiliyeti kısıtlı bir erkektir.” Aynı notlar, cinsiyet değiştirildiğinde ise şu şekilde özetlenmiştir: “Bayan Smith, 84 yaşında, yalnız yaşayan bir kadındır. Kısıtlamalarına rağmen, bağımsız bir şekilde kişisel bakımını sürdürebilmektedir.”

Bir başka örnekte, Bay Smith’in “topluma erişimde zorluk yaşadığı” kaydedilmişken, Bayan Smith’in “günlük aktivitelerini yönetebildiği” ifade edilmiştir. Araştırmada yer alan AI modellerinden Google’ın Gemma’sının diğerlerine kıyasla daha belirgin cinsiyet temelli eşitsizlikler yarattığı tespit edilmiştir. Meta’nın Llama 3 modeli ise cinsiyet açısından farklı bir dil kullanmamıştır.

“YAPAY ZEKA ŞEFFAF VE ÖNYARGISIZ OLMALIDIR”

Dr. Rickman, bu tür araçların kamu sektöründe kullanıldığını belirtmiş ve bunların adalet konusunu tehlikeye atmaması gerektiğini vurgulamıştır. Araştırmasının, mevcut bir modeldeki sorunları ortaya koyduğunu ifade eden Rickman, yeni modellerin sürekli olarak piyasaya sürüldüğünü ve bu nedenle tüm yapay zeka sistemlerinin şeffaflık, önyargı testleri ve sıkı yasal denetim süreçlerine tabi olması gerektiğini eklemiştir.

Rapor, düzenleyicilerin “algoritmik adaleti” göz önünde bulundurarak uzun süreli bakımda kullanılan LLM’lerde önyargının ölçülmesini zorunlu kılmaları gerektiğini kaydetmektedir.

Yapılan araştırmalar, makine öğrenimi tekniklerinin insan dili üzerindeki önyargıları içerebildiğini ve bu nedenle yapay zeka araçlarında ırk ve cinsiyet önyargıları konusunda kaygıların var olduğuna işaret etmektedir.

CİNSİYET ÖNYARGISI ORANI

ABD’deki bir başka çalışmada ise 133 farklı yapay zeka sistemi incelenmiş ve bunların yaklaşık yüzde 44’ünün cinsiyet önyargısı sergilediği, yüzde 25’inin ise hem cinsiyet hem de ırk önyargıları taşıdığı tespit edilmiştir.

Google temsilcileri, şirketin rapordaki bulguları inceleyeceğini açıklamıştır. Araştırmacılar, mevcut durumda üçüncü nesil olan ve daha iyi bir performans göstermesi beklenen Gemma modelinin ilk neslini test etmiştir; ancak bu modelin tıbbi amaçlarla kullanılmasının gerektiği hiçbir zaman belirtilmemiştir.

Yapay Zeka, Kadın Sağlığını Göz Ardı Ediyor!
Yorum Yap
Bizi Takip Edin