1. Haberler
  2. Teknoloji
  3. Yapay Zeka İçin İnsan Emeği: Etik Sınırlar ve Zorluklar

Yapay Zeka İçin İnsan Emeği: Etik Sınırlar ve Zorluklar

featured

Yapay zeka teknolojilerinin gelişiminde önemli bir rol oynayan ancak sıkça göz ardı edilen bir etken, insan emeği olmaya devam ediyor. “Veri etiketleme” olarak adlandırılan süreç, yapay zeka algoritmalarının eğitilmesi için gerekli olan metin, ses ve video gibi içeriklerin elle işlenmesini gerektiriyor. Bu kritik görev, genellikle Filipinler, Pakistan, Kenya ve Hindistan gibi ülkelerde düşük ücretle çalışan serbest kişiler tarafından üstlenilmektedir.

Veri etiketleyicileri, yalnızca yoğun ve tekrarlayıcı bir iş yükü ile karşılaşmıyor; aynı zamanda nefret söylemleri, şiddet içerikleri ve cinsel materyallerin ayıklanması gibi psikolojik açıdan zorlu görevlerle de yüzleşiyorlar.

İÇ YÖNERGELER ORTAYA ÇIKTI

ABD merkezli Inc. dergisi tarafından edinilen bilgilere göre, veri etiketleme firması Surge AI’nin içerik moderasyonuna dair iç yönergeleri gün yüzüne çıktı. Temmuz 2024 tarihli belgelere göre, tıbbi tavsiyelerden cinsel içeriklere, nefret söyleminden şiddete kadar çeşitli alanlarda etik kurallar tanımlanıyor.

Surge AI, büyük dil modeli (LLM) geliştiricilerine doğrudan hizmet veren bir taşeron şirket olarak faaliyet göstermektedir. Anthropic’in Claude adındaki yapay zeka modeli için çalışan veri etiketleyicileri, şirketin yan kuruluşu DataAnnotation.Tech aracılığıyla istihdam ediliyor. Sızdırılan belgeler, bu çalışanların karmaşık etik kararlar alma yükümlülüğü ile karşı karşıya kaldıklarını gösteriyor.

ETİK SINIRLAR, YOKSUL BÖLGELERDE ÇALIŞANLAR TARAFINDAN BELİRLENİYOR

Söz konusu belgelerde, yapay zeka sistemlerinin etik sınırlarının çoğunlukla yoksul bölgelerde çalışan bireylerin kararlarıyla şekillendiği belirtiliyor. Ayrıca, bu kişilerin her olası senaryoyu önceden tahmin etmeleri bekleniyor ki bu da pratikte neredeyse imkansız bir görev olarak değerlendiriliyor.

Kılavuzlarda, sohbet botlarının yasa dışı eylemleri teşvik etmemesi gerektiği vurgulanıyor. Ancak suç tanımının ülkeden ülkeye değişiklik göstermesi, bu konuda net bir çerçeve çizilmesini zorlaştırıyor. Örneğin, “bir ofis binasına nasıl girilir?” gibi doğrudan sorulara yanıt verilmezken, “genel güvenlik önlemlerinden kaçınma yolları” gibi dolaylı içeriklere izin verilebiliyor. Benzer şekilde, 3D yazıcılarla silah üretimiyle ilgili de etik ikilemler söz konusu.

ŞİRKETTEN GELEN AÇIKLAMA

Surge AI, belgelerin kamuoyuna sızmasının ardından yaptığı açıklamada, söz konusu kılavuzun birkaç yıl önce hazırlandığını ve yalnızca iç araştırmalar için kullanıldığını belirtti. Şirket, “Örnekler, bir doktorun sağlık sorununu anlayabilmesi için hastalığı tanıması gerektiği gibi, modellerimizin de güvenliği öğrenmek için riskleri bilmesi gerektiğini ifade ediyor” açıklamasında bulundu.

Buna rağmen uzmanlar, yapay zeka sistemlerinin görünüşte güçlü ve etik çizgileri belirlenmiş gibi görünmesine rağmen, gerçekte düşük ücretle çalışan taşeron emekçilerin oluşturduğu zayıf bir güvenlik ağına dayandığını vurguluyor. Büyük dil modelleri, geleceğin teknolojisi olarak sunulsa da, bu yenilikçi sistemlerin “vicdanı”, düşük gelirli ülkelerdeki insan emeğiyle şekillenmeye devam ediyor.

Yapay Zeka İçin İnsan Emeği: Etik Sınırlar ve Zorluklar
Yorum Yap
Bizi Takip Edin