BBC’nin liderliğinde gerçekleştirilen uluslararası çalışma, Napoli’de yapılan EBU Haber Meclisi toplantısında tanıtıldı. 18 ülkede 22 kamu hizmeti medya kuruluşunun katılımıyla 14 dilde yürütülen bu araştırma, dört önemli yapay zeka asistanında çeşitli sistematik sorunları ortaya çıkardı.
Katılımcı olarak yer alan kamu hizmeti medya uzmanları, doğruluk, güvenilir kaynak kullanımı, görüş ile gerçeklerin ayrıştırılması ve bağlam sağlama gibi temel ölçütler doğrultusunda ChatGPT, Copilot, Gemini ve Perplexity tarafından oluşturulan 3 binden fazla yanıtı analiz etti. Araştırmanın temel bulguları şu şekildedir:
– Yapay zeka tarafından üretilen yanıtların yüzde 45’inde en az bir önemli sorun tespit edildi.
– Yanıtların yüzde 31’inde önemli kaynak sorunları, yani eksik, yanıltıcı veya yanlış kaynak atıfları görüldü.
– Yanıtların yüzde 20’sinde karmaşık detaylar ve eski bilgiler gibi kritik doğruluk sorunları bulunmaktaydı.
– Gemini, yanıtların yüzde 76’sında önemli sorunlarla en kötü performans gösterdi; bu oran, diğer asistanların iki katından fazlaydı ve büyük ölçüde yetersiz kaynak kullanımına işaret ediyordu.
BBC’nin daha önceki araştırmalarındaki bulgular ile bu çalışmanın sonuçları karşılaştırıldığında, bazı iyileşmeler yaşandığı gözlemlense de, hata oranlarının oldukça yüksek olduğu dikkat çekiyor.
GENÇLER HABER İÇİN YAPAY ZEKAYA YÖNELDİ
Yapay zeka asistanları, birçok kullanıcı için arama motorlarının yerini almaya başlamış durumda. Reuters Enstitüsü’nün 2025 Dijital Haber Raporu’na göre, çevrimiçi haber kullanıcılarının yüzde 7’si haberlerine ulaşmak için yapay zeka asistanlarını tercih ediyor. Bu oran, 25 yaş altındaki bireylerde ise yüzde 15’e kadar çıkıyor.
EBU Medya Direktörü ve Genel Müdür Yardımcısı Jean Philip De Tender, “Bu araştırma, tespit edilen eksikliklerin rastgele olaylar olmadığını net bir şekilde ortaya koyuyor,” diyor. “Bu sorunlar sistematik, sınır ötesi ve çok dilli bir nitelik taşıyor, bu da kamu güvenini riske atıyor. İnsanlar güvenilir bilgi kaynağı bulamadıklarında, sonunda hiçbir şeye güvenmemeye başlıyor; bu durum da demokratik katılımı olumsuz etkileyebilir.”
BBC Generative AI Program Direktörü Peter Archer ise şöyle belirtiyor:
“Yapay zeka konusunda ve izleyicilere daha fazla değer sunmamıza nasıl yardımcı olabileceği konusunda heyecanlıyız. Ancak insanların okudukları, izledikleri ve gördüklerine güvenebilmesi büyük önem taşıyor. Bazı iyileştirmelere rağmen, bu asistanlarda hala ciddi sorunlar mevcut. Bu araçların başarılı olmasını istiyoruz ve izleyicilere ve daha geniş topluma hizmet eden bir yapay zeka ortamı oluşturmak için bu alanda çalışan firmalarla işbirliği yapmaya açığız.”
Araştırma ekibi, raporda ortaya çıkan sorunlara yönelik çözümler geliştirmek amacıyla Yapay Zeka Asistanlarında Haber Bütünlüğü Araç Seti’ni de yayımladı.
Bu set, yapay zeka asistanlarının sunduğu yanıtların kalitesini artırmayı ve kullanıcılar arasında medya okuryazarlığı konusunda farkındalığı artırmayı hedefliyor. Mevcut araştırmada elde edilen içgörüler ve örneklere dayanan Araç Seti, “İyi bir yapay zeka asistanı haber sorusuna nasıl yanıt vermeli?” ve “Düzeltilmesi gereken sorunlar neler?” gibi iki ana soruya odaklanıyor.
Ayrıca, EBU ve Üyeleri, Avrupa Birliği ve ulusal düzenleyicilere bilgi bütünlüğü, dijital hizmetler ve medya çeşitliliğine yönelik mevcut yasaların etkin bir biçimde uygulanması için baskı yapıyor. Yapay zekanın hızla gelişen niteliği göz önüne alındığında, yapay zeka asistanlarının sürekli bağımsız izlenmesinin önemi vurgulanıyor ve araştırmaların devamlı olarak sürdürülmesi için seçenekler aranmaktadır.
Bu çalışma, BBC’nin Şubat 2025’te yapay zekanın haber süreçlerindeki sorunlarına dair yayımladığı araştırmaya dayanmaktadır. İkinci aşama, çalışmanın kapsamını uluslararası platformda genişleterek sorunun sistematik olduğunu, dil, pazar ya da kullanılan yapay zeka asistanıyla sınırlı olmadığını göstermektedir.
Bugün BBC, izleyicilerin yapay zeka asistanlarının haber amaçlı kullanımına ve bu konudaki algılarına dair bir araştırma da yayımladı. Bu çalışmanın sonuçları, birçok kişinin yapay zeka asistanlarının doğru özetler üretebileceğine inandığını gösteriyor. İngiltere’deki yetişkinlerin üçte birinden fazlası, yapay zekanın doğru özetler üretme kapasitesine güvendiğini belirtirken, 35 yaş altındaki bireylerde bu oran neredeyse yarıya düşüyor.
Bu bulgular endişeleri artırıyor. Birçok kişi, haber içeriklerinin yapay zeka özetlerinin doğru olduğuna dair yanlış bir varsayıma sahipken, bu özetlerin gerçekte doğru olmadığını gördüklerinde, bu hataları yapay zeka asistanlarını değil, haber sağlayıcılarını ve yapay zeka geliştiricilerini eleştiriyor. Bu durum, ilerleyen zamanlarda insanların haberlere ve medya markalarına olan güvenini olumsuz etkileyebilir.