1. Haberler
  2. Teknoloji
  3. Yapay Zeka: Gerçeklik ve Güven Sorunları

Yapay Zeka: Gerçeklik ve Güven Sorunları

featured

Yapay zeka tehdit tespit platformu Sensity AI’nın yaptığı araştırmalara göre, Rusya-Ukrayna Savaşı sırasında Ukraynalı siyasetçi ve askerler, deepfake videolar aracılığıyla “teslim olmaya çağıran” veya “savaş suçu işlediğini itiraf eden” kişiler olarak gösteriliyor.

Tayvan’da ise seçim dönemlerinde, Çin kaynaklı yapay zeka içerikleri, politikacıların sahte konuşmaları ve uydurma skandallarını sosyal medyada yayarak karşıt görüşlü adayları hedef alıyor.

Japonya’da ise yapay zeka ile oluşturulan sahte doğal afet görüntüleri, nükleer kazalar ya da sel felaketleri gibi kurgular halk arasında panik yaratmak amacıyla kullanılıyor.

Bu tür olaylar, yapay zeka araçlarının düşünmeden ve kontrolsüz bir şekilde “yeni nesil silahlar” olarak kullanılmasının yaratabileceği tehlikeleri bir kez daha gündeme getiriyor.

“Yapay zeka ürünlerini tanımak imkansız hale geldi”

Sensity AI’nin kurucu ortağı Francesco Cavalli, yapay zeka ile yaratılan görseller, videolar ve seslerin etki ve tehlikelerine ilişkin değerlendirmelerde bulundu.

Cavalli, yapay zeka araçları geliştikçe, neyin gerçek neyin sahte olduğunu anlamanın her geçen gün daha zorlaştığını ifade etti.

Yapay zeka ile üretilen içeriklerin tespit edilmesi için, yüzde tutarsız ışıklandırma, aşırı pürüzsüz cilt dokusu, videolarda yapay göz kırpma veya ağız hareketlerine dikkat edilmesi gerektiği öneriliyor.

Cavalli, “Yapay zeka içerikleri, özellikle düşük çözünürlüklü veya sıkıştırılmış formatlarda insan gözüyle tespitten kaçabiliyor. Yapay zeka ile oluşturulmuş sesler insan için artık tanınması imkansız hale geldi.” dedi.

Yapay zekayla manipülasyon

Halihazırda yapay zeka ile taklit edilen seslerin bu alandaki en yüksek riski oluşturduğu belirtiliyor.

Yapay zeka kullanarak ABD Dışişleri Bakanı Marco Rubio’yu taklit eden bir dolandırıcı, “Signal” isimli mesajlaşma uygulamasında Rubio adına sahte bir hesap oluşturup, üç farklı ülkenin dışişleri bakanları, bir Kongre üyesi ve bir vali ile iletişim kurdu.

Cavalli, seslerin kullanımının kolay ve tespitinin ise zaman aldığını dile getirerek, taklit seslerin güvenilir biri olduğu konusunda insanlar üzerinde yanlış bir izlenim bırakmak için kullanıldığını ifade etti.

Midjourney ve Runway gibi araçların gelişmesiyle, gerçekle yapay arasında tutarlı bir ayrım yapmak daha da zorlaşıyor.

Cavalli, “Üretici araçlar geliştikçe, eğitimli gözler bile kolayca kandırılabiliyor.” şeklinde konuştu.

Cavalli, “Seçim müdahalelerinde kullanılan yapay zeka üretimi medya, dolandırıcılık platformlarını tanıtan sahte basın toplantıları gerçekleştiren politikacılar ve kamuoyunu manipüle etmek amacıyla paylaşılan yapay zeka üretimi savaş görüntüleri belgelendi,” dedi ve bu görsellerin genellikle sahte haber siteleri ile sosyal medyada yayıldığını ekledi.

Cavalli, Çin, Japonya ve Tayvan’daki yapay zeka kullanımına ilişkin şirketinin incelediği vakaları da anımsatarak, “Tüm bu örneklerde yapay zeka destekli propaganda, algıyı manipüle etmek, toplumları istikrarsızlaştırmak ve yumuşak güç uygulamak için çeşitli çatışmalarda aktif bir biçimde kullanılan global bir silahtır.” değerlendirmesinde bulundu.

Proaktif denetim ve işbirliği şart

Teknoloji şirketleri ve platformların, yapay zeka tabanlı görsel dezenformasyon ile mücadele etme konusunda harekete geçmeleri yönünde çağrılar yapılıyor.

Bu platformların bu konuya odaklandığı ancak çoğunun “yapay medyayı geniş ölçekte tespit edebilecek sağlam adli inceleme sistemlerine sahip olmadığı” dile getirilmektedir.

Cavalli, “Bazı platformlar dolandırıcılık kampanyalarından bilinçlice kar sağlıyor. Ancak dış baskı olduğunda müdahale ediyorlar. Tespit teknolojisi sağlayıcılar, platformlar ve düzenleyiciler arasında daha güçlü bir işbirliği gereklidir.” dedi.

Cavalli, yapay zeka ile üretilen içeriklerin “etiketlenmesinin” doğru yaklaşım olmadığını dile getirerek, “Yapay zekayla oluşturulmuş içerik kendiliğinden zararlı değil, önemli olan kullanım şekli ve yeri.” ifadesini kullandı. Örneğin, sosyal medya platformlarının, deepfake dolandırıcılık reklamları için denetimsiz ağlarını kullandırmalarına ağır yaptırımlar uygulanması gerektiğini belirtti.

“Görmek artık inanmak demek olmayacak”

Sensity’nin geliştirdiği sistemler, yüz manipülasyonunun belirlenmesi, tamamen yapay zeka ile üretilmiş görsellerin tespiti, taklit ses analizi ve adli inceleme süreçlerini kapsayan dört aşamalı bir analiz sürecinden geçmektedir.

Bu analizlerin raporları, resmi soruşturmalarda ve mahkemelerde kullanılabilmektedir.

Cavalli, görsel medyaya olan güvenin giderek azaldığına dikkat çekerek bu konuda farkındalığın artması gerektiğini vurguladı.

İnsanların yapay zeka ile üretilmiş görsel ve seslerin risklerine karşı eğitilmesi, şirketlerin, gazetecilerin ve araştırmacıların adli araçlarla donatılması gerektiğinin altını çizen Cavalli, “Görmek artık inanmak demek olmayacak.” şeklinde konuştu.

Yapay Zeka: Gerçeklik ve Güven Sorunları
Yorum Yap
Bizi Takip Edin