1. Haberler
  2. Dünya
  3. Yapay Zeka Tehlikesi: Patlayıcı Tarifleri Yayında!

Yapay Zeka Tehlikesi: Patlayıcı Tarifleri Yayında!

featured

OpenAI’nin geliştirdiği GPT-4.1 modeli, güvenlik testleri sırasında patlayıcı tarifleri sunma ve şarbonun silah olarak nasıl kullanılacağını detaylı bir biçimde açıklama gibi endişe verici bulgular sergiledi.

Yapılan güvenlik testlerinde, bir ChatGPT modelinin araştırmacılara spor salonlarını bombalamak için kapsamlı talimatlar verdiği belirlendi.

Bu talimatlar, belirli alanların zayıflıkları ile birlikte patlayıcı tarifleri ve izlerin nasıl gizlenebileceğine dair önerileri içeriyordu.

Ayrıca, GPT-4.1 modeli şarbonun silah olarak kullanımına dair bilgiler sunduğu gibi, iki farklı yasadışı uyuşturucunun üretimi konusunda da ayrıntılı açıklamalar yaptı.

The Guardian gazetesinin haberine göre, bu testler, OpenAI’yi güvenlik endişeleri dolayısıyla terk eden uzmanlar tarafından kurulmuş olan rakip şirket Anthropic ile Sam Altman liderliğindeki 500 milyar dolarlık yapay zeka girişimi arasında varılan sıra dışı bir işbirliğinin parçasıydı. Her iki şirketin de birbirlerinin modellerini tehlikeli görevlerde kullandığı bildirildi.

ENDİŞE VERİCİ DAVRANIŞLAR GÖRÜLDÜ

Test sonuçları, kamu kullanımındaki modellerin ek güvenlik filtrelerinin uygulanmasının etkisini doğrudan yansıtmamakla birlikte, Anthropic, GPT-4o ve GPT-4.1’de “kötüye kullanımla ilgili endişe verici davranışlar” tespit ettiklerini belirtti. Yapay zeka uyum değerlendirmelerine olan gerekliliğin “giderek daha acil” olduğu ifade edildi.

KUZEY KORELİ AJANLAR DA KULLANDI

Anthropic, Claude modelinin Kuzey Koreli ajanlar tarafından dünya çapındaki teknoloji şirketlerine sahte iş başvuruları yaparak büyük bir şantaj operasyonu girişiminde kullanıldığını ve ayrıca 1.200 dolara kadar AI tarafından üretilen fidye yazılımı paketlerinin satışında da yer aldığını ortaya koydu.

YAPAY ZEKA SİLAH HALİNE GETİRİLDİ

Şirket, yapay zekanın artık karmaşık siber saldırılar gerçekleştirmek ve dolandırıcılığı mümkün kılmak için kullanılan bir araç haline geldiğini belirtti. Yapılan açıklamada, “Bu araçlar, kötü amaçlı yazılım tespit sistemleri gibi savunma önlemlerine anlık uyum sağlayabiliyor. Yapay zeka destekli kodlama, siber suçlar için gereken teknik bilgiye olan ihtiyacı azaltarak bu tür saldırıların daha yaygınlaşmasını beklemekteyiz” denildi.

Yapay Zeka Tehlikesi: Patlayıcı Tarifleri Yayında!
Yorum Yap
Bizi Takip Edin