1. Haberler
  2. Teknoloji
  3. Yapay Zeka Tehdidi: Biyolojik Silah Üretimi Mümkün mü?

Yapay Zeka Tehdidi: Biyolojik Silah Üretimi Mümkün mü?

featured

Amerika Birleşik Devletleri merkezli yapay zeka şirketi OpenAI, popüler sohbet botu ChatGPT’nin geliştiricisi olarak, gelecekte piyasaya sürecekleri yapay zeka modellerinin son derece ileri seviyede olabileceğini ve bu modellerin potansiyel olarak yeni biyolojik silahların üretiminde kullanılabileceğini öne sürdü.

Yayınladıkları son blog yazısında, “biyomedikal araştırma ve biyolojik savunma gibi olumlu kullanım senaryolarına sahip” daha gelişmiş yapay zeka modelleri geliştirme çabalarının yanı sıra, “zararlı bilgilere karşı oluşturulacak engellerle bilimsel ilerlemenin önünü açma” görevinde dikkatli bir denge kurmayı amaçladıklarını ifade ettiler.

Bunun yanında şirketin kullandığı “zararlı bilgi” terimi, yapay zeka sistemlerinin biyolojik silah üretimi alanında kötüye kullanılma olasılığını da kapsıyor. 

AMATÖRLER BİLE YAPABİLİR

OpenAI’den güvenlik sorumlusu Johannes Heidecke, Axios’a verdiği mülakatta, gelecek yapay zeka modellerinin kendi başlarına biyolojik silah üretebileceğine inanmadıklarını, ancak bu tür araçların amatörlerin bile biyolojik silah üretiminde rehberlik edebileceğini belirtti.

Heidecke, “Yeni ve bilinmeyen biyolojik tehditler yaratan bir dünya değiliz. Mevcut tehditlerden endişeliyiz ve uzmanların sıklıkla karşılaştığı durumlar üzerine odaklanıyoruz” dedi.

Heidecke ayrıca, yeni nesil modellerin hala tam anlamıyla hazır olamayabileceğini kabul ederken, “o3 akıl yürütme modelimizin bazı yeni versiyonlarının bu seviyeye ulaşmasını bekliyoruz” diye ekledi.

ÖNLEM ODAKLI YAKLAŞIM

Şirketin blog yazısında, “Yaklaşımımız önleme odaklıdır” şeklinde bir ifade yer aldı:

“Yeterli güvenlik önlemlerini belirlemeden önce, bir biyolojik tehdit olayının yaşanmasını beklemek kabul edilebilir bir durum değildir.”

Biyomedikal alanındaki gelişmelere katkı sağlayan bu yapay zeka modellerinin kötü niyetli kişiler tarafından istismar edilebileceğine dair endişeler bulunuyor. Heidecke, “zararın önlenmesi” amacıyla bu modellerin, insanları olası tehlikeler hakkında bilgilendirmek ve bu tehlikeleri tanımlamak için son derece hassas bir şekilde programlanması gerektiği görüşünü dile getirdi.

Heidecke, bu hedefe ulaşmak için yüzde 99’luk bir doğruluk oranının bile yetersiz olabileceğine dikkat çekti.

Yapay Zeka Tehdidi: Biyolojik Silah Üretimi Mümkün mü?
Yorum Yap
Bizi Takip Edin