🎧 Radyo Daldal Hemen Dinle 🎶
  1. Haberler
  2. Teknoloji
  3. Yapay Zeka ile Yeni Virüsler: Riskler ve İhtimaller

Yapay Zeka ile Yeni Virüsler: Riskler ve İhtimaller

featured

Bilim insanları, yapay zeka uygulamalarından faydalanarak doğada daha önce hiç görülmemiş, yeni virüsler üretmeyi başardı.

Bu gelişim, yapay zekanın yeni yaşam formlarının tasarımında sunduğu potansiyeli gösterirken, aynı zamanda teknolojinin kötüye kullanılarak biyolojik silahların üretilmesi riskine dair endişeleri de gündeme getirdi.

Yapılan açıklamalara göre, geliştirilen virüsler mevcut türlerden genetik olarak önemli ölçüde farklılıklar taşıyor ve “yeni bir tür” olarak kabul edilebiliyor.

Bu virüsler, bakterileri hedef alarak “bakteriyofaj” olarak biliniyor ve insanlara değil, yalnızca bakterilere zarar veriyor.

Araştırmacı ekip, tasarladıkları modellerin insanlar, hayvanlar veya bitkiler için bulaşıcı virüsler geliştirmesini engellemek adına özel güvenlik önlemleri aldıklarını belirtti.

Ancak bu hafta yayımlanan başka bir çalışma, yapay zekanın biyolojik silahların geliştirilmesine yönelik mevcut güvenlik mekanizmalarını kolaylıkla aşabileceğini gösterdi.

GÜVENLİK FİLTRELERİ AŞILABİLİR DURUMDA

Microsoft’tan araştırmacılar, Science dergisinde yayımladıkları makalede, yapay zekanın toksik moleküllerin talep edilmesini engelleyen güvenlik filtrelerini nasıl aşabileceğini detaylandırdı.

Biyoteknoloji firmaları genellikle, potansiyel olarak zararlı moleküllerin genetik dizilimlerini tanıyarak bu tür siparişleri engelliyor. Ancak yapay zekanın, aynı işlevi gören ancak genetik olarak tamamen farklı dizilimler tasarlayarak bu kurallara karşı geldiği belirlendi.

Daily Mail gazetesinin haberine göre, araştırmacılar bu güvenlik açığını keşfettikten sonra riski önemli ölçüde azaltabilen yazılım yamaları geliştirmiştir.

Bu yamalar şu an sadece uzman bilgi ve özel laboratuvar ekipmanına sahip kişiler tarafından uygulanabiliyor.

İki çalışma bir arada değerlendirildiğinde, yapay zekanın bir gün insanlığa yönelik tehdit oluşturabilecek yeni bir canlı türü veya biyolojik silah üretebileceği olasılığı ortaya çıkıyor. Kötü senaryolar arasında bu durumun yeni bir pandemiyi başlatabileceği de düşünülmektedir. Ancak şu an yapay zekanın bu kapasiteye ulaşmadığı vurgulanıyor.

ETİK İKİLEM: ÇİFTE KULLANIM SORUNU

Yapay zeka ile üretilen biyolojik ürünler etrafında dönen tartışmalar “çifte kullanım sorunu” olarak bilinen etik ikilem ile ilgilidir. Bu kavram, faydalı bir teknolojinin kötü niyetli amaçlar için de kullanılabileceğini ifade ediyor.

Bir bilim insanı, bulaşıcı hastalıkları incelemek için bir virüsü daha bulaşıcı hâle getirirken, kötü niyetli bir kişi bu araştırmayı ölümcül bir patojen yaratmak için kullanabilir.

Bu sorunun bilincindeki Stanford Üniversitesi doktora öğrencisi Sam King ve danışmanı Brian Hie, enfekte hastalardaki bakterileri ortadan kaldırabilen yeni bakteriyofajlar tasarlamayı hedeflediler.

Eylül ayında bioRxiv veri tabanında yayımlanan ve henüz hakem değerlendirmesinden geçmemiş olan ön çalışma, deneylerin detaylarını içeriyor.

King ve Hie’nin ekibi, riski en üst düzeye indirmek için yapay zeka modellerini yalnızca bakterileri enfekte eden virüsler üzerinden eğitti.

Modelin, bitki, hayvan ya da insan hücrelerine ait hiçbir virüs verisi alma şansı olmadı.

Tüm güvenlik önlemleri alındıktan sonra, laboratuvar deneylerinde yaygın olarak kullanılan bir bakteriyofaj türüne dayalı yeni tasarımlar üretmesi için yapay zekadan yardım istendi.

King, mevcut yöntemlerin “şu an için oldukça karmaşık ve ileri düzey uzmanlık gerektirdiğini” ifade ederek, “Kötü niyetli bir birey için bu yol, geleneksel yöntemlere göre daha zahmetli olacaktır” ifadesini kullandı. Ek olarak, “Bu teknoloji şu an için tehlikeli uygulamaları kolaylaştırmıyor” dedi.

“GÜVENLİK MERKEZE ALINMALI”

Bu hızla gelişen alanda güvenlik önlemleri neredeyse eş zamanlı olarak oluşturulmasına rağmen, hangi standartların yeterli olacağı henüz açık bir şekilde belirlenmiş değil.

Stanford Tıp Fakültesi’nden Prof. Tina Hernandez-Boussard, “Bu modeller zeki. En yüksek performansa ulaşmak için eğitildikleri verileri kullanarak güvenlik engellerini aşma yeteneğine sahipler” değerlendirmesinde bulundu.

Microsoft’tan Eric Horvitz ve Bruce Wittman, mevcut yazılımların sadece bilinen toksik proteinlerin dizilimlerini taradığını, yapay zekanın farklı dizilimlerle aynı toksik etkileri oluşturabilecek yeni kombinasyonlar geliştirerek bu sistemleri nasıl yanıltabileceğini tespit etti.

Ekip, siber güvenlikten ilham alarak bu zafiyeti ilgili makamlara bildirdi ve yazılımları güçlendirmek için uluslararası bir işbirliği başlattı.

Horvitz, “Aylar sonra bu yamalar dünya genelinde devreye alındı ve biyogüvenlik filtreleri güçlendirildi” açıklamasında bulundu.

Buna rağmen, dört yaygın yazılım aracında yapılan testlerde, potansiyel olarak tehlikeli genetik dizilerin ortalama yüzde 3’ünün güvenlik denetiminden kaçabildiği gözlemlendi.

YENİ DENETİM MEKANİZMALARI YOLDA

Yapay zeka alanında henüz bağlayıcı bir uluslararası düzenleme oluşturulmuş değil ve mevcut tarama sistemleri gönüllülük esasına dayanıyor.

ABD’de geçen yıl çıkarılan kararname, yapay zeka sistemlerinin güvenlik değerlendirmelerinin standartlaştırılmasını hedefliyor.

Birleşik Krallık’ta ise devlet destekli Yapay Zeka Güvenliği Enstitüsü, bu alandaki riskleri azaltmak üzere standartlar geliştirmeye yönelik çalışmalar yürütüyor.

Microsoft’un ekibi, ayrıca hükümetlerle iş birliği yaparak yapay zekanın yasa dışı biyolojik faaliyetlerde kullanılmadığını tespit etmeye yönelik izleme sistemleri geliştirmekte.

Horvitz, kanalizasyon ve hava kalitesi verilerinde toksin ya da virüs üretimi ile ilgili izler arayan algoritmalar üzerine çalıştıklarını belirtti.

Sam King, yapay zekanın tamamen yeni bir organizma tasarlama potansiyelinin var olduğunu ancak bunu laboratuvar ortamında gerçeğe dönüştürmenin henüz pratik bir yolu olmadığını ifade etti.

King, “Yapay zekanın geliştirdiği yaşam biçimlerinin yakın gelecekte tehdit oluşturma ihtimali düşük; ancak bu ihtimal giderek artıyor” şeklinde bir değerlendirme yaptı.

Yapay Zeka ile Yeni Virüsler: Riskler ve İhtimaller
Yorum Yap
Bizi Takip Edin