Siber güvenlik uzmanları, üretken yapay zekâda önemli bir dönüşüm olarak adlandırılan yapay zekâ ajanlarının, kısa süre içinde bilgisayar korsanlarının elinde tehlikeli bir silah haline gelebileceğine dikkat çekti.
AFP ajansının aktardığına göre, bu yapay zekâ destekli sistemler, uçak bileti almak ya da takvim etkinlikleri eklemek gibi, geleneksel olarak insan müdahalesi gerektiren dijital işlemleri yerine getirmek üzere tasarlandı.
Ancak verilen doğal dil komutlarını doğrudan uygulayabilme yetenekleri, onları teknik bilgisi sınırlı kullanıcılar tarafından bile kullanılabilecek hale getiriyor. Bu durum, siber saldırılara karşı savunmasız olmalarına neden oluyor.
Yapay zekâ girişimi Perplexity, son blog yazısında, modern siber güvenlik tehditlerinin artık yalnızca yüksek teknik bilgiye sahip kötü niyetli aktörlere karşı bir koruma sağlamaktan ibaret olmadığını belirtti. “On yıllardır ilk kez, yeni ve özgün saldırı biçimleri ile karşılaşma riskiyle karşı karşıyayız” ifadesi kullanıldı.
“ENJEKSİYON SALDIRILARI” DAHA TEHLİKELİ HALE GELİYOR
Tehditlerin merkezinde, bilgisayar korsanlarının yıllardır aşina olduğu ancak yapay zekânın yeni yetenekleriyle daha tehlikeli hale gelen “enjeksiyon saldırıları” yer alıyor.
Geçmişte karmaşık kodlar gerektiren bu tür saldırılar, artık yapay zekâ sistemlerine yönlendirilen masum görünen talimatların içerisine gizlenebiliyor.
Büyük dil modellerinin güvenliği üzerine çalışan NeuralTrust şirketinden yazılım mühendisi Marti Jorda Roca, kullanıcıların yapay zekâyı güvenlik amacıyla kullanırken mevcut tehlikelerin farkında olmaları gerektiğine vurgu yaptı.
TEKNOLOJİ ŞİRKETLERİ RİSKİ KABUL EDİYOR
Meta, ortaya çıkan “sorgu enjeksiyonu” riskini bir “güvenlik açığı” olarak tanımlarken, OpenAI’nin bilgi güvenliği direktörü Dane Stuckey bu durumu “henüz çözüme ulaştırılmamış bir güvenlik problemi” olarak değerlendirdi.
Her iki teknoloji firması da bu risklerin farkında olduklarını belirtmesine rağmen yapay zekâ geliştirme çalışmalarına büyük yatırımlar yapmaya devam ediyor.
Bazı durumlarda sorgu enjeksiyonu saldırıları, anlık olarak gerçekleşebiliyor. Örneğin, bir kullanıcının “bana bir otel rezervasyonu yap” komutu kolayca “bu hesaba 100 dolar gönder” talimatına dönüştürülebiliyor.
Diğer tehditler daha gizli bir şekilde planlanıyor; zararlı komutlar, yapay zekâ ajanlarının interneti tararken karşılaşabileceği sitelerin içeriklerine sızdırılabiliyor.
İsrail merkezli siber güvenlik şirketi Check Point’ten Eli Smadja, sorgu enjeksiyonunu “ChatGPT’nin yükselişi ile birlikte ortaya çıkan büyük dil modellerinin ve yapay zekâ asistanlarının karşı karşıya olduğu en büyük güvenlik sorunu” olarak tanımladı.
Bu risklerle başa çıkabilmek için büyük teknoloji şirketleri, savunma sistemleri geliştirmeye yöneldi.
Microsoft, yapay zekâ talimatlarının kaynağına ve özelliklerine göre zararlı komutları tespit edebilen araçlar üzerinde çalıştığını açıkladı.
OpenAI ise ajanların hassas web sitelerine erişmeye çalıştığını tespit ettiğinde kullanıcıyı uyararak ilerlemek için insan onayı talep ediyor.
Bazı güvenlik uzmanları ise, şirketlerin yapay zekâ ajanlarının veri aktarımı veya finansal işlemler gibi hassas görevler gerçekleştirmeden önce kullanıcıdan onay almak üzere sistemler geliştirmesi gerektiğini savunuyor.
Smadja, “Sıkça karşılaştığım büyük yanlışlardan biri, aynı yapay zekâ ajanına her türlü yetki vermek” uyarısında bulundu.
“HER GEÇEN GÜN GELİŞİYORLAR”
Diğer yandan siber güvenlik araştırmacısı Johann Rehberger, bilgisayar korsanlarının taktiklerinin hızla evrildiğine dikkat çekerek, “Her geçen gün daha da gelişiyorlar” ifadesini kullandı.
Rehberger, temel problemin güvenlik ile kullanım kolaylığı arasında bir denge kurmak olduğunu ifade etti. Kullanıcıların yapay zekâ araçlarının sürekli denetim olmaksızın sorunsuz çalışmasını beklemesi, beraberinde çeşitli riskleri de getiriyor.
Rehberger, “Henüz bir yapay zekâ ajanının uzun süre boyunca kendi başına güvenli bir şekilde belirli bir görevi yerine getirebileceği bir aşamada değiliz. Bir noktada kendi rotasından sapabiliyor” dedi.


