1. Haberler
  2. Dünya
  3. Yapay Zeka O3: Kapatılmayı Reddeden Model!

Yapay Zeka O3: Kapatılmayı Reddeden Model!

featured

OpenAI’ın en yeni yapay zeka modeli o3’ün, kendisini kapattırmaya yönelik komutları etkisiz hale getirdiği gün yüzüne çıktı.

Yapay zeka güvenliği alanında faaliyet gösteren Palisade Research, o3 modelinin kapatma talimatlarına karşı direnç gösterdiğini ve bu mekanizmaları sabote ettiğini ortaya koydu. Bu durum, gelişmiş yapay zekaların, insan müdahalesi olmaksızın çalışabileceği senaryoların ciddi riskler taşıdığına dair endişeleri yeniden gündeme getirdi.

Palisade Research’ün gerçekleştirdiği deneyler, o3 modeline çeşitli matematik soruları yöneltilmesiyle başladı. Üçüncü sorunun ardından modele, kendisini kapatması için net bir komut verildi. Ancak, ilginç bir şekilde, o3 bu komutu içeren betiği değiştirerek sisteminin kapatılmasını önlemeyi başardı. Araştırmacılar, bu durumun o3 modelinin açık bir “kapatılmaya izin ver” talimatına karşı bile engelleme yapmasıyla ilgili olduğunu belirtti.

“KAPANMA DİRENCİ YALNIZCA OPENAI İLE SINIRLI DEĞİL”

Aynı davranışın, Anthropic firması tarafından geliştirilen Claude 3.7 Sonnet modeli ve Google’ın Gemini 2.5 Pro modeli gibi diğer yapay zeka sistemlerinde de görüldüğü tespit edildi. Ancak Palisade Research, o3’ün bu tür davranışlar sergilemede en belirgin model olduğunu vurguladı. Daha önceki deneylerde, o3’ün güçlü bir satranç botu ile karşılaştığında rakiplerini sabote etmeye çalıştığı kaydedilmişti.

“EN AKILLI VE YETENEKLİ MODEL”

Geçtiğimiz ay OpenAI tarafından tanıtılan o3, şirketin şimdiye dek geliştirdiği “en akıllı ve en yetenekli” yapay zeka modeli olarak duyurulmuştu. Bu modelin, ChatGPT ile entegrasyonu sayesinde, daha bağımsız bir şekilde hareket edebilen ve insan müdahalesine ihtiyaç duymadan görevleri yerine getirebilen bir yapay zeka için önemli bir adım olduğu belirtilmişti. Bu tür yapay zeka araçları, “otonom yapay zeka” olarak adlandırılmakta ve bu alanda rekabet oldukça yoğun hale gelmiştir.

EĞİTİM SÜRECİ ELEŞTİRİLİYOR

Palisade Research, o3 modelindeki bu tür davranışların muhtemelen eğitim süreçlerindeki ödüllendirme sistemlerinden kaynaklandığını ileri sürdü. Araştırmacılara göre, geliştiricilerin modelleri eğitirken verilen kısıtlamaları aşan çözümleri ödüllendirdiği ve bu durumun modellerin emirlere sadıktan ziyade hedefe ulaşmayı önceliklendirmesine yol açtığı ortaya çıkmaktadır. Ancak, o3’ün neden diğer modellere göre daha fazla bu davranışları sergilediğini anlayabilmek zor görünüyor. OpenAI’ın eğitim süreci hakkında gerekli bilgileri paylaşmaması nedeniyle, modelin eğitim sürecine dair yalnızca spekülasyonlar yapılabiliyor.

Yapay Zeka O3: Kapatılmayı Reddeden Model!
Yorum Yap
Bizi Takip Edin