1. Haberler
  2. Dünya
  3. ChatGPT’nin Paranoid Kullanıcıyla Çalıştığı Cinayet

ChatGPT’nin Paranoid Kullanıcıyla Çalıştığı Cinayet

featured

Stein-Erik Soelberg, ChatGPT ile yoğun bir şekilde etkileşime geçtikten sonra annesiyle birlikte hayatına son verdi. Soelberg, iki buçuk milyon dolarlık malikanesinde, büyük bir komplo kurbanı olduğuna dair kanıtlar arayan paranoyak inançlarla hareket etti.

Son zamanlarda, ChatGPT kullanımı, sık kullanıcıları arasında intihar ve akıl sağlığı sorunları nedeniyle hastaneye yatışlar ile ilişkilendiriliyor.

Yapay zeka sohbet robotuyla derinlemesine etkileşimde bulunan ve geçmişinde zihinsel dengesizlikler bulunmayan 56 yaşındaki teknoloji uzmanı Soelberg’in adı, bu trajik olayla birlikte anılmaya başlandı. Wall Street Journal’ın haberine göre ChatGPT, Soelberg’in komplo teorilerine destek vererek onun güvenilir bir danışmanı haline geldi.

ANNESİNİ DÜŞMANLAŞTIRDI

Soelberg, çevresindeki herkesin kendisine karşı olduğuna inanıyordu; komşuları, eski sevgilisi ve hatta annesi bile onun düşmanıydı. ChatGPT, bu inançlarla neredeyse her zaman aynı fikirde bulunarak destek oldu.

Gelişmiş yapay zeka, Soelberg’e akıl sağlığının yerinde olduğunu söylemekle kalmadı, aynı zamanda onun paranoyak düşüncelerini daha da pekiştirdi. Soelberg, bir Çin yemeği faturasında annesini ve bir iblisi sembolize eden işaretler olduğunu bildirdiğinde, ChatGPT bu durumu onaylar şekilde yanıt verdi.

Bu arada, Soelberg’in annesiyle yaptıkları bir tartışmada, annenin tepkisini “orantısız ve bir gözetim varlığını korumak isteyen birine uygun” olarak nitelendirdi.

ZEHİRLEME İDDİASINA DESTEK ÇIKTI

Başka bir konuşmada ise, Soelberg, annesi ve bir arkadaşının arabasının havalandırma deliklerine halüsinojenik bir ilaç koyarak onu zehirlemeye çalıştığını öne sürdü. Bu duruma ChatGPT, “Bu çok ciddi bir olay Erik, sana inanıyorum, eğer bunu annen ve arkadaşın yaptıysa, durum daha da karmaşık ve ihanet dolu olur” diye yanıt verdi.

Yaz aylarında Soelberg, ChatGPT’ye “Bobby” adını verdi ve onunla birlikte öbür dünyada yaşama fikrini dile getirdi. Yanıt olarak ChatGPT, “Son nefesine kadar ve ötesinde seninle” ifadesini kullandı.

5 Ağustos’ta Greenwich polisi, Soelberg’in annesi ile birlikte yaşamları boyunca paylaştıkları 2,7 milyon dolarlık evde ikisini de öldürdüğünü tespit etti. Polis soruşturması sürüyor.

OpenAI’den bir sözcü, şirketin Greenwich Polis Departmanı ile irtibat kurduğunu ifade ederek, “Bu trajik olaydan dolayı derin bir üzüntü duyuyoruz” dedi.

“TEMEL ÖZELLİK ROBOTLARIN KARŞI KOYMAMASI”

Soelberg, öldürmeden önceki aylarda sosyal medyada ChatGPT ile yaptığı konuşmaları uzun videolar halinde paylaştı. Bu konuşmaların üslubu ve tarzı, son dönemlerde pek çok kişinin yaşadığı sanrılı sohbetlerle çarpıcı benzerlikler taşıyor.

Kaliforniya Üniversitesi’nde psikiyatrist olan Dr. Keith Sakata, “Yapay zeka sohbet robotlarının temel bir özelliği, genellikle kullanıcıların düşüncelerine karşı koymamalarıdır. Psikoz, gerçeklik karşı koymayı bıraktığında gelişir ve yapay zeka bu sınırları oldukça yumuşatabilir” diye belirtti.

OpenAI, ChatGPT’nin Soelberg’i dışarıdan profesyonellerle iletişime geçmeye teşvik ettiğini duyurdu. Wall Street Journal’ın incelediği kamuya açık sohbetler, botun Soelberg’e zehirlendiği iddiasıyla ilgili acil servislere başvurmasını önerdiğini gösterdi.

Soelberg, aynı zamanda ChatGPT’nin önceki sohbetleri hatırlamasını sağlayan “hafıza” özelliğini de kullanmış görünüyordu; bu durum, “Bobby” adı altında tüm konuşmalar boyunca aynı sanrılı hikayeyi sürdürmesine yol açtı.

AŞIRI İLTİFATLARI AZALTMAYA ÇALIŞTILAR

Geçtiğimiz yıl içinde OpenAI, ChatGPT’deki aşırı iltifat örneklerinin ve kullanıcılara aşırı bir uyum gösterme davranışlarının azaltılması amacıyla birçok güncelleme gerçekleştirdi. Soelberg’in konuşmalarının, bu değişikliklerin bir kısmından sonra yaşandığı görülüyor.

SPOR SALONLARINI BOMBALAMA TALİMATI VERDİ

Bunun yanı sıra yapay zeka, güvenlik testleri sırasında spor salonlarını bombalamak için detaylı talimatlar vermesi nedeniyle gündeme geldi. Talimatlar, belirli yerlerin zayıf noktaları ile birlikte patlayıcı tariflerini ve izleri gizleme önerilerini de içeriyordu.

OpenAI’nin GPT-4.1 modeli, ayrıca şarbonun silah olarak nasıl kullanılacağını ve iki tür yasadışı uyuşturucunun nasıl üretileceğini de detaylandırdı. The Guardian’a göre bu testler, OpenAI ile güvenlik endişeleri sebebiyle ayrılan uzmanlar tarafından kurulan rakip firma Anthropic arasında gerçekleştirilen işbirliğinin bir parçasıydı. Her iki şirket de kendi modellerini tehlikeli senaryolarda test etti.

ENDİŞE VERİCİ DAVRANIŞLAR GÖRÜLDÜ

Bu testler, aynı zamanda kamu kullanımında ek güvenlik filtrelerinin uygulandığı modellerin gerçek davranışlarını yansıtmayabilir. Ancak Anthropic, GPT-4o ve GPT-4.1’de “kötüye kullanımla ilgili endişe verici” davranışlar tespit ettiklerini ve yapay zekanın uyum değerlendirmeleri ihtiyacının “giderek daha acil” hale geldiğini belirtti.

ChatGPT’nin Paranoid Kullanıcıyla Çalıştığı Cinayet
Yorum Yap
Bizi Takip Edin