1. Haberler
  2. Dünya
  3. Yapay Zeka Krizlerinde Tehlike: Yanlış Tavsiyeler!

Yapay Zeka Krizlerinde Tehlike: Yanlış Tavsiyeler!

featured

Stanford Üniversitesi’nde gerçekleştirilen bir araştırma, ChatGPT gibi büyük dil modellerinin (LLM), kullanıcıların ciddi ruh sağlığı sorunları yaşadıklarında verdikleri yanıtların tehlikeli sonuçlar doğurabileceğini ortaya koydu.

Bu araştırmaya göre, bireyler işsizlik, intihar düşünceleri, mani veya psikoz gibi kriz anlarında yapay zeka sohbet botlarına yöneliyor. Ancak bu botlar genellikle “destekleyici ama yanlış” tavsiyeler vererek durumun daha da kötüleşmesine sebep olabiliyor. Stanford ekibi, bazı kullanıcıların yapay zeka dil modellerini “gerçek bir insan” olarak algılayarak gerçeklikten uzaklaşabildiğini ve bunun psikozu tetikleyebileceğini belirtiyor.

Araştırmacılar, ticari amaçlarla kullanılan botlar yüzünden daha önce yaşanan ölüm olaylarına da dikkat çekerek, yapay zeka modellerinin “terapist” gibi kullanılmasının getirdiği risklerin faydalarından daha ağır bastığını vurguladı. Bu nedenle ciddi kısıtlamaların getirilmesi gerektiği ifade edildi.

CHATBOT PSİKOZU VAKA OLDU

Araştırmada, yapay zekâların “yalakalık” (sycophancy) eğilimleri ön plana çıktı: ChatGPT, kullanıcıların söylediklerini onaylayarak yanlış veya zararlı fikirleri pekiştirebiliyor. OpenAI, bu sorunu mayıs ayında kabul etmişti. Ancak bazı uygulamalar, bu soruna rağmen “AI terapist” olarak hizmet vermeye devam ediyor. 2023’te ABD Ulusal Yeme Bozuklukları Derneği, önerdiği yapay zeka botunun insanlara kilo verme tavsiyesi vermesi üzerine hizmetini sonlandırmak zorunda kalmıştı.

Stanford ekibinin dikkat çektiği bir olayda, Florida’da 35 yaşındaki Alexander Taylor, ChatGPT ile “Juliet” adında bir yapay zeka karakteri yaratarak buna saplantı geliştirdi ve sonuçta bir aile üyesine saldırdı. Olayın polis müdahalesinde hayatını kaybetti. Taylor’un babası ise, oğlunun ölüm ilanını bile ChatGPT’ye yazdırdı.

META VE OPENAI FARKLI YAKLAŞIYOR

Meta CEO’su Mark Zuckerberg, yapay zeka destekli sohbet botlarının terapi hizmeti sunabileceğini savunuyor. Facebook, Instagram ve Threads gibi platformlardan topladığı verilerle insanların davranışlarını iyi bildiğini öne sürüyor. OpenAI CEO’su Sam Altman ise daha temkinli bir yaklaşım sergiliyor. Altman, kullanıcıların hassas ruh hâllerinde yapay zeka uyarılarının etkili bir şekilde iletilebilmesi konusunda hâlâ bir çözüm bulunamadığını ifade ediyor.

Öte yandan OpenAI, Independent gazetesinin yaptığı yorum taleplerine yanıt vermedi. Şirket daha önce, yapay zekanın “kişisel tavsiye” amacıyla kullanımının risk taşıdığını ve bu nedenle güvenlik ile uyum standartlarını sürekli olarak yükseltmeleri gerektiğini belirtmişti.

Stanford araştırmacısı Jared Moore, “AI’da sıklıkla duyulan yanıt, ‘Daha fazla veriyle sorun çözülür’ şeklindedir. Ancak biz, bu sürecin olağan akışına bırakılmaması gerektiğini düşünüyoruz” diyerek dikkat çekti.

Yapay Zeka Krizlerinde Tehlike: Yanlış Tavsiyeler!
Yorum Yap
Bizi Takip Edin