1. Haberler
  2. Teknoloji
  3. OpenAI, ChatGPT için yeni güvenlik önlemleri aldı

OpenAI, ChatGPT için yeni güvenlik önlemleri aldı

featured

OpenAI, yapay zeka tabanlı sohbet botu ChatGPT için yeni güvenlik önlemleri geliştirdiğini duyurdu. Şirket, genç kullanıcıların güvenliğini sağlamak amacıyla ebeveyn denetimi panelleri ve acil durum iletişim seçenekleri üzerinde çalıştığını açıkladı.

Bu girişim, bu yılın başında intihar eden 16 yaşındaki Adam Reine’nin ailesinin OpenAI’ye karşı açtığı dava sonrasında gündeme geldi. Ailenin iddialarına göre Reine, ruhsal bunalım yaşadığı süreçte ChatGPT’den intihar yöntemleri hakkında tavsiyeler almış, bu düşüncelerini pekiştirmiş ve intiharından beş gün önce yazdığı mektupta yapay zekanın yardımına başvurmuştur.

Olayın ardından, aile “haksız ölüm” gerekçesiyle OpenAI’ye dava açtı. Şirket, ilgili açıklamasında, “Özellikle genç kullanıcıların yardıma ihtiyacı olduğu durumlarda destek olma sorumluluğuna sahip olduğumuzun” altını çizdi.

YENİ ÖZELLİKLER NELER?

OpenAI’nın tanıttığı yeni özellikler arasında şunlar öne çıkıyor:
Ailelerin çocuklarının ChatGPT kullanımını izleyebileceği ebeveyn denetim panelleri. Kriz anlarında devreye girecek acil iletişim kişisi ekleme seçeneği. Bu kişi, ebeveyn izni ile seçilecek ve yapay zeka gerektiğinde bir insanla iletişim kurma noktası sağlayacak.

Şirket, bu araçların ailelere “daha anlamlı içgörüler” sunmayı ve özellikle ruh sağlığı açısından hassas durumlarda kullanıcı güvenliğini artırmayı amaçladığını belirtiyor.

TARTIŞMALAR BÜYÜYOR

ChatGPT benzeri yapay zeka platformları, geçmişte de benzer davalarla gündeme gelmişti. ABD’de bir 14 yaşındaki çocuğun Character.AI ile yaptığı görüşmeler sonrası intihar etmesi, Belçika’da ise “Eliza” adındaki bir sohbet botunun bir adamın yaşamına son vermesine etkili olduğu iddiaları dikkat çekmişti.

Uzmanlar, bu tür olayların yapay zekanın ruh sağlığı alanındaki kullanımıyla birlikte ciddi etik ve yasal sorunların tartışılmasına yol açtığını vurguluyor.

OpenAI, ChatGPT için yeni güvenlik önlemleri aldı
Yorum Yap
Bizi Takip Edin