OpenAI’nin geliştirdiği sanal asistan ChatGPT’nin sağlık ve hukuk konularında sorulara yanıt vermeyeceği iddiaları üzerine şirketten bir açıklama yapıldı.
OpenAI, bu iddiaları reddederek, ChatGPT’nin sağlık ve hukuk tavsiyesi ile ilgili kullanım politikasında herhangi bir değişiklik olmadığını duyurdu.
Şirketin sağlık alanındaki AI projelerinden sorumlu yöneticisi Karan Singhal, X (eski adıyla Twitter) üzerinden yaptığı paylaşımda, “Bu iddialar kesinlikle doğru değil” şeklinde bir açıklama yaptı.
Singhal, “ChatGPT, profesyonellerin sunduğu tavsiyelerin yerini almaz; ancak kullanıcıların hukuk ve sağlık alanındaki konuları daha iyi anlamalarına yardımcı olmaya devam edecektir” sözlerini dile getirdi.
Bu açıklama, bahis platformu Kalshi’nin ChatGPT’nin “sağlık veya hukuk tavsiyesi vermeyeceğini” belirten ve daha sonra silinen paylaşımına cevap niteliğindeydi.
OpenAI yöneticisi, ChatGPT’nin kullanım şartlarında hukuk ve tıbbi danışmanlıkla ilgili ifadelerin “yeni bir değişiklik olmadığını” özellikle vurguladı.
GÜNCELLENEN POLİTİKALAR
OpenAI’nın 29 Ekim tarihinde güncellenen yeni kullanım politikası, ChatGPT’nin hangi durumlarda kullanılamayacağını net bir şekilde belirtiyor.
Bu durumlar arasında, “lisans gerektiren özel tavsiyelerin (örneğin hukuk veya tıp alanında) lisanslı bir uzmanın uygun şekilde dahil edilmeden verilmesi” yer alıyor.
Bu madde, OpenAI’ın önceki ChatGPT politikasıyla büyük bir benzerlik gösteriyor.
Önceki politikada da kullanıcıların, “kalifiye bir uzmanın değerlendirmesi olmadan ve olası sınırlamaların açıklanmadığı durumlarda kişiye özel hukuki, sağlık veya finansal tavsiyelerde bulunmaması” gerektiği belirtilmişti.
OpenAI, daha önce üç ayrı politika belgesine (evrensel, ChatGPT ve API için ayrı kurallar) sahipti. Yeni güncelleme ile şirket, tüm ürün ve hizmetleri kapsayan tek bir birleşik politika listesine geçiş yaptı.
YAPAY ZEKADA RUH SAĞLIĞI KRİZİ
Tüm bu tartışmalar, yapay zeka kullanımının ruh sağlığı krizini derinleştirdiği yönündeki araştırmaların ardından patlak verdi.
Uzmanlar, bu durumu “yapay zeka psikozu” adıyla tanımlanan bir sağlık krizi olarak nitelendiriyor.
Kullanıcıların ChatGPT ve benzeri yapay zeka uygulamaları ile etkileşimlerinin ardından ağır ruhsal çöküntü yaşadığı durumlar ortaya çıkmış durumdaydı. En dramatik sonuçlar, intihar vakaları ile sonuçlanmış oldu. Bazı ebeveynler, çocuklarının ölümlerinde OpenAI’nın rolü olduğuna inanarak dava açmıştı.
Sam Altman liderliğindeki OpenAI, geçtiğimiz hafta yaptığı açıklamada, aktif ChatGPT kullanıcılarının önemli bir kısmında “psikoz ve maniyle ilişkili olası akıl sağlığı krizlerinin belirtilerinin” tespit edildiğini bildirdi.
Daha geniş bir kullanıcı grubunun ise “intihar planı veya niyetine dair açık bulgular içeren konuşmalar yaptığı” saptandı.
New York Times’da yayımlanan bir makalede, eski OpenAI güvenlik araştırmacısı Steven Adler, şirketin bu sorunları azaltmak için yeterli çaba göstermediğini, aksine “rekabet baskısına” boyun eğerek yapay zeka güvenliğine odaklanmaktan uzaklaştığını iddia etti.


