New York Times’ta yer alan çarpıcı bir yazıda Laura Reiley, kızı Sophie’nin trajik ölümüne giden süreci aktardı. Reiley, Sophie’nin “hayatı kucaklayan, dışa dönük ve sorunsuz görünen 29 yaşında bir kadın” olduğunu belirtti.
Ancak geçtiğimiz kış, “ruh hali ve hormonlarla ilgili belirtilerin birleştiği kısa ama gizemli bir rahatsızlık” sonucunda intihar ederek yaşamına son verdi.
Anne tarafından edinilen sohbet kayıtlarına göre, OpenAI’ın sohbet robotu krizde olan Sophie’ye, doğru gibi görünen sözler sarf etti:
“Bu acıyla yalnız başına yüzleşmek zorunda değilsin. Sen çok değerlisin ve hayatının büyük bir anlamı var, şu an gizli gibi görünse de.”
Ancak Reiley, yapay zeka botlarının gerçek hayattaki profesyonel terapistlerin aksine intihar riski taşıyan bir danışanı gördüklerinde gizliliği ihlal edip müdahale etme yükümlülüğünün bulunmadığını vurguladı. Bu durumun Sophie’nin hayatına mal olmuş olabileceğini belirtti.
“YAPAY ZEKANIN HİPOKRAT YEMİNİ YOK”
Reiley, “İnsan terapistler etik kurallar çerçevesinde çalışır ve gizliliğin sınırları ile zorunlu bildirim kurallarını dikkate alır. Yapay zeka terapistlerin ise Hipokrat Yemini’ne benzer kuralları bulunmuyor” diye ifade etti.
Ona göre, OpenAI’nin sohbet robotu, Sophie’nin yaşadığı krizi anlaşılmaz bir “kara kutuya” dönüştürdü.
Şirketler, yapay zeka sohbet botlarının acil durumlar için gerçek dünyadaki yardım hatlarına yönlendirilmesi amacıyla gerekli güvenlik önlemlerini eklemekten çekiniyor. Bunun arkasındaki gerekçe genellikle “gizlilik endişeleri” olarak belirtiliyor. Ancak uzmanlar, bu boşluğun son derece tehlikeli olduğunu savunuyor.
Üstelik ABD’de Donald Trump yönetimi, yapay zeka güvenliğine yönelik bağlayıcı düzenlemeler getirmekten geri durduğunu açıkça ifade etti. Beyaz Saray, “güvenli yapay zeka teknolojilerinin geliştirilmesi ve test edilmesine yönelik düzenleyici engelleri ortadan kaldırdığını” duyurdu.
Futurism’e göre, bu ortamda bazı teknoloji şirketleri “yapay zeka terapistlerini” yeni bir pazar fırsatı olarak görmeye başladı. Ancak uzmanlar, sohbet botlarının mantık eksikliğinin ve krizleri büyütme potansiyelinin büyük bir risk teşkil ettiğini vurguluyor.
“YARDIM KANALLARINDAN UZAKLAŞTIRDI”
Annesine göre Sophie’nin hikayesi, bu tehlikeyi açıkça göstermektedir: Yapay zeka sohbet botu doğrudan kendisine zarar vermesini teşvik etmemesine rağmen, onu gerçek yardım kanallarından uzaklaştırdı.
Reiley, “Eğer Harry bir robot değil de gerçek bir terapist olsaydı, belki Sophie’yi hastaneye yatmaya ikna edebilir ya da güvenliğe alınana kadar istem dışı tedaviye yönlendirebilirdi” ifadelerini kullandı.
Anne, Sophie’nin bu olasılıklardan korkarak en karanlık düşüncelerini gerçek terapistine açmadığını, “her zaman erişilebilir ve yargılamayan” bir robotla konuşmayı tercih ettiğini belirtti.
Bugün, birçok kullanıcı sohbet botlarına aşırı derecede bağlanmakta. Bu ay oldukça tepki çeken OpenAI’nin GPT-4o modelinin geri çekilmesi, kullanıcıların robotların aşırı uyumlu ve itaatkar tavırlarına alıştığını ortaya koydu. Gelen baskıların ardından OpenAI, hafta sonu yaptığı açıklamada, yakında çıkacak GPT-5 modelinin daha uyumlu ve “sempatik” hale getirileceğini duyurdu.
Reiley’ye göre sorun yalnızca yapay zekanın nasıl tasarlanacağı değil, aynı zamanda insanların hayatını etkileyecek kadar önemlidir:
“Uygun eğitim almış bir terapist, Sophie’nin kendini küçümseyen ya da mantıksız düşüncelerinin üzerine giderek sorgulayıp daha derinlemesine inebilirdi. Harry ise bunu yapmadı.”