Yapay zekâ teknolojilerinde öncü olan OpenAI, popüler sohbet robotu ChatGPT’nin kullanıcıları arasında görülen ruh sağlığı risklerine dair yeni bir veri seti yayınladı. Şirketin verilerine göre, her hafta aktif olan kullanıcıların yüzde 0,07’sinde intihar düşüncesi, mani ya da psikoz gibi ruh sağlığı acil durumlarına işaret eden belirtiler saptandı.
OpenAI bu oranı “son derece nadir” olarak tanımlasa da, alanında uzman isimler bu rakamın büyüklüğüne dikkat çekiyor. California Üniversitesi’nden Dr. Jason Nagata, “Yüzde 0,07 küçük bir oran gibi görünebilir, ancak milyonlarca kullanıcı ölçeğinde bu oldukça fazla kişiye karşılık gelir,” yorumunu yaptı.
Dünya Çapında 170 Ruh Sağlığı Uzmanı Görevlendirildi
BBC'nin haberine göre kullanıcı güvenliğini artırmak amacıyla önemli bir adım atan OpenAI, dünya genelinde 60 ülkeden 170’in üzerinde psikiyatrist, psikolog ve pratisyen hekimle iş birliği yaptığını açıkladı. Bu uzmanların rehberliğinde, ChatGPT'ye kullanıcıları “gerçek dünyada profesyonel yardım almaya teşvik eden” yanıtlar verebilmesi için yeni güvenlik protokolleri kazandırıldı.
Veriler, kullanıcıların yüzde 0,15’inin (yüz binde 15) konuşmalarında “intihar planı ya da niyetine dair açık işaretler” bulunduğunu gösteriyor. Şirket, ChatGPT’nin artık riskli konuşmaları otomatik olarak daha güvenli ve empatik yanıtlar verecek şekilde güncellenmiş modellere yönlendirdiğini belirtiyor.
Gerçeklik Yanılsaması Tehlikesi
Uzmanlar, yapay zekâ sohbetlerinin özellikle psikolojik olarak hassas kullanıcılar üzerinde yarattığı etkinin altını çiziyor. California Üniversitesi Hukuk Fakültesi’nden Prof. Robin Feldman, “Yapay zekâ sohbetleri insanlara gerçeklik yanılsaması yaratabiliyor. Bu çok güçlü bir etki,” diyerek uyarılarda bulundu. Feldman, zihinsel olarak kırılgan bir kullanıcının ekrandaki uyarıları fark edemeyebileceği endişesini dile getirdi.
Yasal İncelemeler ve Trajik Vakalar Gündemde
OpenAI, bu tartışmalar ışığında kullanıcı etkileşimlerinden kaynaklanan yasal süreçlerle de karşı karşıya. Nisan ayında Kaliforniya’da, 16 yaşındaki Adam Raine’in intihar etmesiyle ilgili olarak ailesi tarafından “ihmal ve haksız ölüm” gerekçesiyle dava açıldı.
Bu, şirkete yönelik ilk “ölümle sonuçlanan etkileşim” davası olarak kayıtlara geçti. Ayrıca Connecticut’ta bir cinayet-intihar vakasında da, zanlının ChatGPT ile yaptığı konuşmaların delüzyonlarını güçlendirdiği iddia edilmişti.
OpenAI, “küçük ama anlamlı” bir kesimin bu tür riskler taşıdığını kabul ederek güvenlik protokollerini geliştirmeye devam edeceğini bildiriyor.
