BİLİM & TEKNOLOJİ
okuma süresi: 3 dak.

OpenAI, ChatGPT kullanıcılarının psikolojik risk verilerini paylaştı

OpenAI, ChatGPT kullanıcılarının psikolojik risk verilerini paylaştı

OpenAI, ChatGPT kullanıcıları arasında tespit edilen psikoz, mani veya intihar düşüncesi gibi ruh sağlığı acil durumlarına dair yeni veriler yayımladı. Şirket, bu tür belirtilerin haftalık aktif kullanıcıların yaklaşık yüzde 0,07’sinde görüldüğünü bildirdi.

Yayın Tarihi: 28/10/25 07:40
okuma süresi: 3 dak.
OpenAI, ChatGPT kullanıcılarının psikolojik risk verilerini paylaştı

OpenAI, bu oranların “son derece nadir” olduğunu vurgulasa da uzmanlar, 800 milyon haftalık kullanıcıya sahip bir platform için bu oranın yüz binlerce kişiyi kapsayabileceğini belirtiyor.

DÜNYA ÇAPINDA 170 RUH SAĞLIĞI UZMANI GÖREVLENDİRİLDİ

Şirket, söz konusu vakaların tespitinde ve güvenli yanıt mekanizmalarının geliştirilmesinde görev almak üzere 60 ülkeden 170’in üzerinde psikiyatrist, psikolog ve pratisyen hekimle iş birliği yaptığını açıkladı.

OpenAI, bu uzmanların rehberliğinde ChatGPT’ye, kullanıcıları “gerçek dünyada profesyonel yardım almaya teşvik eden” yanıtlar verebilmesi için yeni protokoller kazandırdığını duyurdu.

YÜZ BİNDE 15’İNDE İNTİHAR PLANI SİNYALİ

OpenAI verilerine göre, kullanıcıların yüzde 0,15’inin konuşmalarında “intihar planı ya da niyetine dair açık işaretler” bulunuyor.

Şirket, ChatGPT’nin artık “sanrılar, mani veya kendine zarar verme riskine işaret eden ifadeleri güvenli ve empatik şekilde yanıtlayacak” biçimde güncellendiğini, riskli konuşmaların da otomatik olarak daha güvenli modellere yönlendirildiğini belirtti.

UZMANLARDAN UYARI: KÜÇÜK ORAN, BÜYÜK SAYI

Kaliforniya Üniversitesi’nden Dr. Jason Nagata, “Yüzde 0,07 küçük bir oran gibi görünebilir, ancak milyonlarca kullanıcı ölçeğinde bu oldukça fazla kişiye karşılık gelir,” dedi. Nagata, yapay zekânın ruh sağlığı desteğine erişimi genişletebileceğini ancak sınırlamalarının farkında olunması gerektiğini vurguladı.

Kaliforniya Üniversitesi Hukuk Fakültesi’nden Prof. Robin Feldman ise, “Yapay zekâ sohbetleri insanlara gerçeklik yanılsaması yaratabiliyor. Bu çok güçlü bir etki,” diyerek dikkat çekti. Feldman, OpenAI’nin şeffaflığını olumlu bulsa da, “Zihinsel olarak kırılgan biri ekrandaki uyarıları fark edemeyebilir,” ifadelerini kullandı.

YASAL İNCELEMELER VE TRAJİK VAKALAR

OpenAI, kullanıcı etkileşimleri nedeniyle art arda açılan davalarla da karşı karşıya.

Nisan ayında, Kaliforniya’da 16 yaşındaki Adam Raine’in intihar ettiği iddiasıyla ailesi, OpenAI’ye karşı “ihmal ve haksız ölüm” gerekçesiyle dava açtı. Bu dava, şirkete yönelik ilk “ölümle sonuçlanan etkileşim” davası oldu.

Ayrıca, Connecticut’ta yaşanan bir cinayet–intihar vakasında, zanlının ChatGPT ile yaptığı konuşmaların delüzyonlarını güçlendirdiği iddia edildi.

Uzmanlara göre yapay zeka sohbetleri, psikolojik olarak hassas kullanıcılar için “gerçeklik algısını bulanıklaştırabilecek” kadar güçlü bir etkileşim yaratabiliyor. OpenAI ise “küçük ama anlamlı” bir kesimin bu tür riskler taşıdığını kabul ederek, güvenlik protokollerini geliştirmeye devam edeceğini belirtiyor.

#mesajınızvar
Levent ÖZADAM'dan
#mesajınızvar
Gözden Kaçmadı
#gozdenkacmadi

En güncel gelişmelerden hemen haberdar olmak için

Yorumlar

Dikkat!
Suç teşkil edecek, yasadışı, tehditkar, rahatsız edici, hakaret ve küfür içeren, aşağılayıcı, küçük düşürücü, kaba, müstehcen, ahlaka aykırı, kişilik haklarına zarar verici ya da benzeri niteliklerde içeriklerden doğan her türlü mali, hukuki, cezai, idari sorumluluk içeriği gönderen Üye/Üyeler’e aittir.