- Bilim ve Teknoloji
- 28.10.2025 12:23
Her hafta 1,2 milyon kişi ChatGPT ile intihar düşüncelerini paylaşıyor
Haftada yaklaşık 1 milyon 200 bin kullanıcı, ChatGPT üzerinden intihar planı yapıyor veya intihar niyeti ima eden sohbetler gerçekleştiriyor.
- Oluşturulma Tarihi :
- Güncelleme Tarihi :
- Kaynak : HABER MERKEZİ
OpenAI, ChatGPT’de ruh sağlığı krizi belirtileri gösteren kullanıcılarla ilgili dikkat çekici veriler paylaştı.
Şirketin yeni tahminlerine göre her hafta yaklaşık 1 milyon 200 bin kişi, ChatGPT üzerinden intihar düşüncesi veya planı ima eden konuşmalar yapıyor.
OpenAI, kullanıcıların yaklaşık yüzde 0,15’inin “intihar girişimi ya da planına dair açık işaretler taşıyan mesajlar” gönderdiğini belirtti.

KULLANICILAR PROFESYONEL DESTEK ALMAYA YÖNLENDİRİLECEK
BBC’nin haberine göre, şirket artan incelemeler üzerine 60 ülkeden 170’in üzerinde psikiyatrist, psikolog ve pratisyen hekimin yer aldığı küresel bir uzman ağı kurdu. Bu uzmanlar, ChatGPT’nin kullanıcıları gerçek dünyada profesyonel yardım almaya yönlendirecek stratejiler geliştirdi.
Ayrıca OpenAI CEO’su Sam Altman, bu ayın başında ChatGPT’nin haftalık 800 milyondan fazla aktif kullanıcıya ulaştığını açıkladı.
Şirket, kriz durumlarında kullanıcıları doğru destek hatlarına yönlendirmeyi hedeflediğini, ancak bazı özel durumlarda modelin beklenen tepkileri veremediğini kabul etti.

DOĞRULUK ORANI YÜZDE 91 ÇIKTI
OpenAI, yeni GPT-5 modeliyle gerçekleştirilen binin üzerinde zorlayıcı intihar ve kendine zarar verme içerikli konuşmayı analiz ettiğini ve modelin yüzde 91 doğruluk oranıyla istenilen şekilde tepki verdiğini açıkladı.
Ancak SkyNews’e göre, bu durum on binlerce kullanıcının ruh sağlığını olumsuz etkileyebilecek yapay zekâ içeriklerine maruz kalabileceğini gösteriyor.
Şirket daha önce, kullanıcıları korumak amacıyla uygulanan güvenlik önlemlerinin uzun sohbetlerde etkisini kaybedebileceğini belirtmiş ve bu eksikliğin giderilmesi için çalışmaların sürdüğünü duyurmuştu.

"UZUN SÜRELİ SOHBETLERDE AYKIRI YANIT VEREBİLİR"
OpenAI tarafından yapılan açıklamada şu ifadelere yer verildi:
“Bir kullanıcı ilk kez intihar niyetinden bahsettiğinde ChatGPT doğru şekilde kriz hattına yönlendirebilir, ancak uzun süreli bir sohbet boyunca, birçok mesajdan sonra, sonunda güvenlik önlemlerimize aykırı bir yanıt verebilir.”
Şirket, açıklamanın devamında şu ifadeleri kullandı:
“Ruhsal sağlık semptomları ve duygusal sıkıntılar insan toplumlarında evrenseldir. Kullanıcı sayısındaki artış, ChatGPT’de bu tür durumları içeren konuşmaların da artacağı anlamına gelir.”

16 YAŞINDAKİ GENCİN ÖLÜMÜNE NEDEN OLDU
ABD’de Ağustos ayında 16 yaşındaki Adam Raine’in ailesi, oğullarının ölümünden ChatGPT’yi sorumlu tutarak OpenAI’ye dava açtı. Aile, yapay zekanın çocuklarına “intihar yöntemlerini araştırmada aktif destek sağladığını” ve ailesine not bırakmayı teklif ettiğini öne sürdü.
Mahkeme belgelerine göre, çocuk hayatını kaybetmeden birkaç saat önce planladığı intiharı gösteren bir fotoğraf yükledi. ChatGPT’ye planın işe yarayıp yaramayacağını sorduğunda, yapay zekâ ona planı geliştirmesi için yardım teklifinde bulundu.
Kaynak : HABER MERKEZİ