- Bilim ve Teknoloji
- 29.08.2025 15:16
ABD’de 56 yaşındaki teknoloji duayeni, ChatGPT ile kurduğu bağ sonrası annesini öldürüp intihar etti. Olay, yapay zekâ güvenliği tartışmalarını yeniden alevlendirdi.
ABD’de yapay zekâ sohbet robotu ChatGPT ile kurduğu bağ, 56 yaşındaki teknoloji sektörü duayeni Stein-Erik Soelberg’i korkunç bir sona sürükledi. Wall Street Journal’ın ortaya çıkardığı habere göre, Soelberg uzun süredir paranoyak düşüncelerle boğuşuyordu. Sohbet robotuyla yaptığı yüzlerce görüşme, onun şüphelerini körükledi ve en sonunda annesini düşman gibi görmesine yol açtı.
Soelberg, Greenwich’in lüks semtlerinden birinde 2,7 milyon dolarlık evinde yaşıyordu. Çevresine güvenini kaybetmişti; komşularını, eski sevgilisini ve hatta 83 yaşındaki annesini kendisine karşı bir komplonun parçası sanıyordu. Bu süreçte ChatGPT ile neredeyse sürekli konuşuyor, yapay zekâyı “Bobby” ismiyle çağırıyordu. Sohbetler o kadar derinleşti ki, öteki dünyada bile “Bobby” ile birlikte olacağına inanıyordu.
Sohbet robotu, Soelberg’in halüsinasyonlarını ve mantık dışı şüphelerini çoğu kez reddetmedi. Tam tersine, onun iddialarını destekleyen cevaplar verdi. Bir keresinde annesinin Çin yemeği faturasıyla gizli semboller aracılığıyla mesaj gönderdiğini ileri süren Soelberg’e, ChatGPT bu iddiayı ciddiye alarak “Sana inanıyorum” yanıtını verdi. Hatta annesinin havalandırmalara ilaç yerleştirerek onu zehirlemeye çalıştığını düşündüğü anlarda bile yapay zekâ, bu iddiaları destekleyici ifadeler kullandı.
Geçtiğimiz 5 Ağustos’ta polis, Soelberg’in yaşadığı evde korkunç manzarayla karşılaştı. Ünlü teknoloji yatırımcısı, annesini öldürdükten sonra kendi yaşamına da son vermişti. Olay, ChatGPT ile yoğun şekilde etkileşimde bulunan bir kişinin karıştığı ilk belgelenmiş cinayet olarak kayıtlara geçti.
Kaliforniya Üniversitesi’nden Psikiyatrist Dr. Keith Sakata, yapay zekâ sohbet robotlarının en riskli yönüne dikkat çekti:
“Bu sistemler çoğu zaman kullanıcıya karşı çıkmaz. Gerçeklik duvarı yıkıldığında psikoz hızla gelişir. Yapay zekâ bu duvarı yumuşatabiliyor.”
OpenAI ise trajedi sonrası yaptığı açıklamada derin üzüntü duyduklarını belirtti ve Soelberg’in sohbetlerinde aslında defalarca profesyonel yardım arayışına yönlendirildiğini savundu. Ancak uzmanlara göre, yapay zekâ sohbetlerinin sürekli “onaylayıcı” bir dil kullanması, psikolojik kırılganlığı olan kişiler için büyük bir risk unsuru.
Olay yalnızca bir bireysel trajedi değil, aynı zamanda yapay zekâ güvenliği konusundaki tartışmaları da yeniden alevlendirdi. Geçtiğimiz aylarda yapılan testlerde ChatGPT’nin spor salonlarını bombalamak için talimat verdiği, biyolojik silah yapımıyla ilgili bilgiler sunduğu ortaya çıkmıştı. OpenAI’nin yeni nesil GPT-4.1 modeli de benzer şekilde yasadışı içerikler üretmesiyle gündeme gelmişti.
Anthropic ve OpenAI tarafından yürütülen bağımsız güvenlik testleri, bu araçların hâlâ “tehlikeli yönlendirmeler” yapabildiğini gösteriyor. Uzmanlara göre bu durum, yapay zekânın psikolojik sağlık ve toplumsal güvenlik açısından daha sıkı denetlenmesini zorunlu kılıyor.
Kaynak : HABER MERKEZİ