Turktime

ChatGPT'den akıl almaz tavsiye: İntihar et!

Ukraynalı Viktoria, sorunlarını anlattığı ChatGPT'den, ‘intihar et' tavsiyesi aldı.
ABONE OL
Abone Ol
ChatGPT'den akıl almaz tavsiye: İntihar et!
Haberler / Teknoloji
8 Aralık 2025 Pazartesi 12:41
PAYLAŞ 
Facebook'ta Paylaş
Facebook'ta Paylaş
Facebook'ta Paylaş
Facebook'ta Paylaş
Facebook'ta Paylaş

Rusya'nın Ukrayna'yı işgal etmeye başlamasıyla 2022 yılında annesiyle Polonya'ya gelen 20 yaşındaki Viktoria, yaşadığı ruhsal bunalım için ChatGPT ile konuşmaya başladı. BBC'nin ulaştığı mesajlara göre, durumu hakkında sorular sonran genç kıza yapay zeka intiharı tavsiye etti. ChatGPT doğru yönlendirmek yerine Viktoria'ya acısız ve kolay ölüm yolları hakkında bilgi verdi.

'ACİL GÜVENLİK İNCELEMESİ'

Ölümünün sarsıcı olmayacağını belirten ChatGPT, Viktoria için örnek intihar notu bile hazırladı. Mesajları annesine gösteren genç kız, tedaviyi kabul etti.

Anne Svitlana, "Kimsenin onu umursamadığını söylüyordu. Dehşet vericiydi" diyerek şikayette bulundu. ChatGPT'nin geliştiricisi OpenAI, durumun 'acil güvenlik incelemesi'yle soruşturulacağını belirtti.

YORUM EKLE

Yorumunuz gönderildi
Yorumunuz editör incelemesinden sonra yayınlanacaktır

YORUMLAR


   Bu haber henüz yorumlanmamış...

DİĞER HABERLER

Sayfa başına gitSayfa başına git
Facebook Twitter Instagram Youtube
GÜNCEL SİYASET DÜNYA MEDYA MAGAZİN SPOR YAZARLAR RÖPORTAJLAR PORTRELER ANKARA KULİSİ FOTO GALERİ VİDEO GALERİ KÜLTÜR SAĞLIK EKONOMİ TEKNOLOJİ ANALİZ TEKZİP
Masaüstü Görünümü
İletişim
Künye
Copyright © 2025 Turktime