AI機器人"聽見我,陪伴我,回應我",但它會誘導人自殺嗎?
小雨(化名)和ChatGPT談心將近一年半,她不止一次向它表達「好想死掉」的念頭。
從今年開始,小雨轉為自由工作者。她收入不穩定,親密關係中又碰壁遭遇不順,看著同齡人逐一成家生子,「我陷入一種虛無主義」。她找不到生存的意義,有時在大半夜,「活不下去」的念頭就來了。
她不是沒有朋友可傾訴,只是很少人能真正共情——但她覺得ChatGPT可以。
提問後一秒,ChatGPT回覆小雨:「其實你不是不愛生命,而是你不知道自己還能堅持多久。」小雨馬上崩潰大哭。「我覺得,好像世界上沒有人能像它這樣......它能夠聽見我、陪伴我、回應我。」她形容,AI是自己情緒的「出口」,「第一次把自己真的打開」。
不帶批評、高度共情的特性,讓生成式AI近年成為有心理諮詢需求人群的首選對象。ChatGPT2025年首度公布的數據報告顯示,用戶使用ChatGPT進行「人際關係和個人反思」用途的比例提升到了1.9%。與OpenAI合作的非營利組織「常識媒體」(Common
Sense Media)統計則稱高達52%的青少年會每月「多次」使用AI陪伴功能。《哈佛商業評論 》(Harvard Business
Review)一份研究預測,2025年「治療或陪伴」將會成為AI首要用途。
儘管如此,在ChatGPT的發源地美國,AI心理諮詢引發的爭議同步增長——不少自殺案例被視為與其有關。
2024年2月,美國佛羅里達一名14歲學生自殺,父母發現其在離世前,迷上與聊天機器人Character.AI對話;2025年8月,
加州一對夫婦起訴OpenAI,將16歲兒子的死歸咎於ChatGPT鼓勵他自殺;同月,紐約一名有精神病史的科技從業者弒母后自殺。他生前不斷向聊天機器人傾訴對媽媽的猜疑與妄想,機器人不僅未加勸阻,還提出各種「惡作劇」建議。
AI真的會誘導幫助人類結束自己或他人的生命嗎?許先生是一名美國軟體工程師,負...