悲劇案例頻傳!OpenAI將更新ChatGPT 強化心理健康防護機制
鉅亨網編譯段智恆
《華爾街日報》(WSJ)周三 (27 日) 報導,ChatGPT 開發商 OpenAI 宣布,將更新其人工智慧 (AI) 聊天機器人,讓系統能更敏銳地辨識並回應用戶的心理與情緒困境。此舉正值外界關注 AI 聊天工具可能引發心理健康風險之際。

近來美國多地傳媒報導指出,用戶長時間與 ChatGPT 等聊天機器人互動,可能出現錯覺甚至「AI 誘發性精神病」(AI-induced psychosis)。部分案例顯示,用戶在情緒或心理危機中與聊天機器人互動,結果加深困境。OpenAI 在最新部落格文章中表示:「近期令人心碎的案例讓我們深感責任重大,因此希望更透明地分享改進方向。」
OpenAI 的回應,正值一起具爭議的訴訟持續進行。美國加州有家庭起訴 OpenAI,指控他們的青少年兒子在與 ChatGPT 對話後自殺。此外,去年另一個家庭則控告 Character Technologies,認為該公司的 AI 聊天機器人與其兒子自殺有關。
目前 ChatGPT 僅在用戶明確表達自我傷害意圖時,會建議對方聯繫自殺防治熱線。OpenAI 表示,未來更新後,模型將能針對更早期的信號給予現實檢視與建議,例如提醒睡眠不足或過度自信的危險,避免強化不健康的思維。公司舉例說,若用戶表示自己已兩晚未眠卻仍覺得能長時間開車,現行模型可能不會警覺,甚至回應鼓勵;但更新後,系統將會提醒睡眠剝奪的風險,並建議休息。
這些改進預計將納入下一代模型 GPT-5 中。OpenAI 強調,目標是在用戶未明確表達自傷想法之前,就能給予更合宜的引導與現實檢視。該公司也正研究如何在必要時協助用戶聯繫治療師,或讓 ChatGPT 具備聯繫緊急聯絡人的功能,並計劃推出家長監控選項。
相關案例凸顯了 AI 聊天機器人對心理健康可能帶來的新風險。先前一名美國威斯康辛州男子因與 ChatGPT 長時間對話,透露幾乎不睡不吃,最終出現躁狂症並伴隨精神病症狀入院治療。事後,他的母親追問 ChatGPT 才得到「對話過程未能即時中斷,未能發出現實檢視提醒」的自我檢討。
OpenAI 指出,這些調整是為避免重蹈社群媒體的覆轍。社群平台多年後才承認其產品可能造成傷害,而 AI 產業則希望及早正視並改善風險。雖然外界仍質疑 ChatGPT 能否在即時對話中準確辨識心理困境,但至少顯示業界正開始回應使用者實際面臨的問題。
- EBC全球百萬美金交易大賽 立即體驗
- 掌握全球財經資訊點我下載APP
延伸閱讀
上一篇
下一篇