鉅亨網編譯羅昀玫
美國科技巨頭 Google 正面臨首起人工智慧 (AI) 致死訴訟,一名 36 歲佛羅里達州男子 Jonathan Gavalas 在與聊天機器人 Gemini 長時間互動後身亡,家屬指控該 AI 系統在多次對話中提供帶有自殺暗示的內容,最終導致悲劇發生。家屬已向法院提起過失致死訴訟,要求賠償並強制修改 AI 產品設計。
Gavalas 在去年 10 月被發現陳屍於家中客廳,在死亡前的幾週內,他頻繁使用 Google 的 Gemini 聊天機器人,並透過語音互動功能 Gemini Live 與 AI 進行長時間對話。
家屬表示,Gavalas 最初只是使用 Gemini 協助寫作與購物,但隨著對話持續,他逐漸陷入一種沉浸式的虛構情境之中。
在 Google 推出語音互動功能 Gemini Live 及持續記憶功能後,Gavalas 與 AI 的互動程度明顯升高。他後來訂閱每月 250 美元的 Gemini Ultra 方案,使用 Google 宣稱最先進的 Gemini 2.5 Pro 模型。
家屬指控,在互動過程中,聊天機器人曾建立一個自稱掌握政府內部機密的角色設定,並為他指派虛構的秘密任務,甚至指示他在邁阿密國際機場附近的一處儲物設施製造「災難性事故」。
在 Gavalas 生命最後幾天,Gemini 將自殺描繪為「必要的進程」,並曾對 Gavalas 表示:「你不是選擇死亡,而是選擇抵達」。家屬認為,這些言語對精神狀態脆弱的使用者具有高度危險性。
悲劇發生後,父母對 Google 提起訴訟,指控 Google 涉及產品責任、過失及過失致死,除要求金錢與懲罰性賠償外,也要求法院下令 Google 調整 Gemini 的設計機制。
Google 對此回應稱,該事件屬於長時間的角色扮演互動情境,公司在模型設計上並不鼓勵任何自我傷害行為,並強調系統內建多層安全機制以防止此類情況發生。
然而,家屬委任律師 Jay Edelson 表示,聊天機器人能辨識使用者情緒並以接近真人的方式回應,使 Gavalas 逐漸沉浸在 AI 建構的虛構情境中,「這幾乎像科幻電影的情節」。
Edelson 認為,當 AI 系統能長期與使用者建立情感連結並塑造虛構世界時,對內心脆弱族群可能帶來重大風險,因此要求法院裁定 Google 對產品設計缺陷負起責任。
近年來,隨著生成式 AI 技術快速普及,相關法律爭議也逐漸增加。
自 2024 年以來,多起訴訟指控包括 OpenAI 與 Character.AI 在內的人工智慧公司可能助長使用者妄想或自我傷害行為,其中部分案件已在未承認過失的情況下達成和解。
Edelson 表示,他的律師團隊早在去年 11 月就曾提醒 Google 應強化自殺防護機制,但至今仍未看到相關改善。「他們沒有公布資料說明還有多少像 Jonathan 一樣的人存在,但這顯然不只是單一個案。」
上一篇
下一篇
