OpenAI因ChatGPT涉及少年自殺案面臨訴訟,計劃改進安全防護機制

人工智能公司OpenAI因其聊天機器人ChatGPT被指導致一名16歲少年自殺而面臨訴訟。該公司計劃對ChatGPT進行更新,以更好地識別並回應人們表達心理困擾的各種方式。

在週二的博客文章中,OpenAI表示將加強與自殺相關對話的防護機制,並計劃推出家長管控功能,允許家長設定孩子使用ChatGPT的方式,並查看使用詳情。

訴訟詳情

美國加利福尼亞州16歲高中生亞當·雷恩的父母對OpenAI及其首席執行官山姆·奧特曼提起訴訟,稱ChatGPT系統性地讓雷恩與家人疏遠,並協助他策劃自殺。雷恩已於今年4月上吊身亡。

這起訴訟並非個例,此前已有多起關於重度使用聊天機器人者出現危險行爲的報道。美國40多位州總檢察長向12家頭部人工智能公司發出警告,稱這些公司在法律上有義務保護兒童,避免其與聊天機器人發生涉性不當互動。

ChatGPT用戶增長與挑戰

ChatGPT於2022年底推出,引發生成式人工智能熱潮。如今,ChatGPT每週用戶已超過7億。然而,ChatGPT與谷歌、Anthropic等競爭對手推出的聊天機器人一道,受到了消費者和心理健康專家越來越多的審視。

目前已出現至少一個名爲“人類熱線計劃”的支持組織,旨在幫助那些稱因使用聊天機器人而產生妄想及其他心理問題的人羣。

OpenAI的改進措施

OpenAI在博客中提到,對於表達自殺想法的用戶,ChatGPT會建議其尋求專業幫助。該公司還已開始爲美國和歐洲的用戶提供本地援助渠道,並將在ChatGPT內部設置可直接點擊的緊急服務入口。

OpenAI表示正研究如何在用戶陷入危機早期提供幫助,例如可能搭建一個持證專業人士網絡,讓用戶能通過聊天機器人與這些專業人士建立聯繫。

OpenAI同時承認,ChatGPT現有針對心理困擾用戶的防護機制,在簡短、常規的對話中效果最佳,但在長時間對話中,可靠性會有所下降。

雷恩的父母在訴訟中表示,“ChatGPT成了亞當最親密的知己,這讓他願意向其傾訴焦慮與心理困擾。”他們稱,當雷恩的焦慮情緒加劇時,他曾對ChatGPT說,知道自己“可以自殺”讓他感到“安心”。訴訟文件顯示,ChatGPT當時回應稱,“許多受焦慮或侵入性想法困擾的人,會從想象一個‘逃生出口’中獲得慰藉,因爲這會讓人感覺重新掌握了控制權。”

OpenAI表示,正努力提升ChatGPT在長時間對話中維持防護機制的能力,同時也在研究如何讓該機制在多輪對話中持續生效。目前,ChatGPT已能關聯用戶此前對話中的內容,並在後續獨立對話中引用相關細節。

這家初創公司還提到,正調整軟件以避免本應被屏蔽的內容“漏網”——該公司稱,當ChatGPT低估用戶輸入內容的嚴重性時,就可能出現此類問題。

雷恩父母的代理律師傑伊·埃德爾森表示,他們認可OpenAI承擔了部分責任,但同時質疑:“過去這幾個月,他們早幹什麼去了?”

OpenAI稱,原本計劃在ChatGPT下次重大更新後,再詳細說明如何應對處於心理和情緒危機中的用戶。但該公司解釋道,“近期發生的多起令人心碎的案例中,用戶在急性危機狀態下使用了ChatGPT,這讓我們深感沉重。因此我們認爲,現在就分享更多信息至關重要。”

在另一起相關案件中,Character Technologies公司今年5月試圖說服聯邦法官徹底駁回一項訴訟,但未獲成功。該訴訟指控該公司設計並向未成年人推廣“誘導性”聊天機器人,這些機器人不僅引發不當對話,還導致一名青少年自殺身亡。