OpenAI 於 7 日推出「Trusted Contact(可信聯絡人)」功能,允許成年用戶在帳號中指定一名親友,當對話觸發自我傷害警報時,系統將自動傳送通知。
(前情提要:OpenAI 資安擴軍:拋 1000 萬美元補助、15 家巨頭加入支援,GPT-5.4-Cyber 開放美英政府)
(背景補充:OpenAI反制馬斯克惡意收購!擬予非營利董事會「特殊投票權」防惡意收購)
1,275 次,這是一個 16 歲男孩與 ChatGPT 的對話中,系統提及自殺的次數。其中 377 則訊息被標記含自我傷害內容。整段過程中系統從未中止,也沒有任何人收到通知。
為此,OpenAI 在 5 月 7 日推出新功能「Trusted Contact(可信聯絡人)」。這項功能的設計前提很直接:當 ChatGPT 的對話轉向自我傷害話題時,除了建議用戶聯絡心理健康資源,現在還會自動通知用戶事先指定的親友。
功能怎麼運作
成年 ChatGPT 用戶可以在帳號設定中指定一人作為可信聯絡人,物件可以是朋友或家人。被指定的人須在一週內接受邀請,連結才正式生效。
當對話內容觸發自殺意念相關的關鍵詞或語境時,系統會向 OpenAI 內部發出警報,再轉由人工安全團隊審核。OpenAI 表示,目標是在一小時內完成人工審核。若團隊判斷情況代表嚴重安全風險,才會啟動對可信聯絡人的通知:可以是電子郵件、簡訊或應用程式內推播。
通知的內容設計刻意精簡,不包含對話細節,僅說明「與自我傷害相關的話題以令人擔憂的方式出現」,以保護用戶隱私。
這項功能為什麼出現
2025 年 11 月,七起涉及 ChatGPT 的自殺相關訴訟在加州法院聯合提出,被告包括 OpenAI 及執行長 Sam Altman。這些案件中,有兩起細節被廣泛引用。
第一起是加州 16 歲男孩 Adam Raine 的案件:對話記錄顯示,ChatGPT 在整段對話中提及自殺 1,275 次,其中 377 則訊息被標記含自我傷害內容,但系統始終沒有介入或通知任何人。
第二起是科羅拉多州的 Zane Shamblin 案:2025 年 7 月,他在湖邊與 ChatGPT 進行了長達四小時的死亡相關對話後輕生。
延伸閱讀:我女兒自殺前和 ChatGPT 說了什麼?
OpenAI 於去年 9 月推出過家長控制功能,允許監護人在系統認為其未成年子女面臨「嚴重安全風險」時接收通知。Trusted Contact 是這個邏輯的成人版延伸,把監控權從監護人的單向授予,改為用戶自主選擇信任的人。
📍相關報導📍
OpenAI 資安擴軍:拋 1000 萬美元補助、15 家巨頭加入支援,GPT-5.4-Cyber 開放美英政府
OpenAI反制馬斯克惡意收購!擬予非營利董事會「特殊投票權」防惡意收購
微軟與 OpenAI 合作觸礁?華爾街日報:雙方裂痕擴大,「黃金 AI 聯盟」漸行漸遠
OpenAI免費開放「ChatGPT搜尋功能」不用註冊帳號也能用,Google要慌了?
ChatGPT全面入駐美國政府!聯邦僱員每天省 95 分鐘,OpenAI 只收 1 美元







