ThroughLine 希望通過人工智能和人力支持打擊極端主義
與 "克賴斯特徹奇呼籲 "合作提供反極端主義指導
新西蘭公司已負責針對心理健康問題的危機應對服務
客戶包括 OpenAI、Anthropic 和谷歌
更新 4 月 2 日的報導,改寫第一段內容
Byron Kaye
路透悉尼4月13日 - ChatGPT和其他人工智能平台上顯示出暴力極端主義傾向的人,將來可能會通過新西蘭正在開發的一種新工具,被引導到基於人類和聊天機器人的去極端化支持中。
面對越來越多指責人工智能公司未能阻止甚至助長暴力的訴訟 (link),該倡議是解決安全問題的最新嘗試。
今年2月,OpenAI被加拿大政府威脅要進行干預 (link),因為該平台在未通知當局的情況下禁止了一名實施致命校園槍擊案的人。
ThroughLine是ChatGPT的所有者OpenAI以及競爭對手Anthropic和谷歌(Google GOOGL.O)近年來聘用的一家初創公司。其創始人兼前青少年工作者埃利奧特·泰勒(Elliot Taylor)表示,該公司會在用戶被標記為有自殘、家庭暴力或飲食失調風險時,將其轉至危機支持,並且還在探索拓寬其服務範圍,以納入預防暴力極端主義的內容。
公司正在與 "克賴斯特徹奇呼籲"(The Christchurch Call)進行討論。泰勒表示,該倡議是在2019年新西蘭發生最嚴重的恐怖襲擊後成立的一個旨在消除網絡仇恨的組織,該組織將在ThroughLine開發干預聊天機器人的同時,提供反極端主義指導。
"泰勒在接受採訪時說:"這是我們希望朝着這個方向邁進的事情,我們希望在這方面做得更好,然後能夠更好地為平台提供支持。"他補充說,目前尚未確定時間表。
OpenAI 確認了與 ThroughLine 的合作關係,但拒絕發表進一步評論。Anthropic和谷歌沒有立即回應置評請求。
泰勒在新西蘭農村的家中經營著自己的公司,該公司提供由 180 個國家的 1,600 個幫助熱線組成的持續檢查網絡,因此成為人工智能公司的首選。
一旦人工智能檢測到潛在的心理健康危機跡象,它就會將用戶引向 ThroughLine,為他們匹配附近可用的人工服務。
但創始人說,ThroughLine 的服務範圍僅限於特定類別。他補充說,隨着人工智能聊天機器人的普及,人們在網上披露的心理健康問題也越來越廣泛,現在還包括傾向極端主義。
更多聊天機器人,更多問題
泰勒說,反極端主義工具很可能是一種混合模式,將經過培訓的聊天機器人與現實世界的心理健康服務轉介相結合,以應對顯示出極端主義跡象的人。
他說,"我們使用的不是基礎 LLM 的訓練數據,"他指的是大型語言模型平台用來形成連貫文本的通用數據集。"我們正在與正確的專家合作。該技術目前正在測試中,但尚未確定發布日期。
代表 "克賴斯特徹奇呼籲"(The Christchurch Call)的反恐顧問蓋倫-蘭菲爾-恩格倫德(Galen Lamphere-Englund)說,他希望能為遊戲論壇的版主以及希望剔除網上極端主義的父母和看護人推出該產品。
昆士蘭科技大學(Queensland University of Technology)的人工智能研究員亨利-弗雷澤(Henry Fraser)說:"聊天機器人重定向工具是一個好主意,也是一個必要的主意,因為它認識到問題不僅在於內容,還在於關係動態。"
他說,該產品的成功可能取決於 "後續機制有多好,它們引導人們解決問題的結構和關係有多好"。
泰勒說,後續功能,包括可能向當局發出的關於危險用戶的警報,仍有待確定,但會考慮到引發行為升級的風險。
他說,處於困境中的人往往會在網上分享他們不好意思對人說的話,如果政府向平台施壓,要求它們切斷參與敏感對話的用戶,就有可能加劇危險。
根據紐約大學斯特恩商業與人權中心 2025 年的一項研究 (link),在執法部門的壓力下,平台加強了對激進行為的控制,這使得同情者轉向了 Telegram 等監管較少的替代品。
"泰勒說:"如果你與人工智能對話並披露危機,它卻關閉了對話,沒有人知道發生了什麼,這個人可能仍然得不到支持。"
(為便利非英文母語者,路透將其報導自動化翻譯為數種其他語言。由於自動化翻譯可能有誤,或未能包含所需語境,路透不保證自動化翻譯文本的準確性,僅是為了便利讀者而提供自動化翻譯。對於因為使用自動化翻譯功能而造成的任何損害或損失,路透不承擔任何責任。)