OpenAI 警告说,新模型会带来 "高 "网络安全风险

路透中文
Dec 11, 2025
更新 2-OpenAI 警告说,新模型会带来 "高 "网络安全风险

改写第一段,从第五段起增加细节

路透12月10日 - OpenAI 周三警告说,其即将推出的人工智能模型可能会带来 "高度 "网络安全风险,因为它们的能力正在迅速提升。

这家 ChatGPT 制造商在一篇博文中说,人工智能模型可能会针对防御良好的系统开发出有效的零日远程漏洞,或者协助复杂的企业或工业入侵行动,以达到现实世界的效果。

OpenAI 表示,随着能力的提升,它正在 "投资加强防御网络安全任务的模型,并创建工具,使防御者能够更轻松地执行工作流程,如审核代码和修补漏洞"。

OpenAI 表示,为了应对网络安全风险,该公司正在将访问控制、基础设施加固、出口控制和监控结合起来。

这家由微软MSFT.O支持的公司表示,它将很快推出一项计划,探索为从事网络防御工作的合格用户和客户提供分级访问增强功能。

OpenAI 还将成立一个名为 "前沿风险委员会"(Frontier Risk Council)的咨询小组,让经验丰富的网络防御者和安全从业人员与其团队密切合作。

该小组将首先关注网络安全,未来将扩展到其他前沿能力领域。

(为便利非英文母语者,路透将其报导自动化翻译为数种其他语言。由于自动化翻译可能有误,或未能包含所需语境,路透不保证自动化翻译文本的准确性,仅是为了便利读者而提供自动化翻译。对于因为使用自动化翻译功能而造成的任何损害或损失,路透不承担任何责任。)

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10