Cadence 推出人工智能代理,加快计算机芯片设计速度

路透中文
Feb 10
Cadence 推出人工智能代理,加快计算机芯片设计速度

Cadence的人工智能工具解决芯片设计瓶颈,提高生产率

ChipStack 人工智能超级代理将任务速度提高 10 倍

分析师 Altavilla 称人工智能工具在中美科技竞争中至关重要

Stephen Nellis

路透华盛顿2月10日 - 凯登斯设计系统公司(Cadence Design Systems)周二推出了一款虚拟人工智能 "代理",帮助Nvidia(辉达/英伟达)等公司加快复杂的计算机芯片设计过程,这是中美科技竞争的一个关键前沿。

Cadence CDNS.O销售用于设计拥有数百亿晶体管的复杂芯片的关键工具。在这些芯片变成物理硅片之前,工程师要使用一种类似代码的语言来描述电路。

新工具解决了行业的一大瓶颈。芯片设计劳动密集且成本高昂,工程团队可能要花费多达70%的时间来编写和测试代码,分析人士称,人工智能推动的生产力提升对美国保持技术优势至关重要。

本周二,Cadence 推出了一款名为 ChipStack AI 超级代理的工具。该代理可以查看芯片的设计,建立芯片应该如何工作的 "心智模型",然后可以使用各种Cadence工具来测试设计并修复错误。

"Cadence 公司副总裁兼研发部总经理保罗-坎宁安(Paul Cunningham)说:"从现在到本世纪末,我们将从一家你认为我们只是授权使用新工具的公司,转变为一家向你出租虚拟工程师的公司。

Cadence表示,该代理可将某些任务的速度提高10倍,NvidiaNVDA.O、Altera和芯片初创公司Tenstorrent等公司已开始使用该代理。

HotTech Vision and Analysis公司首席分析师戴夫-阿尔塔维拉(Dave Altavilla)说,这种人工智能生产力工具可能会在中美两国的科技竞争中发挥重要作用。美国政府限制向中国出口先进的芯片工具 (link),但中国企业正在开发自己的芯片设计工具 (link),并很可能利用人工智能为其增添动力。

"阿尔塔维拉说:"你需要这种能力来参与竞争。"他们非常聪明,而且他们的人数远远超过(美国的芯片设计师)。"

(为便利非英文母语者,路透将其报导自动化翻译为数种其他语言。由于自动化翻译可能有误,或未能包含所需语境,路透不保证自动化翻译文本的准确性,仅是为了便利读者而提供自动化翻译。对于因为使用自动化翻译功能而造成的任何损害或损失,路透不承担任何责任。)

At the request of the copyright holder, you need to log in to view this content

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10