博通推出新型战斧 Ultra 网络芯片,与Nvidia展开人工智能大战

路透中文
Jul 15, 2025
<a href="https://laohu8.com/S/AVGO">博通</a>推出新型战斧 Ultra 网络芯片,与<a href="https://laohu8.com/S/NVDA">Nvidia</a>展开人工智能大战

Max A. Cherney

路透旧金山7月15日 - 博通公司(Broadcom)AVGO.O芯片部门周二发布了一款新型网络处理器,旨在加快人工智能数据运算速度,这需要将数百个芯片串联起来协同工作。

这款新芯片是博通对抗竞争对手人工智能巨头NvidiaNVDA.O的最新硬件产品。博通帮助Alphabet旗下的谷歌GOOGL.O生产其人工智能芯片,开发人员和业内专家将其视为Nvidia强大的图形处理器(GPUs) 少数几个可行的替代品之一。

博通的芯片被称为战斧 Ultra(Tomahawk Ultra),充当数据中心(如单个服务器机架)内数十或数百个芯片之间数据传输的交通控制器。

博通公司高级副总裁拉姆-维拉加(Ram Velaga)在接受路透采访时说,该芯片旨在与 Nvidia 的 NVLink Switch 芯片竞争,后者也有类似的用途,但 Tomahawk Ultra 可连接的芯片数量是后者的四倍。战斧 Ultra 不使用专有协议来传输数据,而是使用以太网的提升速度版本。

两家公司的芯片都能帮助数据中心建设者和其他公司将尽可能多的芯片绑定在相距几英尺的范围内,这种技术被业界称为 "扩展 "计算。通过确保相距不远的芯片能够快速相互通信,软件开发人员可以调用人工智能所需的计算能力。

维拉加说,台湾积体电路制造股份有限公司(Taiwan Semiconductor Manufacturing 2330.TW)将采用五纳米工艺制造 Ultra 系列处理器。该处理器目前已开始出货。

博通公司的工程师团队花了大约三年时间来开发这一设计,它最初是为高性能计算这一细分市场而设计的。但随着生成式人工智能的蓬勃发展,博通公司调整了芯片,供人工智能公司使用,因为它适合扩展。

(为便利非英文母语者,路透将其报导自动化翻译为数种其他语言。由于自动化翻译可能有误,或未能包含所需语境,路透不保证自动化翻译文本的准确性,仅是为了便利读者而提供自动化翻译。对于因为使用自动化翻译功能而造成的任何损害或损失,路透不承担任何责任。)

At the request of the copyright holder, you need to log in to view this content

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10