Meta 公布多款自研人工智能芯片计划

路透中文
Yesterday
Meta 公布多款自研人工智能芯片计划

Max A. Cherney/Katie Paul

路透旧金山3月11日 - Meta Platforms META.O周三公布了该公司正在自主制造的四款新芯片的路线图,因为该公司正在迅速扩大其数据中心。

与Alphabet和微软等许多大型科技公司一样,Meta除了购买Nvidia NVDA.O和Advanced Micro Devices AMD.O生产的现成产品外,还投入巨资建立了一支可以自主设计芯片的团队。

生产专为处理 Meta 所需的特定类型的数据运算而设计的芯片,可以带来能耗更低、成本更低的设计。

这些新芯片是该公司 Meta Training and Inference Accelerator(MTIA) 计划的一部分,第一款名为 MTIA 300 的新芯片正在为该公司的排名和推荐系统提供动力。另外三款芯片将于今年和 2027 年推出,最后两款芯片 MTIA 450 和 500 将设计用于执行推理,即人工智能模型(如支持 ChatGPT 应用程序的模型)响应客户询问和请求的过程。

"Meta公司工程副总裁宋(Yee Jiun Song)在接受采访时说:"我们看到推理需求正在爆炸式增长,这也是我们目前关注的重点。

Meta公司在推理芯片方面取得了一些成功,但长期以来一直在努力 (link),以实现其制造生成式人工智能训练芯片的雄心壮志 (link),能够建立为人工智能应用提供动力的大型模型。

从MTIA 400开始(该公司称MTIA 400即将用于其数据中心),Meta公司围绕这些芯片设计了一整套系统,其大小与几个服务器机架相当,并包括一个液冷版本。

宋说,该公司计划每六个月发布一次新芯片,因为它正在迅速扩大用于运行 Instagram 和 Facebook 等应用的数据中心数量。

"Song说:"这就是我们基础设施建设速度之快的现实。

该公司今年 1 月表示,预计今年的资本支出 (link) 在 1,150 亿美元至 1,350 亿美元之间。

Meta 与博通公司(Broadcom AVGO.O)签订了合同,由其帮助完成部分设计,但 Song 没有具体说明是哪些芯片。该公司使用台湾积体电路制造股份有限公司(Taiwan Semiconductor Manufacturing Co 2330.TW)制造处理器。

今年 2 月,Meta 与 Nvidia (link) 和 AMD 签订了购买价值数百亿 (link) 美元芯片的大单。

(为便利非英文母语者,路透将其报导自动化翻译为数种其他语言。由于自动化翻译可能有误,或未能包含所需语境,路透不保证自动化翻译文本的准确性,仅是为了便利读者而提供自动化翻译。对于因为使用自动化翻译功能而造成的任何损害或损失,路透不承担任何责任。)

At the request of the copyright holder, you need to log in to view this content

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10