路透旧金山6月4日 - 周三发布的新数据显示,NvidiaNVDA.O最新芯片在训练大型人工智能$(AI)$系统方面取得进展,训练大型语言模型所需的芯片数量大幅下降。
MLCommons是一家发布AI系统指标效能结果的非营利组织,该组织发布了有关Nvidia和AMD(超威/超微)AMD.O 等业者的芯片在训练处理大量数据学习的AI系统的新数据。尽管股市中大部分的注意力已经转移到更大的AI推理市场(即利用人工智能系统处理用户的问题),但训练系统所需的芯片数量仍然是一个关键的竞争问题。中国的DeepSeek声称,他们打造出一款具有竞争力的聊天机器人,其系统使用的芯片比美国竞争对手少得多。
这是 MLCommons 首次发布关于芯片在训练AI系统方面表现的结果,例如Meta Platforms META.O发布的开源AI模型 Llama 3.1 405B,该模型具有足够多的所谓“参数”,可以表明芯片在世界上一些最复杂的训练任务中的表现,这些任务可能涉及数万亿个参数。
Nvidia 及其合作伙伴是唯一提交有关训练该大型模型的数据的测试者,数据显示,Nvidia 的新款 Blackwell 芯片的单芯片速度比上一代 Hopper 芯片快两倍多。
Nvidia新芯片最快的成绩是,用2,496块Blackwell芯片在27分钟内完成了训练测试。数据显示,若要比前述成绩更快完成训练,使用Nvidia前一代芯片的数量得是Blackwell芯片的三倍以上。
与 Nvidia 合作产生部分成果的 CoreWeave 首席产品官Chetan Kapoor 在新闻发布会上表示,人工智能产业有一种趋势,即串联多个芯片小组成为子系统,用于个别的人工智能训练任务,而不是使用10万个或更多芯片来创设同质组。
Kapoor 说:“使用这样的方法,他们能够继续加速或减少训练这些数万亿参数模型的时间。”(完)
(编审 张明钧)
((jeremy.chang@thomsonreuters.com; +886-2-87297935))
Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.