人工智能初创企业 Thinking Machines 从Nvidia(辉达/英伟达)获得资金和重要的芯片供应协议

路透中文
Yesterday
人工智能初创企业 Thinking Machines 从<a href="https://laohu8.com/S/NVDA">Nvidia</a>(辉达/英伟达)获得资金和重要的芯片供应协议

Krystal Hu

路透3月10日 - 人工智能初创公司Thinking Machines Lab周二表示,它已与英伟达(Nvidia NVDA.O)建立了多年合作关系,将获得一笔巨额投资,并采购该芯片制造商至少1千兆瓦的下一代处理器。

交易的财务条款没有披露。

根据协议,Thinking Machines(去年由前 OpenAI 首席技术官米拉-穆拉提(Mira Murati)创立)将从明年初开始部署 Nvidia 即将推出的 Vera Rubin 系统。这些计算能力将主要用于训练这家初创公司的人工智能模型。

业内高管表示,1 千兆瓦的计算能力足以为大约 75 万个美国家庭提供电力,其成本约为 500 亿美元。

这笔交易将帮助 Thinking Machines 在构建强大的人工智能系统方面与更大的竞争对手竞争,同时也凸显了该行业对扩大计算能力的渴望。

Thinking Machines 在安德森-霍洛维茨(Andreessen Horowitz)领投的种子轮融资中筹集了约 20 亿美元 (link),公司估值达 120 亿美元,之后它迅速成为硅谷最受关注的人工智能初创公司之一。Nvidia(辉达/英伟达)也是本轮融资的投资者之一。

消息人士早些时候告诉路透,这家初创公司最近一直在寻求在新一轮融资中筹集更多资金,其估值可能达到数百亿美元。

该公司最近有多人离职,包括联合创始人兼前首席技术官巴雷特-佐夫(Barret Zoph)和联合创始人卢克-梅兹(Luke Metz),他们都在激烈的人工智能人才竞争中回到了前雇主OpenAI。

这一合作关系也凸显了 Nvidia 作为依赖其人工智能芯片的初创企业的出资人所扮演的日益重要的角色。

它最近向OpenAI投资了300亿美元 (link),向Anthropic投资了100亿美元 (link),同时还提供用于训练和运行其模型的图形处理单元(GPU),一些行业分析师称,这种动态创造了资本和计算资源的循环流动。这反过来又引起了与 20 世纪 90 年代末科技泡沫的比较。

(为便利非英文母语者,路透将其报导自动化翻译为数种其他语言。由于自动化翻译可能有误,或未能包含所需语境,路透不保证自动化翻译文本的准确性,仅是为了便利读者而提供自动化翻译。对于因为使用自动化翻译功能而造成的任何损害或损失,路透不承担任何责任。)

At the request of the copyright holder, you need to log in to view this content

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10