智通财经APP获悉,为OpenAI、微软以及谷歌等AI应用巨头们提供强大AI算力资源的“云端算力租赁”领军者CoreWeave(CRWV.US)表示,随着该公司在美国各地扩大AI算力基础设施容量,计划投资高达60亿美元在宾夕法尼亚州兰开斯特建立一座大型AI数据中心。
CoreWeave此举公布之际恰逢“AI芯片霸主”英伟达(NVDA.US)恢复H20 AI GPU在中国市场的销售,以及Facebook母公司Meta(META.US)计划投资数千亿美元来建设多座超大型AI数据中心,用于支持其人工智能技术更新迭代,目标是实现通用人工智能(即AGI),其中首个数据中心预计将于明年投入使用,以及全球云计算巨头亚马逊AWS宣布与韩国的SK 集团达成了一项扩大化的合作协议,根据该协议,AWS将在韩国建设一个高达100兆瓦(MW)规模的韩国最大规模数据中心。
“AI信仰”震撼全世界
全球持续井喷式扩张的AI算力需求,加之这些科技巨头们不断斥巨资投入建设大型数据中心,意味着对于长期钟情于英伟达以及AI算力产业链的投资者们来说,席卷全球的“AI信仰”对于算力领军者们的股价“超级催化”远未完结,“AI总龙头”英伟达的市值冲5万亿美元市值之路正式扬帆启航,在一家华尔街投资机构看来甚至有望冲击6万亿美元。
CoreWeave首席执行官迈克尔·因特拉托(Michael Intrator)在最新采访中表示,CoreWeave 预计初期将开发100兆瓦的算力资源容量,并可能在未来一段时间扩至300兆瓦容量。因特拉托将于周二在匹兹堡与美国总统唐纳德·特朗普共同出席的一场首席执行官圆桌会议上正式宣布这些数据中心项目。该设施将于建设期间在当地创造600个高薪工作岗位,正式投入运营后提供175个长期职位。
因特拉托表示,计划在数据中心配置未来数年将推出的下一代性能更加强大的英伟达AI GPU以及英伟达 NVL AI服务器机架,以便从大西洋中部各州训练和运营所需AI算力资源无比庞大的“全球最大规模的AI大模型”。据悉,有着“英伟达亲儿子”称号的CoreWeave已经成为首批部署英伟达Blackwell Ultra 架构GB300 NVL72 AI服务器系统的AI算力提供商。
CoreWeave 上周同意以大约90亿美元收购数据中心运营商Core Scientific Inc.,该公司正在扩大其主要位于美国的高性能站点网络,以满足大型云服务提供商们和AI大模型开发者们租赁最新AI算力设备的愈发强劲需求。
“我们看到对于更大规模算力资源部署的持续需求,”因特拉托表示。“三年前还是10兆瓦基础设施,然后变成100兆瓦。如今的讨论已逐渐指向吉瓦级别。”一座吉瓦级的电力系统设施可为大约75万户美国家庭供电。
首批100兆瓦数据中心预计将于2026年向客户们开放,因特拉托预计该算力工厂的产能“将备受需求端追捧”。CoreWeave 将成为兰开斯特大型站点的承租方,该站点由 Chirisa Technology Parks以及Machine Investment Group 共同开发。
得益于市场对AI算力需求的愈发乐观预期,CoreWeave已成为华尔街宠儿。自3月登陆美股上市以来,该公司股价已涨逾三倍,周一收于 132.37 美元。周二盘前交易中,在该公司加码布局AI数据中心的消息,以及市场对于AI算力需求愈发强劲的预期推动下,股价一度上涨超9%。
有着“英伟达亲儿子”称号的AI云算力租赁巨头CoreWeave
CoreWeave 的计划属于特朗普周二宣布的约700亿美元AI与能源总投资的一部分,这是他推动美国加速发展人工智能技术的最新举措。今年早些时候,软银集团(SoftBank Group Corp.)、OpenAI以及云计算领军者甲骨文公司(Oracle Corp.)联合宣布在白宫投资1000亿美元的“星际之门”项目,大举兴建超大规模AI数据中心。
作为数据中心领域英伟达图形处理器(即GPU)的最早期采用者,CoreWeave凭借抢跑数据中心AI算力资源需求浪潮,喜获英伟达的风投部门青睐,甚至能够优先获得需求极度旺盛的英伟达H100/H200以及Blackwell系列AI GPU,曾迫使微软等云服务巨头向CoreWeave租赁算力资源,喜提“英伟达亲儿子”这一称号。
早在2023年8月,CoreWeave成为首家部署NVIDIA H200 Tensor Core GPU的云计算服务公司,这是一款高性能的AI GPU,这使得它能够为客户们提供无比强大的计算能力。在AI浪潮推动下,尤其是2023年,依靠大量采购高端NVIDIA AI GPU(比如H100/H200)及与英伟达在CUDA软硬件协同生态系统的全面合作,CoreWeave在云端AI GPU算力市场的知名度迅速提升。
CoreWeave AI云算力租赁服务最突出的特点是专注大批量提供最高端AI GPU(尤其是NVIDIA GPU)集群,让用户们可以在云端按需获取高性能 AI GPU算力资源——即云端AI算力资源,用于机器学习、深度学习以及推理等AI工作负载。CoreWeave支持大规模的弹性部署,用户们可以根据项目需求快速增减AI GPU数量,适合AI模型训练(如大语言模型、计算机视觉体系等)以及需要实时处理的庞大推理工作负载。除AI外,CoreWeave的NVIDIA AI GPU资源也可用于传统的HPC场景(科学计算、分子模拟、金融风险分析等)。
Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.