SuperX发布模块化AI工厂解决方案,以预计6个月内的部署周期重塑AI基础设施建设

美通社
Oct 01, 2025

通过"算力+冷却+电源"全栈集成,为全球客户提供颠覆性的部署速度、成本效益与能源效率

新加坡2025年10月1日 /美通社/ -- Super X AI Technology Limited(纳斯达克代码:SUPX)(以下简称"公司"或"SuperX")今日发布其数据中心级解决方案——SuperX模块化AI工厂。该解决方案旨在彻底解决传统AI数据中心建设周期长、成本高、能耗大、扩展难的核心痛点,为AI时代的算力部署提供了一种颠覆式的创新解决方案。

SuperX模块化AI工厂:全栈式解决方案

随着全球企业竞相部署大模型应用,对AI基础设施的需求呈指数级增长。然而,传统数据中心长达约18-24个月的建设周期已成为制约AI发展的关键瓶颈。SuperX模块化AI工厂通过将算力、冷却和电源系统在工厂进行预制化和深度集成,并通过减少楼宇建设工程量,预计可将现场交付和部署时间缩短至6个月以内,使客户能够以最快速度抢占市场先机。

核心优势一览:

特征

关键指标

价值阐述

超高密度算力

单模块最高可达 20MW;配置6个SuperX NeuroBlock核心算力单元(最高支持144台NVIDIA GB300 NVL72[1]

可承载新一代 AI 负载,实现高度集中的算力密度

超级灵活扩展

模块化架构,支持1→N弹性部署

按需扩建,随业务增长而拓展

三位一体全栈

"算力 + 冷却 + 电源" 一体化

提供高性能 AI 服务器、高密度液冷及 HVDC 供电系统,避免碎片化拼凑,提升系统效率与可靠性

可靠性高

HVDC方案可免除UPS,提高安全系数

支持精细化管理,可主动预防超载和过热风险;电池可远离机房核心区域,确保数据中心安全无忧

SuperX 模块化AI工厂

SuperX模块化AI工厂包含多个预制化核心组件的全栈生态系统,包括:

  • SuperX NeuroBlock:单个核心算力单元 SuperX NeuroBlock通过采用液冷门方案,最高可支持24台NVIDIA GB300 NVL72,功率高达3.5MW
  • SuperX CryoPod:干式冷却或冷水机组双源冷却,低能耗、无水运行。
  • SuperX Energy Vault & Green Energy Storage:储能系统将延长绿色电力使用时间。
  • SuperX Greenport & HyperGrid:预制化HVDC配电,部署快、效率高。
  • SuperX Power Core:工厂预制,现场即装;减少占地面积;支持生物柴油,降低碳排放,助力"双碳"目标。

SuperX模块化AI工厂,其创新点在于将算力、冷却、电源高度集成,变"复杂定制"为"标准化产品",实现即插即用。20MW的单模块占地预计仅需6,000㎡,可按需扩建,以"搭积木"的建设方案可无限扩张增加算力。

SuperX模块化AI工厂:重新定义AI基础设施的四大核心价值

SuperX的解决方案并非单一产品的革新,而是通过"四维价值模型"对AI基础设施的交付、成本和效率标准进行了系统性重构:

  1. 超快交付:所有核心模块,包括算力、冷却和电源单元,均在工厂完成预制、集成与测试。现场只需进行快速拼装,预计可将现场部署时间缩短至6个月内,让AI算力近乎"即插即用"。
  2. 超高密度: 方案的核心算力单元 SuperX NeuroBlock最高支持24台NVIDIA GB300 NVL72,功率高达3.5MW,为传统方案的7倍[2]。通过与高密度液冷和HVDC供电系统的深度耦合,实现了高度的算力密度,同算力密度下占地面积大幅度减少,从而在更小的物理空间内释放更澎湃的算力。
  3. 极致能效: 方案全面采用高压直流(HVDC)供电技术,将端到端供电效率提升至98.5%以上,并结合先进的液冷技术,使整体PUE(电源使用效率)低至1.15,对比传统风冷(PUE约1.5[3])方案总体能耗降低23%。
  4. 超级灵活: "模块化"是该方案的核心。客户可以根据业务需求,从单个模块起步,未来按需进行"1到N"的无缝线性扩展,大大地降低了客户初期的资本开支(CAPEX),并能完美匹配AI业务快速迭代的特点。

SuperX "标准定义者"的战略升级

AI算力落地最重要的因素,就是部署的速度及长期能耗节省,传统数据中心的建设模式较难匹配AI时代所需要的快速迭代需求,SuperX 模块化人工智能工厂旨在解决这一瓶颈,它能够实现更快的部署和更节能的运营,我们相信这可以提升客户的投资回报率。SuperX模块化AI工厂的发布,标志着我们将AI基础设施从‘工程项目'转变为‘标准化产品',同时也标志着SuperX向定义下一代AI工厂标准的解决方案提供商的战略升级,致力于驱动传统数据中心向AI工厂的全面转型。

关于Super X AI Technology Limited(纳斯达克代码:SUPX)

Super X AI Technology Limited 是一家人工智能基础设施解决方案提供商,为人工智能数据中心提供全面的产品组合,包括专有硬件、先进软件以及端到端的服务。公司的服务涵盖先进的解决方案设计与规划、高性价比的基础设施产品集成,以及端到端的运营与维护。其核心产品包括高性能AI服务器、高压直流(HVDC)解决方案、高密度液冷解决方案,以及AI云和AI智慧体。公司总部位于新加坡,为全球的机构客户提供服务,包括大型企业、研究机构、云及边缘计算部署等。

欲了解更多信息,请访问  

安全港声明

本新闻稿包含前瞻性声明。此外,我们或我们的代表可能不时以口头或书面形式作出前瞻性声明。我们基于当前可获得的信息,对未来事件的预期和预测做出这些前瞻性声明。您可以通过那些非历史性质的声明识别前瞻性内容,尤其是使用"可能"、"应当"、"预期"、"预计"、"考虑"、"估计"、"相信"、"计划"、"预测"、"潜在"或"希望"等词语或其否定形式的声明。在评估这些前瞻性声明时,您应考虑多个因素,包括:我们改变公司方向的能力;我们跟上新技术和市场变化的能力;以及我们业务的竞争环境。这些因素可能导致我们的实际结果与任何前瞻性声明存在重大差异。

前瞻性声明仅为预测,在此提醒读者不要依赖这些声明。新闻稿中及我们或代表不时作出的其他声明中讨论的前瞻性事件可能不会发生,实际事件和结果可能存在重大差异,并受到关于我们的风险、不确定性和假设的影响。我们没有义务公开更新或修订任何前瞻性声明,无论是由于不确定性、假设或前瞻性事件未发生所致。

本新闻稿中包含的关于"SuperX模块化AI工厂"的描述,包括其预计交付周期、性能指标(如PUE)、及成本效益等,为基于当前市场信息和模型作出的前瞻性陈述。该方案的具体参数、指标及最终交付成果可能会因客户的具体项目需求、最终选址的地理与气候条件、供应链情况以及其他多种因素而产生差异。

联系方式销售咨询/商务合作:投资人关系: 

关注我们的社交媒体:X.com:LinkedIn:Facebook

[1] NVIDIA GB300 NVL72 具体参数可参考英伟达官网资料:

[2] 传统数据中心的机柜功率密度约为每个机柜 20kW。相比之下,SuperX 的 NeuroBlock 解决方案设计的功率密度约为每个机柜 140kW,高出 7 倍。

[3] 根据 Uptime Institute 的数据,2021年的平均电源使用效率 (PUE) 值为 1.57。

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10