中国移动研究院牵头编写《全国一体化算力网 智算中心算力池化技术要求》 促进异构算力融合

中国移动研究院
Sep 12

中国移动研究院国家数据基础设施

标准化建设系列报道之一

编者按

当前,数据作为新型生产要素,已成为推动数字经济高质量发展的核心引擎。全国一体化算力网、数据基础设施与可信数据空间建设,是支撑数字中国战略的重要基础。中国移动研究院积极响应国家政策,深度参与多项关键技术标准的研制与发布,从算力安全、数据基础设施到智算中心算力池化,全面助力构建自主可控、安全高效的国家数据基座。

近日,由中国移动研究院牵头主笔,联合28家单位编写的《全国一体化算力网 智算中心算力池化技术要求》在全国数标委正式发布,为全国一体化算力网国产化建设提供有力支撑。

全国一体化算力网作为数字经济核心基础设施,旨在通过整合多元异构算力实现资源高效调度、设施绿色低碳、算力灵活供给,当前面临两大挑战:一是算力资源碎片化严重,总体利用率不足。任务类型、规模、优先级的差异使得任务规格与硬件配置难以精细化匹配,大量算力因“大材小用”或“小材难用”处于闲置状态,整体利用率亟待提升;二是应用跨架构部署难度大,限制多元算力使用。不同硬件厂商围绕自身智算硬件结构定制软件栈能力,应用基于异构硬件开发时所使用的接口标准不统一,限制了应用在多元智能算力资源上的灵活部署。以上挑战严重制约了国产智算硬件的规模化应用和产业生态的创新发展,亟需将不同硬件算力资源有效聚合为统一的池化资源,破解当前智算中心发展痛点,释放算力协同价值。

智算中心算力池化技术要求聚焦异构算力融合难题,通过对智算中心内跨架构算力资源进行“抽象”、“虚拟化”管理及“任务式”调度,形成统一、透明的“智能算力池”,以保证智能算力的灵活高效使用。面向智算中心硬件建立包含设备、计算、内存的统一算力资源抽象模型,将不同芯片转化为具备标准结构及能力的抽象“XPU”,实现异构硬件差异屏蔽,从而为上层调度提供标准化智能算力资源视图。针对资源碎片化严重的问题,技术文件提出任务式调度与业务编排要求,通过细粒度资源切分、动态弹性扩缩及智能匹配调度,实现任务规格与硬件配置的精准适配,降低“大材小用”或“小材难用”现象,推动算力利用率提升,释放闲置算力价值。针对应用跨架构部署难的痛点,通过统一接口规范和资源管理机制解耦智算硬件与应用,让应用开发者不再需要关心底层智算芯片类型,只需按需申请“XPU标准算力”,即可将应用运行在任意可提供等值算力的智算硬件之上,从而实现应用自由迁移。

本次发布的技术文件以统一标准打破异构算力资源的壁垒,用池化思维激活分散算力的聚合价值,推动竖井化国产智算“小生态”向开放、协同的“大生态”转变,为智算中心算力池化规范化建设提供了清晰的 “技术蓝图”,将加速全国一体化算力网建设,引领智能算力产业迈向高质量发展新纪元。

海量资讯、精准解读,尽在新浪财经APP

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10