联想AI基础设施“一横五纵”产品矩阵亮相2025 CCF全国高性能计算学术大会

市场资讯
Aug 18, 2025

  炒股就看金麒麟分析师研报,权威,专业,及时,全面,助您挖掘潜力主题机会!

(来源:环球网资讯)

来源:环球网

【环球网科技综合报道】8月18日消息,联想携联想万全异构智算平台、联想AI解决方案、联想科学计算整体解决方案于近日亮相2025CCF全国高性能计算学术大会(CCF HPC China 2025)。

据悉,本届CCF全国高性能计算学术大会延续“学术引领、产业融合”特色,是集技术研讨、成果展示、生态对接于一体的高性能计算交流平台。会议期间,联想中国基础设施业务群战略管理部总监黄山进行了《联想大模型训推一体方案加速超智融合新进程》的主题分享,探讨AI潮流中算力、模型、应用的发展趋势,展示联想AI算力基础设施在推动企业AI应用落地及行业智能化转型过程中的前瞻视野与创新突破。

当前,人工智能产业快速发展,全球算力需求不断攀升,算力成为支撑数字经济发展的重要基础资源。我国算力规模虽然已达世界领先水平,但标准化普惠化算力服务统一大市场尚未形成,存在算力供给紧张与部分算力未能有效利用的矛盾。因此,效率提升成为算力层的发展主线,并不断与模型层、应用层融合发展,共同推动AI潮流穿越周期,加速企业AI落地。

黄山认为,企业AI落地进程中存在清晰的演进路径与需求层次。从落地路线看,涵盖智能体开发、模型开发等应用环节,配合模型微调的软件调优,进入广泛应用阶段。

具体而言,企业AI落地的算力诉求面临三个阶段:从尝试使用和探索需求,到追求方案整合与长期更新,包含模型迭代、硬件扩容的成长阶段,最终迈向大规模生产场景下,聚焦模型微调与应用部署深度协同、追求极致投入产出比的成熟阶段。这种需求递推驱动企业AI方案持续迭代,覆盖企业AI落地各阶段需求,助力客户跨越技术门槛,加速智能化转型进程。

黄山表示,“当前,AI应用的算力底座架构已逐步走向异构融合,企业需要强劲、可靠、高能效的算力底座,也需要集群管理软件平台来完成多元异构算力的池化、调度、管理、调优等工作,将算力真正发挥出来,帮助企业实现算力需求的全生命周期管理,进而加速推动AI算力普惠。”

面对企业对人工智能应用的规模迅速扩大,许多企业面临高性能计算(HPC)集群与智能计算集群并存的局面。两套集群系统的并存导致资源分散管理,不仅引发了资源的闲置与浪费,还增加了管理的复杂性和负担。在超智融合的趋势下,实现HPC集群与智能计算集群的统一管理和调度成为一项挑战。

据介绍,作为联想AI基础设施“一横五纵”战略中的核心,联想万全异构智算平台可以统一纳管异构算力,实现对异构计算集群的管理调度,让客户轻松获得融合、稳定的通用、AI和科学算力。最新的3.0版本新增了AI推理加速算法集、AI编译优化器、AI训推慢节点故障预测与自愈系统、专家并行通信算法等四大突破性创新技术,直击大模型应用落地的关键痛点,不断突破算力效率极限。(青云

海量资讯、精准解读,尽在新浪财经APP

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10