中兴通讯(000063.SZ):全系列服务器支持液冷,高性能液冷服务器性能居业界前列

格隆汇
Sep 10

格隆汇9月10日丨中兴通讯(000063.SZ)在互动平台表示,1、液冷服务器 目前,国内液冷服务器主要应用于高性能计算市场,公司全系列服务器支持液冷,高性能液冷服务器性能居业界前列,可满足多样性算力场景需求。公司液冷服务器已在国内运营商、互联网行业规模发货。 2、机器人 公司有与生态合作伙伴一起进行人形机器人相关的算力、网络、智能化等方面软硬件研究和研发工作。 3、人工智能 公司重视在人工智能领域布局与投入,将智算定位为长期战略主航道,强化智算产品的研发及产业生态合作,通过自研芯片、智算服务器、超大规模集群、智算一体机等全栈算力基础设施,及资源管理平台、训推平台、星云大模型、智能体工厂等软件方案,软硬件协同打造开放普惠智算基座,提供端到端、全栈全场景智算解决方案,满足多样化AI场景需求。 在芯片方面,自研高性能领域定制处理器芯片,可针对云计算、大数据处理、大规模计算、视频编解码、云游戏等应用场景提供更低的总体拥有成本(TCO);自研DPU定海芯片,支持RDMA标卡、智能网卡、DPU卡等多种形态,提供高性能、多样化的算力加速硬件。 在算力基础设施,提供高性能训练服务器、高性价比推理服务器、开箱即用智算一体机、全系列通算服务器、高性能文件存储,满足从中心到边缘的多样化智算建设需求;公司智算超节点系统,以自研AI大容量交换芯片“凌云”为基石,提出面向AI加速器的高速互联开放架构,实现国产化GPU卡大规模高速互联,打造超大规模智算集群,有效支持万亿参数以上大模型训练及高并发推理,初步建成国产化智算产业开放生态系统,荣获2025中国算力大会年度重大突破成果奖;推出国产超高密度230.4T框式交换机,以及全系列51.2T/12.8T盒式交换机,性能业界领先,在运营商、互联网、金融等市场的百/千/万卡智算集群规模商用。 在软件平台及大模型,公司AI Booster智算训推软件平台,为客户提供一站式AI解决方案;除可商用、可持续运维支持的智算训练以及推理服务,还将工程能力和经验工具化,为客户简化AI创新工作量、降低大模型迁移成本;在近期IDC首次发布的《2025中国大模型推理算力报告》中,公司全栈开放智算平台在“算力架构”、“网络和存储增强功能”和“安全与合规”三大能力均获得满分,在智算领域具备大规模复杂软硬件的研发设计和集成交付能力。公司自研星云大模型,包括基础大模型和研发大模型、通信大模型、行业大模型等领域大模型,在算法创新、数据工程、高效算力平台等关键方面持续投入并强化能力,获SuperCLUE 5月推理专项榜第一,综合总榜第二。 面向未来,公司依托全栈开放智算平台,持续深耕智算领域,不断优化硬件协同、软件调度,与行业适配能力,推动智算技术落地千行百业,打造更具活力的智算产业生态。 4、军工领域 公司未在军工领域开展业务。

责任编辑:山上

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10