DEEPX发布DX-H1 V-NPU:30W单卡解决方案,挑战GPU主导地位

美通社
Dec 10

该解决方案近期荣获CES 2026创新大奖,将视频解码、AI推理与编码功能集成于单芯片,相比GPU架构可节省80%的硬件成本。

拉斯维加斯和韩国首尔2025年12月10日 /美通社/ -- 在CES 2026(2026年国际消费电子展)开幕前夕,超低功耗设备端AI半导体先驱企业DEEPX今日正式发布DX-H1视觉神经网络处理单元(V-NPU)。这是一款专用的视频智能芯片组,仅需30W功耗即可处理数百路AI视频通道。

DEEPX发布DX-H1 V-NPU:30W单卡解决方案,挑战GPU主导地位

重新定义视频AI基础设施

DX-H1 V-NPU是一款集多通道引擎与专用NPU架构于一体的视频智能解决方案,具备解码、编码和转码能力。与传统方案需要并行配置GPU服务器和硬件编解码器不同,DX-H1 V-NPU可在单芯片上处理从流输入、预处理、AI推理到重新编码的整个流程。

这款芯片的发布标志着数据中心架构的范式转变。通过将视频输入、压缩和AI推理(这些流程通常需要多台GPU服务器和独立编解码硬件)集成到单张卡上,DX-H1 V-NPU正将视频AI基础设施的基本单元从GPU转变为V-NPU。

卓越的效率与可持续性

根据DEEPX的测试数据,在相同通道密度下,与基于GPU的解决方案相比,将这些流程集成在一起可节省约80%的硬件成本和85%的功耗,同时保持7x24小时实时推理性能。

这种效率为智慧城市和工业监控提供了关键的结构性替代方案,应对数据中心电力限制、严格的ESG要求以及GPU供应链不确定性等日益严峻的挑战。

DEEPX首席执行官Lokwon Kim表示:"大规模视频AI不能再是从通用GPU中借用闲置资源的次要任务;它必须发展成为一个依托专用芯片组运行的独立行业。DX-H1 V-NPU不仅仅是一种低成本替代方案,更是对视频智能基础设施的根本性重新设计,针对视频流以秒为单位不断涌入的环境,优化了内存层次结构和计算调度。"

从附加功能到基础平台

随着DX-H1系列为闭路电视(CCTV)和网络视频录像机(NVR)等现有传统系统增添了AI功能,这款全新的V-NPU变体在该系列成功的基础上,被设计为一个基础平台。它瞄准智慧城市、交通控制中心和大型工业综合体的新部署,将服务器架构围绕V-NPU而非GPU构建。

CES 2026上获得全球认可

DX-H1 V-NPU荣获CES 2026创新大奖,这进一步巩固了DEEPX的"边缘AI作为新型可持续基础设施"这一愿景在全球舞台上的价值。DEEPX将于2026年1月6日至9日在拉斯维加斯CES 2026展会(北厅8745号展位)正式展示DX-H1 V-NPU

该公司还将主办消费技术协会(CTA)新设立的"CES Foundry"会议,介绍其面向实体AI时代的路线图。届时,DEEPX计划公布其扩展的合作伙伴生态系统战略,涵盖视频智能、智慧城市、移动出行和机器人等领域。

Kim补充道:"我们的最终目标是让DEEPX成为最需要智能的边缘端的默认选择。DX-H1 V-NPU的推出标志着我们全面进军全球市场的起点。"

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10