国泰海通:供应商陆续推出AI高端芯片 内存升级助力DRAM量价齐升

智通财经
Sep 12

智通财经APP获悉,国泰海通发布研报称,英伟达下一代Rubin CPX在硬件层面上分拆了AI推理的计算负载,内存升级提供更高速传输。随着运算速度的提升,DRAM及NAND Flash在各类AI延伸应用,如智能手机、服务器、笔电的单机平均搭载容量均有成长,又以服务器领域成长幅度最高,2024年Server DRAM单机平均容量年增17.3%。伴随AI服务器需求持续增加,AI高端芯片如英伟达下一代Rubin及云端服务业者(CSP)自研ASIC陆续推出或开始量产,有助于高速运算的DRAM产品量价齐升。建议关注存储模组。

国泰海通主要观点如下:

英伟达下一代Rubin CPX在硬件层面上分拆了AI推理的计算负载,内存升级提供更高速传输。

下一代英伟达旗舰AI服务器NVIDIA Vera Rubin NVL144 CPX集成了36个Vera CPU、144块Rubin GPU和144块Rubin CPX GPU。同时,单个机架提供100 TB的高速内存和1.7 PB/s的内存带宽。搭载Rubin CPX的Rubin机架在处理大上下文窗口时的性能,比当前旗舰机架GB300 NVL72高最多6.5倍。

英伟达新品在硬件层面上分拆了AI推理的计算负载:上下文阶段属于计算受限,需要高吞吐量的处理能力来摄取并分析大量输入数据,从而生成首个输出token;相反,生成阶段则属于内存带宽受限,依赖高速的内存传输和高带宽互联,以维持逐个token的输出性能。Rubin CPX专门针对“数百万tokens”级别长上下文性能进行优化,具备30peta FLOPs的NVFP4算力、128 GB GDDR7内存。

开普云收购深圳金泰克存储条线业务,发力企业级DDR。

开普云发布公告,拟通过发行股份的方式,购买深圳金泰克持有的南宁泰克30%股权,同时深圳金泰克将其存储产品业务的经营性资产转移至南宁泰克。同时根据《股权收购框架协议》约定,公司拟收购南宁泰克70%股权,交易对方深圳金泰克将其存储产品业务的经营性资产转移至南宁泰克。

供应商陆续推出AI高端芯片,内存升级助力DRAM量价齐升。

随着运算速度的提升,DRAM及NAND Flash在各类AI延伸应用,如智能手机、服务器、笔电的单机平均搭载容量均有成长,又以服务器领域成长幅度最高,2024年Server DRAM单机平均容量年增17.3%。伴随AI服务器需求持续增加,AI高端芯片如英伟达下一代Rubin及云端服务业者(CSP)自研ASIC陆续推出或开始量产,有助于高速运算的DRAM产品量价齐升。

风险提示:国产替代进程不及预期;技术迭代不及预期。

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10