一、寒武紀存好37億,這個大多數是原料非非成品,因為接到訂單就會大量備貨,說明需求旺盛處於備貨期。長期看算力需求還是會大幅度增長,短期內需求不用擔心。按照推測今年70億營收肯定是有的,明年保守180億營收,超預期會有250億營收這樣。
二、現在大模型原來需要1萬塊GPU現在就只需1200塊左右呢?
Aegaeon方案是資源優化不是降低算力需求
因為Aegaeon方案入選SOSP是因為它解決了AI模型服務中GPU資源浪費問題,通過計算池化解決方案提升了GPU資源利用率,削減了GPU用量。不是很多黑子說的大模型本身對算力的需求下降了,大模型在訓練和推理過程中,還是需要完成大量複雜的計算任務的,其理論算力需求是由模型結構、數據規模、算法複雜度等因素決定的,Aegaeon方案並沒有改變這些因素,只是更高效地利用了現有GPU資源。
測試數據不能簡單線性外推
阿里雲模型Beta測試的720億的大模型,英偉達H20 GPU數量削減82%,這個數據是在特定的測試環境和條件下得出的,不能簡單地將這個比例線性外推到其他場景。不同規模、不同類型的大模型,資源需求和優化效果可能會有很大差異。而且實際應用中,還會受到硬件配置、系統架構、任務負載等多種因素的影響。所以不能直接認為原來需要大量的GPU現在需求變少了,希望大家還是理性分析市場上的信息。