5月7日,理想汽車舉行第二季AI TALK。在被問及「你從DeepSeek身上學到了什麼」時,理想汽車董事長CEO李想認為,DeepSeek-V3是一個MoE(混合專家模型)。「MoE(混合專家模型)是個非常好的架構」「它相當於把一堆專家組合在一起,每一個對應一個專家能力」。
李想進一步解釋,DeepSeek展示瞭如何構建專家能力的最佳實踐,共分四步。第一步一定要先搞研究。「第一步相當重要,就是任何的時候,當我們想去改變能力和提升能力的時候,第一步一定是搞研究」。第二步纔是搞研發,第三步是將能力表達出來,第四步纔是將能力變成業務的價值。

(文章來源:廣州日報新花城)