5月7日,理想汽車舉行第二季AI TALK。在被問及“你從DeepSeek身上學到了什麼”時,理想汽車董事長CEO李想認爲,DeepSeek-V3是一個MoE(混合專家模型)。“MoE(混合專家模型)是個非常好的架構”“它相當於把一堆專家組合在一起,每一個對應一個專家能力”。
李想進一步解釋,DeepSeek展示瞭如何構建專家能力的最佳實踐,共分四步。第一步一定要先搞研究。“第一步相當重要,就是任何的時候,當我們想去改變能力和提升能力的時候,第一步一定是搞研究”。第二步纔是搞研發,第三步是將能力表達出來,第四步纔是將能力變成業務的價值。
(文章來源:廣州日報新花城)
免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。