5月7日,理想汽车举行第二季AI TALK。在被问及“你从DeepSeek身上学到了什么”时,理想汽车董事长CEO李想认为,DeepSeek-V3是一个MoE(混合专家模型)。“MoE(混合专家模型)是个非常好的架构”“它相当于把一堆专家组合在一起,每一个对应一个专家能力”。
李想进一步解释,DeepSeek展示了如何构建专家能力的最佳实践,共分四步。第一步一定要先搞研究。“第一步相当重要,就是任何的时候,当我们想去改变能力和提升能力的时候,第一步一定是搞研究”。第二步才是搞研发,第三步是将能力表达出来,第四步才是将能力变成业务的价值。
(文章来源:广州日报新花城)
免责声明:投资有风险,本文并非投资建议,以上内容不应被视为任何金融产品的购买或出售要约、建议或邀请,作者或其他用户的任何相关讨论、评论或帖子也不应被视为此类内容。本文仅供一般参考,不考虑您的个人投资目标、财务状况或需求。TTM对信息的准确性和完整性不承担任何责任或保证,投资者应自行研究并在投资前寻求专业建议。