6月27日腾讯发布并开源混元-A13B模型。据介绍作为基于专家混合(MoE)架构的大模型总参数800亿、激活参数130亿
6月27日腾讯发布并开源混元-A13B模型。据介绍作为基于专家混合(MoE)架构的大模型总参数800亿、激活参数130亿在效果比肩顶尖开源模型的同时大幅降低推理延迟与计算开销;极端条件下仅需1张中低端GPU卡即可部署。
免责声明:投资有风险,本文并非投资建议,以上内容不应被视为任何金融产品的购买或出售要约、建议或邀请,作者或其他用户的任何相关讨论、评论或帖子也不应被视为此类内容。本文仅供一般参考,不考虑您的个人投资目标、财务状况或需求。TTM对信息的准确性和完整性不承担任何责任或保证,投资者应自行研究并在投资前寻求专业建议。