牛透社 11 月 25 日消息,AMD 联合 IBM 与人工智能初创公司 Zyphra 共同发布全球首个全 AMD 硬件训练的 MoE 基础模型 ZAYA1。该模型预训练数据量达 14 万亿 token,综合性能与 Qwen3 系列持平,在数学/STEM 推理任务中无需指令微调即可接近 Qwen3 专业版水平。该模型基于 IBM Cloud 提供的 128 个计算节点(总计 1024 张 AMD ...
网页链接牛透社 11 月 25 日消息,AMD 联合 IBM 与人工智能初创公司 Zyphra 共同发布全球首个全 AMD 硬件训练的 MoE 基础模型 ZAYA1。该模型预训练数据量达 14 万亿 token,综合性能与 Qwen3 系列持平,在数学/STEM 推理任务中无需指令微调即可接近 Qwen3 专业版水平。该模型基于 IBM Cloud 提供的 128 个计算节点(总计 1024 张 AMD ...
网页链接免责声明:投资有风险,本文并非投资建议,以上内容不应被视为任何金融产品的购买或出售要约、建议或邀请,作者或其他用户的任何相关讨论、评论或帖子也不应被视为此类内容。本文仅供一般参考,不考虑您的个人投资目标、财务状况或需求。TTM对信息的准确性和完整性不承担任何责任或保证,投资者应自行研究并在投资前寻求专业建议。