全球人工智能领域迎来一项重要突破——AMD联合IBM与AI初创企业Zyphra共同推出名为ZAYA1的混合专家(MoE)基础模型。该模型成为首个完全基于AMD硬件架构完成训练的同类产品,在数学、科学推理等核心能力上展现出与头部模型竞争的实力,标志着AMD在AI训练生态中的技术突破。训练集群采用IBM Cloud部署的128个节点,每个节点配备8张AMD Instinct MI300X加速器,总计...
网页链接全球人工智能领域迎来一项重要突破——AMD联合IBM与AI初创企业Zyphra共同推出名为ZAYA1的混合专家(MoE)基础模型。该模型成为首个完全基于AMD硬件架构完成训练的同类产品,在数学、科学推理等核心能力上展现出与头部模型竞争的实力,标志着AMD在AI训练生态中的技术突破。训练集群采用IBM Cloud部署的128个节点,每个节点配备8张AMD Instinct MI300X加速器,总计...
网页链接免责声明:投资有风险,本文并非投资建议,以上内容不应被视为任何金融产品的购买或出售要约、建议或邀请,作者或其他用户的任何相关讨论、评论或帖子也不应被视为此类内容。本文仅供一般参考,不考虑您的个人投资目标、财务状况或需求。TTM对信息的准确性和完整性不承担任何责任或保证,投资者应自行研究并在投资前寻求专业建议。