全球人工智能領域迎來一項重要突破——AMD聯合IBM與AI初創企業Zyphra共同推出名為ZAYA1的混合專家(MoE)基礎模型。該模型成為首個完全基於AMD硬件架構完成訓練的同類產品,在數學、科學推理等核心能力上展現出與頭部模型競爭的實力,標誌着AMD在AI訓練生態中的技術突破。訓練集羣採用IBM Cloud部署的128個節點,每個節點配備8張AMD Instinct MI300X加速器,總計...
網頁鏈接全球人工智能領域迎來一項重要突破——AMD聯合IBM與AI初創企業Zyphra共同推出名為ZAYA1的混合專家(MoE)基礎模型。該模型成為首個完全基於AMD硬件架構完成訓練的同類產品,在數學、科學推理等核心能力上展現出與頭部模型競爭的實力,標誌着AMD在AI訓練生態中的技術突破。訓練集羣採用IBM Cloud部署的128個節點,每個節點配備8張AMD Instinct MI300X加速器,總計...
網頁鏈接免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。