多模態推理被視為通向通用人工智能(AGI)的關鍵能力之一,讓 AI 能夠像人類一樣綜合感知、理解與決策。其中,視覺-語言模型(Vision-Language Model, VLM)是實現多模態推理的核心基礎。 今年 7 月,我們發布並開源了全球 10B 級效果最強的 VLM——GLM-4.1V-9B-Thinking。該模型以小搏大,展現了小體積模型的極限性能潛力,上線後迅速登上 Hugging ...
網頁鏈接多模態推理被視為通向通用人工智能(AGI)的關鍵能力之一,讓 AI 能夠像人類一樣綜合感知、理解與決策。其中,視覺-語言模型(Vision-Language Model, VLM)是實現多模態推理的核心基礎。 今年 7 月,我們發布並開源了全球 10B 級效果最強的 VLM——GLM-4.1V-9B-Thinking。該模型以小搏大,展現了小體積模型的極限性能潛力,上線後迅速登上 Hugging ...
網頁鏈接免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。