谷歌推出壓縮算法TurboQuant 宣稱實現約6倍內存節省

格隆匯
5小時前

谷歌近日推出了一種可能降低人工智能系統內存需求的壓縮算法TurboQuant。根據谷歌介紹,TurboQuant壓縮技術旨在降低大語言模型和向量搜索引擎的內存佔用。該算法主要針對AI系統中用於存儲高頻訪問信息的鍵值緩存(key-value cache)瓶頸問題。隨着上下文窗口變大,這些緩存正成為主要的內存瓶頸。TurboQuant可在無需重新訓練或微調模型的情況下,將鍵值緩存壓縮至3bit精度,同時基本保持模型準確率不受影響。對包括Gemma、Mistral等開源模型的測試顯示,該技術可實現約6倍的鍵值緩存內存壓縮效果。此外,在英偉達H100加速器上的測試結果顯示,與未量化的鍵向量相比,該算法最高可實現約8倍性能提升。研究人員也表示,這項技術的應用不侷限於AI模型,還包括支撐大規模搜索引擎的向量檢索能力。谷歌計劃於4月的國際學習表徵會議(ICLR 2026)上展示TurboQuant技術。

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10