【機牀商務網欄目 科技動態】10月21日消息,在近日於韓國首爾舉辦的頂級學術會議SOSP 2025(操作系統原理研討會)上,阿里雲發佈了其「Aegaeon」計算池化解決方案。Aegaeon方案的核心在於解決AI模型服務中普遍存在的GPU資源浪費問題,尤其針對那些需求突發或不可預測的大型語言模型。
它打破了傳統的「一個模型綁定一個GPU」的低效模式,而是在Token級別虛擬化GPU訪問,這意味着單個GPU可以被多個不同模型共享服務,實現精細化的資源調度。
阿里雲Aegaeon系統作為一種推理時間調度器,它能在每次生成下一個token後,動態決定是否切換模型,從而將微小的工作片段安排到共享池中。
通過組件複用、顯存精細化管理和KV緩存同步優化等全棧技術,Aegaeon將模型切換開銷降低了97%,確保了token級調度的實時性,可支持亞秒級的模型切換響應。
在阿里雲模型市場為期超三個月的Beta測試中,Aegaeon系統在服務數十個參數量高達720億的大模型時,所需的NVIDIA H20 GPU數量從1192個銳減至213個,削減比例高達82%。
GPU用量的大幅削減,對於硬件採購成本高昂的大型模型服務商而言,意味着成本將顯著降低。
目前,這項核心技術已成功應用在阿里雲百鍊 平臺。