AI普惠時代終將到來。
全球市場都在面臨一場前所未有的算力需求爆發。
特別是在多模態技術趨於成熟,企業級複雜Agent落地愈發成熟的當下,越來越多企業跑在了AI轉型的前沿。
然而,當模型選擇更多,算力需求不斷膨脹時,如何算好經濟賬,如何實現高吞吐、低時延,在穩定性、可靠性與兼容性上更加有的放矢。凡此種種,讓AI加速邁入了雲原生時代。
12月19日,在2025火山引擎冬季FORCE原動力大會上,豆包大模型1.8及音視頻創作模型Seedance 1.5 pro正式亮相。權威評測數據顯示,豆包大模型在多模態理解、生成能力及Agent能力上,已躋身全球第一梯隊。
另據火山引擎總裁譚待介紹,截至今年12月,豆包大模型日均token使用量突破50萬億,較去年同期增長超過10倍。
在千行百業落地應用AI的關鍵節點,火山引擎的AI普惠究竟是如何做到的?
爆發背後的AI原生解法
「數據是新時代的石油」,火山引擎總裁譚待曾在採訪時表示,雲計算行業的第二次浪潮就在於智能化,其意義不僅在於能發揮數據價值,還在於端到端的業務落地,以大模型為基礎,包括MaaS(模型即服務)、AI Agent將成為未來數年內的主流敘事。
延續着這樣的思路,火山引擎做出了一系列佈局。
和1.0時代不同的是,雲原生的主體不再是網頁,而是Agent。業內將2025年視作Agent元年,作為大模型落地的重要載體,Agent的能力也就決定了大模型應用的深度。
為了打破Agent的能力上限,火山引擎一手抓底層模型,密集迭代模型版本,拿出了性能與性價比兼具的模型產品,如此次更新的視頻生成模型Seedance系列,在性能表現上靈活性更高:Seedance-1.0-Lite以成本優先,兼顧速度,適配高頻創作。Seedance-1.0-Pro可實現影視級畫質與原生音效,支持2–12秒1080P自由生成、多鏡頭敘事及精準指令參考,滿足電影級感官敘事需求。
而Seedance 1.5 pro音視頻創作模型有着更為驚豔的完成度,採用創新的原生音視頻聯合生成架構,支持環境音、背景音樂、人聲等多種元素,實現了毫秒級的音畫同步輸出。在對白處理上,模型支持多人多語言對話,口型對齊精準,覆蓋中文方言(如四川話、粵語等)、英文及小語種,極大地提升了視頻內容的真實感與全球化創作潛力。
另一方面,火山引擎也攜手生態夥伴做好硬件配置,開啓雲邊端協同新模式,通過軟硬件高度配合的生態解法,最大化釋放AI能力。
今年6月,在火山引擎2025春季原動力大會上,火山引擎已聯合英特爾共同發佈搭載英特爾至強6性能核處理器的第四代通用計算型(ECS)實例家族,使得傳統應用與AI應用全面升級。
據測算,與上一代實例相比,通用計算基礎型實例g4i在MySQL數據庫和Web應用上分別實現了20%和19%的性能提升,算力增強型實例g4ie在視頻解碼和圖像渲染上帶來了15%和26%提升,I/O增強型實例g4il在Spark大數據和Redis數據庫上也實現了13%和30%的提升。
在火山引擎的構想中,AI時代CPU同樣重要,通過與GPU的高度協同,其為企業級AI Agent提供端到端支持。其特性在於高併發快響應、算力成本進一步實現優化,並保障安全隱私性。
特別是在安全方面,對於許多企業而言,業務的穩定和安全都是最核心的,隨着大模型應用深入產業,越來越多高質量、高價值敏感數據都成為AI應用的關鍵。
火山引擎與英特爾TDX構建的機密虛擬化實例,無論是RAG應用中的信息提取處理流程還是數據庫流程,亦或是模型生成流程,都可以在不改變應用程序中間框架的前提下,直接訪問機密虛擬機,實現雲中的隔離和保護,用戶使用RAG部署過程保證數據安全。
火山引擎雲存儲還引入了至強處理器的壓縮加速技術(英特爾®QAT),以提升數據壓縮和解壓縮效率,實現優於軟件LZ4算法的壓縮率和更低時延。QAT硬件加速生成CRC32校驗碼,確保數據完整性,並支持AES-XTS模式的對稱加密,增強數據可靠性。
如此強大、靈活併兼顧成本效益的方案,最終構成了企業的AI彈性基礎設施底座,加速了企業的智能化進程。正如英特爾市場營銷集團副總裁、中國區總經理郭威所言:「釋放AI的真正價值,關鍵在於以易部署、可擴展的方式將其融入企業工作流與個人體驗。依託火山引擎在算力資源調度和大規模AI推理優化方面的優勢,我們將芯片級的創新通過雲原生架構無縫延伸至邊緣與終端,實現對多樣化、異構算力資源的高效協同與統一交付,構建穩定可靠的服務環境,助力開發者與企業聚焦於業務創新與落地。」
AI普惠前夜
雲邊端協同撐起一片天
火山引擎的AI雲原生,不僅僅是技術的創新,也是未來推動AI應用落地的關鍵基礎設施,通過與英特爾合作推進「雲邊端協同」趨勢,火山引擎將推動AI應用於更為廣闊的行業和場景。
在此次2025火山引擎冬季FORCE原動力大會的展位,我們也見到了火山引擎與英特爾在邊側與端側的多元應用。
在基層社區治理中,工作人員往往面對着瑣碎繁雜的事物,並且業務跨度大,往往需求千絲萬縷。AI如何在其中發揮價值?社區全能助手「華格格」應運而生。它通過企業AI工作台的智能意圖識別能力,能夠自動理解用戶多領域不同需求,並將其精準分配給對應的智能體,將原本分散在多個系統中的功能無縫銜接、自然協同。
順暢的使用體驗背後,則是英特爾HiAgent智能一體機解決方案在發揮價值。其重點針對多智能體跨域請求需頻繁切換、體驗割裂、上下文丟失等問題,依託於火山引擎HiAgent企業AI工作台實現了優化。自動將用戶跨領域請求及上下文路由至對應智能體,聚合離散功能,打造「一專多能」數字員工,提升使用體驗與處理效果。並且是以靈活、普惠的方式進一步降低部署門檻與算力成本。
此前在德國慕尼黑車展期間,懂車帝巨懂車也曾聯合英特爾,完成了一場屬於未來世界的展覽,刷新沉浸式體驗的上限。
通過PICO VR眼鏡,由英特爾PC與服務器平台驅動的6DoF虛擬現實場景,簡單來說,不僅支持用戶頭部旋轉(3個旋轉自由度),還能檢測用戶在空間中的位置移動(3個平移自由度),從而實現真實的空間行走和交互感。但其同樣需要極低的延遲才能做到優質的沉浸式體驗,因此結合低延遲、高併發的RTC實時通訊技術,多方合作實現多路高清視頻低延遲傳輸至VR設備的效果。
在個人端側,基於英特爾與火山引擎提供的彈性AI能力,一種新的內容創作工作模式也在誕生。英特爾AI PC視頻剪輯Demo,基於LLM/VLM大模型與端雲混合算力打造的全自動視頻創作工具,通過彈性靈活的算力組合方式,極大的優化生產流程效率。
例如,端側GPU可運行VLM模型,對視頻素材進行深度解析,變成結構化數據後上傳至雲端。而云端的LLM模型當即發揮所長,依據用戶指令,自動完成主題挖掘、故事性規劃、分鏡編排、背景音樂匹配及字幕生成,依託於腳本規劃,再將任務迴歸本地,端側完成視頻剪輯合成和導出。通過端雲協作,最大化優化視頻創作者的工作效率。
AI時代,算力已成為企業競爭的「新能源」,而云邊端協同,讓企業級Agent能力不斷趨於成熟。作為AI價值的關鍵衡量指標,豆包大模型日均調用量實現253倍增長,從去年5月1200億/天攀升至今年9月的30萬億/天。
截至目前,豆包大模型多個關鍵行業實現深度落地,覆蓋超5億終端設備、超九成主流車企、八成系統重要性銀行和超九成985高校等,展現出廣泛的應用前景。
另據譚待現場透露,豆包大模型日均使用量超過50萬億,自發布以來增長417倍。「萬億Tokens俱樂部」成員突破100家。
譚待告訴我們,「明年模型之間最重要的還不是競爭,最重要的是要把市場做大。明年這個市場可能還要再漲10倍,大家其實就不是存量的競爭,不是零和博弈,而是說大家一起把市場做大。同時,明年模型還需要進一步降價,這個市場才能做大。」
如今,AI算力競爭已進入白熱化階段,英特爾與火山引擎的合作正在重新定義企業獲取和使用算力的方式。從雲端到邊緣,從訓練到推理,從性能到安全,雙方構建的全棧解決方案正逐步消除企業AI轉型的技術門檻。如果說最初的通力協作解決了產業智能的單點突破,現如今「全局效率優化」時代正在開啓,在火山引擎與英特爾的通力協作下,AI普惠時代終將到來。