鳳凰網科技訊(作者/董雨晴) 1月29日,繼連續發布空間感知與VLA基座模型後,螞蟻靈波科技開源發布世界模型LingBot-World。據披露,該模型在視頻質量、動態程度、長時一致性、交互能力等關鍵指標上追平Google Genie 3,目標是為具身智能、自動駕駛及遊戲開發提供高保真、高動態、可實時操控的「數字演練場」。

針對視頻生成中最常見的「長時漂移」問題(生成時間一長就可能出現物體變形、細節塌陷、主體消失或場景結構崩壞等現象),LingBot-World通過多階段訓練以及並行化加速,實現了近10分鐘的連續穩定無損生成,為長序列、多步驟的複雜任務訓練提供支撐。
交互性能上,LingBot-World可實現約16 FPS的生成吞吐,並將端到端交互延遲控制在1秒以內。用戶可通過鍵盤或鼠標實時控制角色與相機視角,畫面隨指令即時反饋。此外,用戶可通過文本觸發環境變化與世界事件,例如調整天氣、改變畫面風格或生成特定事件,並在保持場景幾何關係相對一致的前提下完成變化。
模型具備Zero-shot泛化能力,輸入一張真實照片(如城市街景)或遊戲截圖,可生成可交互的視頻流,無需針對單一場景進行額外訓練或數據採集,從而降低在不同場景中的部署與使用成本。
為解決世界模型訓練中高質量交互數據匱乏的問題,LingBot-World採用了混合採集策略:一方面通過清洗大規模的網絡視頻以覆蓋多樣化的場景,另一方面結合遊戲採集與虛幻引擎(UE)合成管線,從渲染層直接提取無UI干擾的純淨畫面,並同步記錄操作指令與相機位姿,為模型學習「動作如何改變環境」提供精確對齊的訓練信號。
目前,LingBot-World模型權重及推理代碼已面向社區開放。