【CNMO科技消息】3月4日,在MWC 2026巴塞羅那舉行的聯發科技發布會上,OPPO與聯發科技聯合研發的技術預研成果——端側全模態Omni模型正式亮相。作為業界首個在手機端側實現多模態融合理解與交互的AI模型,Omni支持語音、視頻、文本等多種輸入方式,並能進行實時環境描述與實景問答,使手機端側AI能夠深入感知並理解周遭物理世界,為未來更主動、更自然的人機交互形態奠定了堅實的技術基礎。

OPPO

OPPO研究院院長廖勁松在發布會上發表演講,並同台展示了雙方攜手在端側AI領域取得的突破性成果。廖勁松表示:「端側智能計算是OPPO AI戰略的重要基石,讓AI真正成為用戶可實時感知的終端體驗。」他指出,雙方在旗艦芯片平台上的深度協作,正成為將端側AI從技術構想轉化為規模化商用的關鍵。
Omni模型的落地離不開底層算力的突破。基於聯發科技天璣9500芯片NPU提供的強勁算力支撐,OPPO自研的端側AI翻譯與端側AI補光功能已可媲美雲端體驗,並將於近期隨ColorOS 16系統更新,正式推送至OPPO Find X9系列。另外,OPPO Find X9 Pro也成功入圍本屆MWC GLOMO Awards 「最佳智能手機」獎項評選。

具體來看,端側AI翻譯依託端側大模型實現顯著突破,其文本翻譯準確率相較傳統模型平均提升15%,並支持多個語種的互譯。在無網或弱網環境下,OPPO端側AI翻譯依然能夠穩定輸出高質量結果,真正實現全場景可用的翻譯體驗。
端側AI補光則聚焦於移動影像中的光影表達。通過對畫面光線的智能分析與重塑,該功能可在暗光、逆光等複雜光線條件下,為人像照片還原自然、立體的光影效果,並無需額外考慮網絡環境。在畫面自然度與場景適應性方面,端側AI補光均展現出領先行業的表現。