MIT突破機器人控制技術:無需傳感器,單攝像頭即可實現精準運動

市場資訊
2025/07/13

  炒股就看金麒麟分析師研報,權威,專業,及時,全面,助您挖掘潛力主題機會!

IT之家 7 月 13 日消息,麻省理工學院(MIT)團隊提出一種基於視覺的深度學習方法,僅需單個攝像頭即可讓軟體機器人和仿生機器人學習運動與控制。

該技術突破有望大幅降低機器人開發成本,相關成果已於 6 月 25 日發表於《自然》主刊(IT之家附 DOI: 10.1038/s41586-025-09170-0)。

傳統工業機器人雖易於建模控制,但剛性結構難以適應狹小或不平坦地形。軟體及仿生機器人雖具備環境適應優勢,卻通常依賴大量傳感器和定製化空間模型。

現在,MIT 團隊通過深度學習技術解決了這一矛盾。新系統僅需通過單個攝像頭捕捉機器人運動畫面,結合名為「神經雅可比場(NJF)」的技術,使機器人通過視覺反饋建立對自身形態與運動能力的認知。

研究團隊對多種機器人進行了 2-3 小時多視角隨機運動視頻訓練,成功讓神經網絡通過單幀圖像重建機器人三維形態與運動範圍。

在氣動軟體機械手、奧利格羅機械手(16 自由度)、3D 打印機械臂及低成本 Poppy 機械臂等測試中,系統實現:

MIT 助理教授文森特・西茨曼(Vincent Sitzmann)表示:「視覺作為彈性傳感器,為農場、工地等非結構化環境中的機器人應用開啓新可能。」

CSAIL 主任丹妮拉・羅斯(Daniela Rus)補充道:「視覺反饋使系統建立自身運動動力學內部模型,在傳統定位方法失效處實現自監督操作。」

(轉自:網易科技)

海量資訊、精準解讀,盡在新浪財經APP

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10