亚洲永久免费/亚洲大片在线观看/91综合网/国产精品长腿丝袜第一页

每日經濟新聞
要聞

每經網首頁 > 要聞 > 正文

智元發布首個通用具身基座大模型:完成小樣本快速泛化,降低具身智能門檻

每日經濟新聞 2025-03-10 12:50:25

每經記者 朱成祥    每經編輯 文多    

3月10日,智元發布首個通用具身基座大模型——智元啟元大模型(GO-1)。據了解,該架構由VLM(多模態大模型)+MoE(混合專家)組成。其中VLM借助海量互聯網圖文數據獲得通用場景感知和語言理解能力,MoE中的Latent Planner(隱式規劃器)借助大量跨本體和人類操作數據獲得通用的動作理解能力,MoE中的Action Expert(動作專家)借助百萬真機數據獲得精細的動作執行能力。三者環環相扣,可以利用人類視頻學習、完成小樣本快速泛化并且降低具身智能門檻。其已成功部署到智元多款機器人本體,而且還會持續進化,將具身智能推上一個新臺階。

對于多模態大模型與混合專家大模型的具體分工,智元具身研究中心常務主任任廣輝回復《每日經濟新聞》記者問題時表示:“我們多模態大模型本身,自帶了一個專家。Latent Planner負責我們互聯網規模的圖文錄像訓練,它來理解視頻中的動作,比如倒水這個動作,肯定需要手腕旋轉。而Action Expert(動作專家),則是在看了很多理論,看了很多視頻動作后,負責在機器人本體(上的)執行。”

任廣輝補充表示:“各個模型分工明確,各司其職,并且是分層的。就如人類學東西一樣,先學理論,再看別人如何操作,再自己操作。這樣分層次(學習),也令整個學習、訓練相對而言更容易一點。”

封面圖片來源:每經記者 張建 攝(資料圖)

如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。

讀者熱線:4008890008

特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。

歡迎關注每日經濟新聞APP

每經經濟新聞官方APP

0

0