用模仿學習賦予機器人新技能,斯坦福團隊讓機器人學會“繫鞋帶”

近年來,機器人正在深入各種應用場景。尤其是在家居場景中,AI機器人已經能夠挑戰一個又一個複雜且高難度的操作,例如疊衣服、掃地、逗貓、澆花,甚至是炒菜。

最近,斯坦福大學團隊發佈了全球首個AI機器人自主繫鞋帶演示視頻,主角就是谷歌 DeepMind聯合斯坦福推出的Mobile ALOHA 2(簡稱:ALOHA 2)機器人。

與一代相比,ALOHA 2在硬件和軟件上都進行了顯著升級,使其能夠執行更加精細和複雜的操作。同時,採用人體工程學設計,使其更具穩健性。除了繫鞋帶,視頻中的ALOHA 2機器人還會掛衣服、擰齒輪、收拾廚房,甚至是給其他機器人更換不同用途的配件。

同時,研究人員開源了ALOHA 2所有硬件設計,並提供了詳細的教程,以及具有系統識別功能的ALOHA2MuJoCo 模型。

模擬學習過程中,研究人員利用擴散策略收集了共計2.6萬個示範數據,使得機器人能夠在沒有強化學習干預的情況下,達到接近99%的任務成功率。這樣的訓練策略爲未來機器人教導新技能提供了可行的路徑,尤其是在複雜和多變的環境中。值得注意的是,Aloha2的神經網絡架構借鑑了ACT模型,依託8,500萬的Transformer編碼器,使得機器人對操作的理解和執行更加精準。

ALOHA 2是由谷歌旗下DeepMind與斯坦福大學聯合推出的第二代ALOHA機器人。今年1月,第一代ALOHA就熟練地完成備菜、翻炒、出鍋,洗衣、逗貓、澆花等操作,引起業內高度關注。

此次ALOHA 2的繫鞋帶視頻傳遞出的意義,就是AI機器人已經能夠實現類似人的動作和行爲。可以說是,預示着複雜的操作已經難不倒AI機器人,其已經能夠勝任家居場景中的不少繁瑣的操作。此外,模仿學習也將賦予AI機器人更多的新技能。