波士頓動力機器狗學會跳繩!三條狗玩得真歡樂

波士頓動力機器學會跳繩(來源:本站科技報道)

2月2日消息,波士頓動力公司(Boston Dynamics)當地時間週一發佈了最新視頻,亮點是三個Spot在玩跳繩的場景:站在兩端的機器狗搖繩,中間的狗狗原地蹦起。

此外,還可以看到Spot毫不費力地拖着巨大的煤渣塊繞着停車區轉了一圈,隨後它用粉筆巧妙地勾勒出了巨大的“Boston Dynamics”輪廓。

視頻中一系列動作展示了Spot利用其機械臂系統可以做的事情。這條機器臂安裝在Spot的前部,能夠進行許多精細的運動技能操作,比如挖坑栽種植物和畫粉筆畫。

波士頓動力公司表示:“除了腿和攝像頭外,現在Spot還增加了手臂,它可以進行移動操作。Spot能夠發現和撿拾物品(垃圾)、整理起居室、開門、操作開關和閥門以及照看花園,這些通常都非常有趣。”

此前波士頓動力公司的機器狗Spot已經擁有跳舞、放羊、探索礦井以及幫助醫務人員等諸多技能,但它仍在不斷學習新的技巧。得益於安裝了機械臂和新的編程界面,Spot現在可以完成許多新的動作。

該公司補充說:“Spot的手、手臂和身體運動都可以自動協調,以簡化操作任務並擴大手臂的工作空間,使其伸展範圍基本不受限制。這裡顯示的行爲是使用新的移動操作API編寫的,支持自主和用戶應用程序,以及允許用戶進行遠程操作的平板電腦。”

在每段有關Spot的新視頻中,波士頓動力公司都會增加令人印象深刻的技能。

基礎版Spot有許多可選的附加組件,包括平板電腦控制器和激光雷達系統。波士頓動力公司承諾,將“擴大Spot在自主檢測和數據收集方面的價值”。

經過多年的開發和測試,Spot終於在2020年6月正式發售,售價74500美元。(小小)

相關閱讀:

波士頓動力機器人集體表演舞蹈 動作整齊劃一協調到令人害怕(來源:original)

【波士頓動力機器人全體出動跳新年舞 】當地時間12月29日,波士頓動力在其官方賬號上發佈視頻,其公司設計的幾款機器產品同框跳舞。並配文:“我們全體隊員一起慶祝希望會開始一個更快樂的一年:波士頓動力公司祝福新年快樂。”

有不少網友對此表示,太不可思議了!這些機器人跳的真好。也有不少網友對此表示擔憂,稱“機器人最終消滅整個人類”“當這東西追着你的時候就沒那麼好笑了”

浙大機器狗“絕影”展現新絕技,在陌生環境下八技合一、隨機應變】

DeepTech深科技

對於一隻自然界動物來說,在各種陌生環境下靈活切換相應的運動技能,似乎是一種條件反射和先天本領,但如何讓機器人掌握這種能力,卻非常具有挑戰性,這也是全球機器人專家們長期探索的課題。

2020年12月,一項由華人科學家團隊合作完成的機器人創新成果,當選爲Science Robotics雜誌的月度封面論文研究人員來自英國愛丁堡大學先進智能機器人實驗室與浙江大學朱秋國教授帶領的機器人團隊。

基於四足機器人,科研人員提出了一種多專家學習框架,讓機器人具備了應對各種意外情況的自主能力,並在運動響應敏捷度和靈活度方面表現優異。

圖|封面論文(來源:Science Robotics)

本項研究中使用的四足機器人,即是被稱爲中國版波士頓動力的 “絕影” 機器人,DeepTech此前曾對該機器人進行過專訪報道:《浙大機器狗 “絕影” 的逆襲,從技術上 “被虐” 到應用上追趕|獨家專訪》。

關於本期封面論文的算法特點和貢獻,DeepTech聯繫到論文的通訊作者李智彬進行了一番交流。

讓機器狗“集各家之長於一身”

李智彬目前是愛丁堡大學信息學院的助理教授,領銜先進智能機器人實驗室(主頁見文末)。他的研究方向包括機器人動態運動控制、實現(超)人類級別的機器人自主移動、多臂協調和抓取操作等,同時在機器人硬件平臺、力和柔順控制等領域也有豐富經驗

據他介紹,機器人在實際應用中通常會面臨兩種挑戰:一是在任務層,二是在算法方面。

首先,傳統方法中,機器人要去執行某種任務,需要算法工程師、程序員們對其進行編程,一般而言都是針對某一個具體任務來編程。這種方法無疑存在短板,比如說野外救災或是地震現場搜救工作中,機器人所處的環境將會非常複雜,地面可能有障礙物阻攔、崎嶇不平、打滑問題,機器人也會出現各種摔倒和其他意外情況。

如果出現100種或者1000種不同的情況,還要去執行多項任務,用傳統方法去編程是非常難涵蓋的,其量級也不可擴展,開發人員不可能 “先知先覺” 預先編程出所有的特定解決方案。因此,這就需要機器人在一個全新的環境下,自主決定應該怎麼去做才能完成任務。

其次,機器人遇到新的情況需要隨機應變,靈活應付。此前的很多研究中,幾乎都是把機器人的單項技能訓練做得很好,比如走路、奔跑、故障恢復等,但在演示中,有時候還需要操作員拿着遙控器根據機器人當時所處的情況去切換模式和操作,這讓實用性大打折扣。

而本次研究中提出的多專家系統,相當於每個 “專家” 都訓練了一種基本技能,比如說走路、故障恢復、摔倒爬起等,單項技能學會之後,然後讓不同 “專家” 組隊一起訓練,通過一個門控神經網絡,在不同事件、不同情況下去激活調度每個專家,讓他們綜合形成不同的協調組合,進而克服不同問題。

通過這樣的技能加持,四足機器人 “絕影” 在沒有導航的情況下,能自動執行在樓梯、礫石堆、崎嶇路面上進行連貫的小跑、轉向,乃至在被人踹倒、被推翻的情況下也能迅速恢復正常姿態

“最後形成的那個綜合‘專家’,相當於是集各家之長於一身,懂得融會貫通,這就讓機器人具備了在當時那種特定情況下所需要的技能組合,而且能夠根據不同情況千變萬化、舉一反三,去自主恢復繼續執行任務。” 李智彬說道。

機器人摸爬滾打的能力有了怎樣的提升?請看以下效果:

8項“專家技能”融會貫通,關鍵恢復能力控制在1秒內

詳細來講,論文中提到的多專家學習體系結構被命名爲MELA(multi-expert learning architecture),這是一個由深度神經網絡(DNN)和門控神經網絡(GNN)組成的分層強化學習(HRL)結構。

爲了幫助解釋,研究人員定義了幾個關鍵術語:運動技能、專家和運動模式。

運動技能:即一種反饋策略,可以產生協調的動作來完成特定類型的任務,這是構建更復雜動作的基礎;專家:具有專業運動技能的DNN;運動模式:四肢協調運動的一種模式,如站立、原地轉動、向前 / 向後小跑、左右轉向、跌倒恢復等。

圖|不同的技能種類(來源:Science Robotics)

研究人員爲機器人訓練了8項運動技能,包括:(1)從背部翻身;(2)側滾;(3)身體姿勢控制;(4)站立平衡;(5)左轉;(6)右轉;(7)小步小跑;(8)大步小跑。

不同的技能需要不同的觸發方式,而把 “八技” 融會貫通是 MELA 合成可變技能和產生適應性行爲的基礎。

面對不同情況下,GNN 生成可變權重(α)來融合所有八個專家網絡的參數,這樣新合成的運動技能可以通過混合各個專家的有效技能,快速生成不同的運動技能,來適應各種未知場景。

圖|多專家學習框架 MELA 的原理(來源:Science Robotics)

實驗結果表明,依靠 MELA 輸出的融合技能加持,“絕影” 機器人的關鍵恢復能力控制在1秒內(恢復身體姿態平均0.5s,恢復小跑模式平均0.4s),也顯示出了在非結構化環境下更強的可靠性和通障性能。

還有一個值得關注訣竅是,研究人員從生物運動控制中汲取了靈感,這讓運動控制和學習框架更加貼近真實的四足動物。

例如,動物的運動行爲都是受中樞神經系統控制的,中樞神經系統會重新設置身體關節的參考位置,根據參考位置與實際位置之間的差異,激發肌肉活動以產生適當的力進行姿態調整。

由於阻抗控制提供的彈簧阻尼特性類似於生物肌肉的彈性,因此研究團隊應用了平衡點(EP)控制假設,通過調控平衡點來生成關節扭矩

受肌肉系統的生物力學控制和 EP 假設的啓發,研究人員其實將機器人控制分爲了兩層:在底層,團隊使用扭矩控制爲機器人配置關節阻抗模式;在頂層,指定深度神經網絡(DNN)爲所有關節產生設定平衡點,以調節姿勢和關節扭矩,建立與環境的力相互作用,在這樣的基礎上,MELA 可輸出更加貼近真實四足動物的運動策略。

圖|機器狗的摔倒爬起連貫反應(來源:愛丁堡 Advanced Intelligent Robotics Lab)

下一步,仍需更多跨界合作

“這樣的多專家系統、多技能融合框架,讓機器人可以自主切換運動策略、自己去適應環境,在足式機器人上算是第一次應用,這也是爲什麼這項成果能被 Science Robotics 評爲封面,至少它實現了一種質的突破,較此前研究形成了一個代差。” 李智彬表示。

據瞭解,這種多專家融合技能的思路,也能夠延伸到其他機器人平臺上。包括各類四足、雙足機器人,以及輪式的、履帶式的機器人,乃至在機器人進行抓取操作上也可以應用。機器抓取不同的東西的策略是不一樣的,本質也就是不同專家的技能延展,無論是抓紙張、書本、杯子,還是光溜溜的肥皂、球體、軟硬不同的物體等,其實都需要不同的專家技能策略。

關於進一步改進和提升的空間,他表示,仍需要和圈內更多優秀團隊一起合作探索,才能不斷突破,未來的研究可以集成視覺、觸覺傳感等,以開發多感知型運動技能。

例如,對於機器人本身而言,現在普遍還缺少一種 “電子皮膚”。

目前機器人機載的傳感器對各種情況判斷,很大程度上都要通過大量的訓練經驗積攢起來,由於機載傳感器有限,很多經驗只是統計學上來講是對的,但它針對某個特殊情況卻不一定是最好的,只能說有較高的成功率。

但在自然界的生物中,小到毛毛蟲、蠕蟲,大到各類動物、人類全都是有皮膚的,如果機器人在廢墟現場要鑽進去一個洞,進去之後身邊的環境是怎樣的,怎麼通過,障礙物與機身表面是怎麼接觸的,如此複雜的環境下現有的傳統傳感器就不夠用了,需要 “電子皮膚” 更加精細化地感知區分

另一方面,機器人對外部的感知理解能力仍然有待提高。

比如一個霧濛濛的環境,是因爲有霧,還是因爲燃燒引起的煙,單純用計算機視覺來看,不一定能區分清楚;再比如機器人從室內走到室外,外面是一個零下的無雪環境,在機器視覺看來地面可能與平常無異,雷達也探測不到障礙物,但這種情況下人類走路、開車會下意識地注意路面可能會打滑,機器人卻還不能意識到這點調整策略,這些 “非接觸式” 的外部傳感包括輻射、溫度、氣體檢測等也都非常關鍵。

“目前這項研究背後只有兩個專家團隊,但機器人研究不能閉門造車。就像機器人現在都具備了多專家能力一樣,我們非常歡迎和更多跨學科、跨領域的團隊一起合作,碰撞出更多創新想法和可能性。” 李智彬最後說道。

騰訊機器狗Jamoca:梅花樁,小case!】

騰訊公佈了自己在移動機器人研究方面的新進展,共展示兩項產品。其中,最爲令人印象深刻的是機器狗Jamoca,它可是走梅花樁的一把好手。

據瞭解,Jamoca重約70公斤,長1米、寬0.5米、站高0.75米,是國內首個能完成走梅花樁複雜挑戰的四足機器人,由騰訊Robotics X實驗室打造,借用了雲深處的硬件來承載系統技術。

騰訊設計的梅花樁由高60釐米、呈20°斜面角度的臺階和鄰樁最大高度差16釐米、間距不等的梅花樁兩部分組成,樁面直徑約20cm。

騰訊Robotics X實驗室研究員介紹,相較於國際上其他四足機器人走木塊的場景,此次Jamoca所挑戰的梅花樁落腳面積更小、高度更高,且有臺階的組合,因此難度更大。

此次走梅花樁主要考究機器人的兩點能力,分別是理解梅花樁的排布(包括位置和高度)、選擇最佳落腳點及路線並穩定精準地行走(落腳到梅花樁中心點)。

依據結果來看,Jamoca已經達到了一個極高的技術標準:誤差1釐米內的感知定位、根據環境進行的10毫秒級路線規劃、基於動力學的1KHz實時力矩控制、梅花樁中心點1釐米內的落腳誤差,以及全系統的高度協同。

一直以來,機器人的平衡能力都是業界的一個研究高地,尤其是多足機器人方面。當前在這一研究上,包括騰訊在內的多個國內外科技企業都有所部署。至於落地商用,“平臺”成爲多數多足機器人開發商的選擇。

據悉,Jamoca眼下還是主要用於實驗室內部科研實驗,騰訊Robotics X實驗室未來將利用它進一步探究在線環境感知、最優運動規劃和實時運動控制等能力,從而在未來幫助騰訊其他機器人產品更好地適應複雜的現實環境。