国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

深度強化學習打造的ANYmal登上Science子刊,真的超越了波士頓動力!

悟空智能科技 ? 來源:lq ? 2019-01-28 14:12 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

深度強化學習開發出的機器人模型通常很難應用到真實環境中,因此機器人開發中鮮少使用該技術。然而這已經板上釘釘了嗎?在兩天前引發人工智能界關注的 ANYmal 機器人中,其機動性和適應性看起來絲毫不遜色于波士頓動力。其相關論文近期登上了 Science 子刊《Science Robotics》,并且明確指出使用了深度強化學習技術。基于 AI 技術的成功應用,ANYmal 在數據驅動的開發上或許會更有優勢。

摘要:足式機器人是機器人學中最具挑戰性的主題之一。動物動態、敏捷的動作是無法用現有人為方法模仿的。一種引人注目的方法是強化學習,它只需要極少的手工設計,能夠促進控制策略的自然演化。然而,截至目前,足式機器人領域的強化學習研究還主要局限于模仿,只有少數相對簡單的例子被部署到真實環境系統中。主要原因在于,使用真實的機器人(尤其是使用帶有動態平衡系統的真實機器人)進行訓練既復雜又昂貴。本文介紹了一種可以在模擬中訓練神經網絡策略并將其遷移到當前最先進足式機器人系統中的方法,因此利用了快速、自動化、成本合算的數據生成方案。該方法被應用到 ANYmal 機器人中,這是一款中型犬大小的四足復雜機器人系統。利用在模擬中訓練的策略,ANYmal 獲得了之前方法無法實現的運動技能:它能精確、高效地服從高水平身體速度指令,奔跑速度比之前的機器人更快,甚至在復雜的環境中還能跌倒后爬起來。

圖 1:創建一個控制策略。第一步是確定機器人的物理參數并估計其中的不確定性。第二步是訓練一個致動器網絡,建模復雜的致動器/軟件動力機制。第三步是利用前兩步中得到的模型訓練一個控制策略。第四步是直接在物理系統中部署訓練好的策略。

結果

該視頻展示了結果和方法。

基于命令的運動

圖 2:習得運動控制器的量化評估結果。A. 發現的步態模式按速度指令以 1.0 m/s 的速度運行。LF 表示左前腿,RF 表示右前腿,LH 表示左后腿,RH 表示右后腿。B. 使用本文方法得到的基礎速度的準確率。C-E. 本文習得控制器與現有最佳控制器在能耗、速度誤差、扭矩大小方面的對比,給定的前進速度指令為 0.25、0.5、0.75 和 1.0 m/s。

高速運動

圖 3:對高速運動訓練策略的評估結果。A. ANYmal 的前進速度。B. 關節速度。C. 關節扭矩。D. 步態模式。

跌倒后的恢復

圖 4:在真實機器人上部署的恢復控制器。該研究學到的策略成功使機器人在 3 秒內從隨機初始配置中恢復。

材料和方法

這一部分會詳細描述模擬環境、訓練過程和在物理環境中的部署。圖 5 是訓練方法概覽。訓練過程如下:剛體模擬器會根據關節扭矩和當前狀態輸出機器人的下一個狀態。關節速度和位置誤差會被緩存在有限時間窗口的關節狀態歷史中。由帶兩個隱藏層的 MLP 實現的控制策略會將當前狀態和關節狀態歷史的觀察結果映射為關節位置目標。最后,致動器網絡會將關節狀態歷史和關節位置目標映射為 12 個關節扭矩值,然后進入下一個訓練循環。

圖 5:模擬過程中的訓練控制策略。

建模剛體動力機制

為了在合理時間內有效訓練復雜的策略,并將其遷移到現實世界,我們需要一種又快又準確的模擬平臺。開發行走機器人的最大挑戰之一是非連續接觸的動力機制建模。為此,研究者使用了之前工作中開發出的剛體接觸求解器 [41]。這個接觸求解器使用了一個完全遵循庫倫摩擦錐約束的硬接觸模型。這種建模技術可以準確地捕獲一系列剛體和環境進行硬接觸時的真實動力機制。該求解器能準確而快速地在臺式計算機上每秒生成模擬四足動物的 90 萬個時間步。

連接的慣性是從 CAD 模型估計出來的。研究者預期估計會達到 20% 的誤差因為沒有建模布線和電子器件。為了考慮這些建模不確定性,研究者通過隨機采樣慣性訓練了 30 種不同的 ANYmal 模型來使得策略更加穩健。質心位置、連接的質量和關節位置分別通過添加從 U(?2, 2) cm、U(?15, 15)%、 U(?2, 2) cm 中采樣的噪聲進行隨機化。

建模致動器

圖 6:學得致動器模型的驗證結果。

強化學習

研究者展示了離散時間中的控制問題。在每個時間步 t,智能體獲取觀測結果 o_t ∈O,執行動作 a_t ∈A,獲取標量獎勵 r_t ∈ ?。研究者所指獎勵和成本是可以互換的,因為成本就是負的獎勵。研究者用 O_t = 〈o_t, o_t ? 1, …, o_t ? h〉表示近期觀測結果的元組。智能體根據隨機策略 π(a_t|O_t) 選擇動作,該隨機策略是基于近期觀測結果的動作分布。其目的在于找到在無窮水平中使折扣獎勵總和最大化的策略:

其中 γ ∈ (0, 1) 是折扣因子,τ(π) 是在策略 π 下的軌跡分布(該策略和環境動態下的分布)。在研究設置中,觀測結果是評估機器人狀態的指標(向控制器提供),動作是向致動器傳達的位置命令,獎勵是指定的(以誘導感興趣的行為)。

多種強化學習算法可應用于這個指定策略優化問題。研究者選擇了置信域策略優化(TRPO),該算法可在模擬中學習運動策略。它幾乎不需要調參,論文中所有學習會話都僅使用默認參數([22, 54] 提供的參數)。研究者使用了該算法的快速自定義實現 [55]。這一高效實現和快速剛體模擬 [41] 可在約 4 小時內生成和處理 2.5 億狀態轉換。當該策略的平均性能在 300 個 TRPO 迭代中的改進沒有超過任務特定閾值時,學習會話終止。

在物理系統上部署

研究者用 ANYmal 機器人來展示其方法在真實環境中的適用性,如圖 1 中步驟 4 所示。ANYmal 是一種體型與狗差不多的四足機器人,重 32kg。每只足約 55 厘米長,且有三個驅動自由度,即髖部外展/內收、髖關節屈/伸、膝關節屈/伸。

ANYmal 有 12 個 SEA。一個 SEA 由一個電動機、一個高傳動比傳動裝置、一個彈性元件和兩個旋轉編碼器組成。它可以測量彈簧偏移和輸出位置。在本文中,研究者在 ANYmal 機器人的關節級促動器模塊上使用了具有低反饋收益的關節級 PD 控制器。促動器的動態包含多個連續的組件,如下所示。首先,使用 PD 控制器將位置指令轉換成期望的扭矩。接著,使用來自期望扭矩的 PID 控制器計算期望電流。然后,用磁場定向控制器將期望電流轉換成相電壓,該控制器在變速器的輸入端產生扭矩。變速器的輸出端與彈性元件相連,彈性元件的偏移最終在關節處生成扭矩。這些高度復雜的動態引入了很多隱藏的內部狀態,研究者無法直接訪問這些內部狀態并復雜化其控制問題。

從混合模擬中為訓練策略獲得參數集后,在真實系統上的部署變得簡單多了。定制的 MLP 實現和訓練好的參數集被導到機器人的機載 PC 上。當這個網絡在 200Hz 時,其狀態被評估為基于命令/高速的運動,在 100Hz 時被評估為從墜落中恢復。研究者發現,其性能出人意料地對控制率不敏感。例如,在 20 Hz 時訓練恢復運動與在 100 Hz 時性能一致。這可能是因為翻轉行為涉及低關節速度(大部分低于 6 弧度/秒)。更動態的行為(如運動)通常需要更高的控制率才能獲得足夠的性能。實驗中使用了更高的頻率(100 Hz),因為這樣噪音更少。甚至在 100 Hz 時,對網絡的評估僅使用了單個 CPU 核上可用計算的 0.25 %。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 強化學習
    +關注

    關注

    4

    文章

    270

    瀏覽量

    11970
  • ai技術
    +關注

    關注

    1

    文章

    1313

    瀏覽量

    25750
  • 波士頓動力
    +關注

    關注

    3

    文章

    178

    瀏覽量

    14014

原文標題:真的超越了波士頓動力!深度強化學習打造的 ANYmal 登上 Science 子刊

文章出處:【微信號:WUKOOAI,微信公眾號:悟空智能科技】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    西門子交通與羅徹斯特電子合作的成功案例

    波士頓馬薩諸塞灣交通局(MBTA)紅線地鐵面臨元器件停產挑戰,因為其無法再從原始元器件制造商(OCM)處獲得列車動力控制單元中關鍵的電子可編程邏輯器件(EPLD)。西門子交通與MBTA的工程師評估多種解決方案,最終選擇與羅徹斯
    的頭像 發表于 02-11 15:32 ?409次閱讀

    自動駕駛中常提的離線強化學習是什么?

    [首發于智駕最前沿微信公眾號]在之前談及自動駕駛模型學習時,詳細聊過強化學習的作用,由于強化學習能讓大模型通過交互學到策略,不需要固定的規則,從而給自動駕駛的落地創造更多可能。
    的頭像 發表于 02-07 09:21 ?214次閱讀
    自動駕駛中常提的離線<b class='flag-5'>強化學習</b>是什么?

    強化學習會讓自動駕駛模型學習更快嗎?

    [首發于智駕最前沿微信公眾號]在談及自動駕駛大模型訓練時,有的技術方案會采用模仿學習,而有些會采用強化學習。同樣作為大模型的訓練方式,強化學習有何不同?又有什么特點呢? 什么是強化學習
    的頭像 發表于 01-31 09:34 ?646次閱讀
    <b class='flag-5'>強化學習</b>會讓自動駕駛模型<b class='flag-5'>學習</b>更快嗎?

    多智能體強化學習(MARL)核心概念與算法概覽

    訓練單個RL智能體的過程非常簡單,那么我們現在換一個場景,同時訓練五個智能體,而且每個都有自己的目標、只能看到部分信息,還能互相幫忙。這就是多智能體強化學習
    的頭像 發表于 01-21 16:21 ?198次閱讀
    多智能體<b class='flag-5'>強化學習</b>(MARL)核心概念與算法概覽

    上汽別克至境E7首發搭載Momenta R6強化學習大模型

    別克至境家族迎來新成員——大五座智能SUV別克至境E7首發。新車將搭載Momenta R6強化學習大模型,帶來全場景的智能出行體驗。
    的頭像 發表于 01-12 16:23 ?332次閱讀

    中創新航助力全球首艘甲醇雙燃料動力化學品船首航

    近日,由意大利船東Fratelli Cosulich投資建造的全球首艘兼具甲醇雙燃料動力、甲醇運輸與甲醇加注功能的化學品船——“Maya Cosulich”號正式離港首航。中創新航作為電力系統核心供應商,為其量身打造
    的頭像 發表于 12-31 13:43 ?335次閱讀

    TE推出M3200壓力傳感器有何特點?-赫聯電子

    (Heilind Electronics):   Heilind Electronics(赫聯電子)創立于1974年,全球總部位于美國波士頓,已在中國內地,香港,新加坡,美國,德國,巴西,加拿大和墨西哥設立
    發表于 12-09 13:23

    Nature傳感器新第一篇論文出爐,中國青年學者聯手撰寫

    ? ? 近期,知名學術期刊《Nature》(《自然》)旗下專注于傳感器研究領域的《Nature Sensors》,刊發了創刊以來的第一篇論文。 ? ? 《Nature Sensors》是今年4
    的頭像 發表于 11-27 15:04 ?788次閱讀
    Nature傳感器新<b class='flag-5'>子</b><b class='flag-5'>刊</b>第一篇論文出爐,中國青年學者聯手撰寫

    今日看點:智元推出真機強化學習;美國軟件公司SAS退出中國市場

    智元推出真機強化學習,機器人訓練周期從“數周”減至“數十分鐘” ? 近日,智元機器人宣布其研發的真機強化學習技術,已在與龍旗科技合作的驗證產線中成功落地。據介紹,此次落地的真機強化學習方案,機器人
    發表于 11-05 09:44 ?1100次閱讀

    自動駕駛中常提的“強化學習”是個啥?

    [首發于智駕最前沿微信公眾號]在談及自動駕駛時,有些方案中會提到“強化學習(Reinforcement Learning,簡稱RL)”,強化學習是一類讓機器通過試錯來學會做決策的技術。簡單理解
    的頭像 發表于 10-23 09:00 ?676次閱讀
    自動駕駛中常提的“<b class='flag-5'>強化學習</b>”是個啥?

    Meta重磅入局人形機器人,目標打造“機器人界的安卓系統”

    在人工智能與虛擬現實領域深耕多年的Meta,正式將目光投向人形機器人這一新興賽道。與特斯拉、波士頓動力等公司聚焦硬件研發不同,Meta選擇一條差異化路徑:不做硬件制造商,而是
    的頭像 發表于 09-28 17:37 ?644次閱讀

    愛立信展示AI賦能5G的創新成果

    近日,在波士頓舉行的一場專屬活動中,愛立信重點展示AI賦能的5G創新成果、任務關鍵型網絡,以及驅動企業變革的全球API合作與解決方案。
    的頭像 發表于 09-24 14:05 ?1.3w次閱讀

    軟通動力總結AI4S領域的大模型應用范式

    的源頭創新》的主題演講。闡述AI for Science(AI4S)作為驅動科技源頭創新核心引擎的關鍵作用,并分享軟通動力在該前沿領域的洞察與實踐。
    的頭像 發表于 07-30 17:28 ?1935次閱讀

    NVIDIA Isaac Lab可用環境與強化學習腳本使用指南

    Lab 是一個適用于機器人學習的開源模塊化框架,其模塊化高保真仿真適用于各種訓練環境,Isaac Lab 同時支持模仿學習(模仿人類)和強化學習(在嘗試和錯誤中進行學習),為所有機器
    的頭像 發表于 07-14 15:29 ?2350次閱讀
    NVIDIA Isaac Lab可用環境與<b class='flag-5'>強化學習</b>腳本使用指南

    18個常用的強化學習算法整理:從基礎方法到高級模型的理論技術與代碼實現

    本來轉自:DeepHubIMBA本文系統講解從基本強化學習方法到高級技術(如PPO、A3C、PlaNet等)的實現原理與編碼過程,旨在通過理論結合代碼的方式,構建對強化學習算法的全面理解。為確保內容
    的頭像 發表于 04-23 13:22 ?1613次閱讀
    18個常用的<b class='flag-5'>強化學習</b>算法整理:從基礎方法到高級模型的理論技術與代碼實現