国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

簡單隨機搜索:無模型強化學習的高效途徑

zhKF_jqr_AI ? 來源:未知 ? 作者:steve ? 2018-04-01 09:35 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

現在人們對無模型強化學習的一個普遍看法是,這種基于隨機搜索策略的方法在參數空間中比那些探索行為空間的方法表現出更差的樣本復雜性。UC Berkeley的研究人員通過引入隨機搜索方法,推翻了這種說法。以下是論智對作者Benjamin Recht博文的編譯。

我們已經看到,隨機搜索在簡單的線性問題上表現得很好,而且似乎比一些強化學習方法(例如策略梯度)更好。然而隨著問題難度增加,隨機搜索是否會崩潰?答案是否定的。但是,請繼續讀下去!

讓我們在強化學習社區感興趣的問題上應用隨機搜索。深度強化學習領域一直把大量時間和精力用于由OpenAI維護的、基于MuJoCo模擬器的一套基準測試中。這里,最優控制問題指的是讓一個有腿機器人在一個方向上盡可能快地行走,越遠越好。其中一些任務非常簡單,但是有些任務很難,比如這種有22個自由度的復雜人形模型。有腿機器人的運動由Hamilton方程控制,但是從這些模型中計劃動作是非常具有挑戰性的,因為沒有設計目標函數的最佳方法,并且模型是分段線性的。只要機器人的任何部位碰到堅硬物體,模型就會變化,因此會出現此前沒有的作用于機器人的法向力。于是,讓機器人無需處理復雜的非凸非線性模型而正常工作,對強化學習來說是個有趣的挑戰。

最近,Salimans及其在OpenAI的合作者表示,隨機搜索在這些標準測試中表現的很好,尤其是加上幾個算法增強后很適合神經網絡控制器。在另一項實驗中,Rajeswaran等人表示,自然策略梯度可以學習用于完成標準的先行策略。也就是說,他們證明靜態線性狀態的反饋——就像我們在LQR(Linear Quadratic Regulator)中使用的那樣——也足以控制這些復雜的機器人模擬器。但這仍然有一個問題:簡單隨機搜索能找到適合MuJoCo任務的線性控制器嗎?

我的學生Aurelia Guy和Horia Mania對此進行了測試,他們編寫了一個非常簡單的隨機搜索版本(是我之前發布的Iqrpols.py中的一個)。令人驚訝的是,這個簡單的算法學習了Swimmer-v1,Hopper-v1,Walker2d-v1和Ant-v1任務中的線性策略,這些策略實現了之前文章中提出的獎勵閾值。不錯!

簡單隨機搜索:無模型強化學習的高效途徑

但是只有隨機搜索還不夠完美。Aurelia和Horia完全不能用人形模型做出有趣的事。試了很多次參數調整后,他們決定改進隨機搜索,讓它訓練地更快。Horia注意到許多強化學習的論文利用狀態的統計數據,并且在將狀態傳遞給神經網絡之前能夠將狀態白化。所以他開始保持在線估計狀態,在將他們傳遞給線性控制器之前將它們白化。有了這個簡單的竅門,Aurelia和Horia現在可以讓人形機器人做出最佳表現。這實際上是Salimans等人在標準值上達到的“成功閾值”的兩倍。只需要線性控制器、隨機搜索和一個簡單的技巧。

簡單隨機搜索:無模型強化學習的高效途徑

另外還有一件簡單的事情就是,代碼比OpenAI的進化策略論文中的要快15倍。我們可以用更少的計算獲得更高的獎勵。用戶可以在一小時內在標準18核EC2實例上訓練一個高性能人形模型。

現在,隨著在線狀態的更新,隨機搜索不僅超過了人形模型的最佳水平,而且還超越了Swimmer-v1、Hopper-v1、HalfCheetah-v1。但在Walker2d-v1和Ant-v1上的表現還不是很好。但是我們可以再添加一個小技巧。我們可以放棄不會產生良好回報的采樣方向。這增加了一個超參數,但有了這一額外的調整,隨機搜索實際上可能會達到或超過OpenAI的gym中所有MuJoCo標準的最佳性能。注意,這里并不限制與策略梯度的比較。就我所知,這些策略比任何無模型強化學習的應用結果要好,無論是Actor Critic Method還是Value Function Estimation Method等等更深奧的東西。對于這類MuJoCo問題,似乎純粹的隨機搜索優于深度強化學習和神經網絡。

簡單隨機搜索:無模型強化學習的高效途徑

通過一些小調整得到的隨機搜索結果勝過了MuJoCo任務中的所有其他方法,并且速度更快。論文和代碼都已公布。

從隨機搜索中,我們有了以下幾點收獲:

基準很難

我認為所有這一切唯一合理的結論就是這些MuJoCo Demo很容易,毫無疑問。但是,用這些標準測試NIPS、ICML或ICLR中的論文可能不再合適。這就出現了一個重要的問題:什么是強化學習的良好標準?顯然,我們需要的不僅僅是Mountain Car。我認為具有未知動作的LQR是一個合理的任務,因為確定新實例并了解性能的限制是很容易的。但是該領域應該花更多時間了解如何建立有難度的標準。

不要在模擬器上抱太大希望

這些標準比較容易的一部分原因是MuJoCo不是一個完美的模擬器。MuJoCo非常快,并且對于概念驗證非常有用。但為了快速起見,它必須在接觸點周圍進行平滑處理(接觸的不連續是使腿部運動困難的原因)。因此,你只能讓其中一個模擬器走路,并不意味著你可以讓真正的機器人走路。的確,這里有四種讓獎勵可以達到6000的步態,但看起來都不太現實:

即使是表現最好的模型(獎勵達到11600),如下圖所示,這種看起來很蠢的步態也不可能應用在現實中:

努力將算法簡化

在簡單算法中添加超參數和算法小部件,可以在足夠小的一組基準測試中提高其性能。我不確定是否放棄最好的方向或狀態歸一化會對新的隨機搜索問題起作用,但這對MuJoCo的標準和有用。通過添加更多可調參數,甚至可以獲得更多回報。

使用之前先探索

注意,由于隨機搜索方法很快,我們可以評估它在許多隨機種子上的表現。這些無模型的方法在這些基準上都表現出驚人的巨大差異。例如,在人形任務中,即使我們提供了我們認為是好的參數,模型的訓練時間也慢了四分之一。對于那些隨機種子,它會找到相當奇特的步態。如果將注意力限定在三個隨機種子上用于隨機搜索,通常具有誤導性,因為你可能會將性能調整為隨機數生成器的特性。

簡單隨機搜索:無模型強化學習的高效途徑

這種現象在LQR上也出現了。我們可以將算法向一些隨機種子進行微調,然后在新的隨機種子上看到完全不同的行為。Henderson等人用深度強化學習方法觀察了這些現象,但我認為如此高的變量將成為所有無模型方法的通用癥狀。僅通過模擬就能解釋很多邊界情況。正如我在上一篇文章中所說的:“通過拋棄模型和知識,我們永遠不知道是否可以從少數實例和隨機種子中學到足夠的東西進行概括。”


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 強化學習
    +關注

    關注

    4

    文章

    270

    瀏覽量

    11970

原文標題:簡單隨機搜索:強化學習的高效途徑

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    算法工程師需要具備哪些技能?

    :自動化任務(如數據預處理、模型訓練調度)。Git版本控制:團隊協作開發(如分支管理、代碼合并)。 機器學習監督學習:線性回歸、邏輯回歸、決策樹、SVM等。監督
    發表于 02-27 10:53

    自動駕駛中常提的離線強化學習是什么?

    [首發于智駕最前沿微信公眾號]在之前談及自動駕駛模型學習時,詳細聊過強化學習的作用,由于強化學習能讓大模型通過交互學到策略,不需要固定的規則
    的頭像 發表于 02-07 09:21 ?210次閱讀
    自動駕駛中常提的離線<b class='flag-5'>強化學習</b>是什么?

    強化學習會讓自動駕駛模型學習更快嗎?

    [首發于智駕最前沿微信公眾號]在談及自動駕駛大模型訓練時,有的技術方案會采用模仿學習,而有些會采用強化學習。同樣作為大模型的訓練方式,強化學習
    的頭像 發表于 01-31 09:34 ?646次閱讀
    <b class='flag-5'>強化學習</b>會讓自動駕駛<b class='flag-5'>模型</b><b class='flag-5'>學習</b>更快嗎?

    多智能體強化學習(MARL)核心概念與算法概覽

    訓練單個RL智能體的過程非常簡單,那么我們現在換一個場景,同時訓練五個智能體,而且每個都有自己的目標、只能看到部分信息,還能互相幫忙。這就是多智能體強化學習
    的頭像 發表于 01-21 16:21 ?197次閱讀
    多智能體<b class='flag-5'>強化學習</b>(MARL)核心概念與算法概覽

    上汽別克至境E7首發搭載Momenta R6強化學習模型

    別克至境家族迎來新成員——大五座智能SUV別克至境E7首發。新車將搭載Momenta R6強化學習模型,帶來全場景的智能出行體驗。
    的頭像 發表于 01-12 16:23 ?330次閱讀

    NVIDIA 推出 Nemotron 3 系列開放模型

    token 數。 ● Nemotron 通過先進的強化學習技術以及大規模并行多環境后訓練,實現了卓越的準確率。 ● NVIDIA 率先推出整套前沿的開放模型、訓練數據集及強化學習環境與
    的頭像 發表于 12-16 09:27 ?630次閱讀
    NVIDIA 推出 Nemotron 3 系列開放<b class='flag-5'>模型</b>

    如何訓練好自動駕駛端到端模型

    [首發于智駕最前沿微信公眾號]最近有位小伙伴在后臺留言提問:端到端算法是怎樣訓練的?是模仿學習強化學習和離線強化學習這三類嗎?其實端到端(end-to-end)算法在自動駕駛、智能體決策系統里
    的頭像 發表于 12-08 16:31 ?1428次閱讀
    如何訓練好自動駕駛端到端<b class='flag-5'>模型</b>?

    今日看點:智元推出真機強化學習;美國軟件公司SAS退出中國市場

    智元推出真機強化學習,機器人訓練周期從“數周”減至“數十分鐘” ? 近日,智元機器人宣布其研發的真機強化學習技術,已在與龍旗科技合作的驗證產線中成功落地。據介紹,此次落地的真機強化學習方案,機器人
    發表于 11-05 09:44 ?1096次閱讀

    自動駕駛中常提的“強化學習”是個啥?

    [首發于智駕最前沿微信公眾號]在談及自動駕駛時,有些方案中會提到“強化學習(Reinforcement Learning,簡稱RL)”,強化學習是一類讓機器通過試錯來學會做決策的技術。簡單理解
    的頭像 發表于 10-23 09:00 ?674次閱讀
    自動駕駛中常提的“<b class='flag-5'>強化學習</b>”是個啥?

    速看!EASY-EAI教你離線部署Deepseek R1大模型

    1.Deepseek簡介DeepSeek-R1,是幻方量化旗下AI公司深度求索(DeepSeek)研發的推理模型。DeepSeek-R1采用強化學習進行后訓練,旨在提升推理能力,尤其擅長數學、代碼
    的頭像 發表于 07-25 15:22 ?1376次閱讀
    速看!EASY-EAI教你離線部署Deepseek R1大<b class='flag-5'>模型</b>

    如何在Ray分布式計算框架下集成NVIDIA Nsight Systems進行GPU性能分析

    在大語言模型強化學習訓練過程中,GPU 性能優化至關重要。隨著模型規模不斷擴大,如何高效地分析和優化 GPU 性能成為開發者面臨的主要挑戰之一。
    的頭像 發表于 07-23 10:34 ?2402次閱讀
    如何在Ray分布式計算框架下集成NVIDIA Nsight Systems進行GPU性能分析

    NVIDIA Isaac Lab可用環境與強化學習腳本使用指南

    Lab 是一個適用于機器人學習的開源模塊化框架,其模塊化高保真仿真適用于各種訓練環境,Isaac Lab 同時支持模仿學習(模仿人類)和強化學習(在嘗試和錯誤中進行學習),為所有機器
    的頭像 發表于 07-14 15:29 ?2349次閱讀
    NVIDIA Isaac Lab可用環境與<b class='flag-5'>強化學習</b>腳本使用指南

    最新人工智能硬件培訓AI 基礎入門學習課程參考2025版(大模型篇)

    教育等領域發揮著越來越重要的作用。?針對日前前來咨詢的廣大客戶對面向大模型智能硬件的學習需求,我們根據CSK6大模型語音視覺開發板已有功能,整理了一份適合基于本開發板進行教學活動的學習
    發表于 07-04 11:10

    【書籍評測活動NO.62】一本書讀懂 DeepSeek 全家桶核心技術:DeepSeek 核心技術揭秘

    。DeepSeek-V3 的發布幾乎沒有預熱和炒作,僅憑借其出色的效果和超低的成本迅速走紅。 DeepSeek-R1 則是在 DeepSeek-V3 的基礎上構建的推理模型,它在后訓練階段大規模使用強化學習技術
    發表于 06-09 14:38

    18個常用的強化學習算法整理:從基礎方法到高級模型的理論技術與代碼實現

    本來轉自:DeepHubIMBA本文系統講解從基本強化學習方法到高級技術(如PPO、A3C、PlaNet等)的實現原理與編碼過程,旨在通過理論結合代碼的方式,構建對強化學習算法的全面理解。為確保內容
    的頭像 發表于 04-23 13:22 ?1612次閱讀
    18個常用的<b class='flag-5'>強化學習</b>算法整理:從基礎方法到高級<b class='flag-5'>模型</b>的理論技術與代碼實現