国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

強化學習之父Richard Sutton總結AI研究“苦澀教訓”

DPVg_AI_era ? 來源:lp ? 2019-03-22 08:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

強化學習之父Richard Sutton總結AI研究“苦澀教訓”,認為利用算力才是王道,不應依靠人類知識。對此,著名機器人專家Rodney Brooks 撰文反駁,闡述了Sutton觀點錯誤的六大原因。

The Bitter Lesson還是A Better Lesson?

近日,強化學習之父、加拿大計算機科學家 Richard S. Sutton 在其個人網(wǎng)站上發(fā)文The Bitter Lesson,指出了過去 70 年來 AI 研究方面的苦澀教訓:我們過于依靠人類知識了。

參考閱讀:

強化學習之父:AI研究70年教訓深刻,未來探索要靠智能體自己

他認為,過去 70 年來,AI 研究走過的最大彎路,就是過于重視人類既有經驗和知識,研究人員在訓練 AI 模型時,往往想將人類知識灌輸給智能體,而不是讓智能體自己去探索。這實際上只是個記錄的過程,并未實現(xiàn)真正的學習。

Sutton說,事實證明,這種基于人類知識的所謂 “以人為本” 的方法,并未收到很好的效果,尤其是在可用計算力迅猛增長的大背景下,在國際象棋、圍棋、計算機視覺等熱門領域,智能體本身已經可以自己完成 “規(guī)模化搜索和學習”,取得的效果要遠好于傳統(tǒng)方法。

由此,Sutton認為利用算力才是王道,過去的教訓必須總結,未來的研究中,應該讓 AI 智能體自己去發(fā)現(xiàn),而不是將我們發(fā)現(xiàn)的東西記下來。

這番言論引來許多反對的聲音,比如,牛津大學計算機科學教授 Shimon Whiteson 寫道:“Sutton 說 AI 的發(fā)展歷程告訴我們,利用計算力要勝過利用人類知識。我認為這是對歷史的一種很奇怪的解釋。AI 的成功不僅取決于豐富的計算資源,還取決于沒有被拋棄的人類知識。”

近日,著名 AI 專家 Rodney Brooks 也加入反對Sutton的隊伍,他撰文 “A Better Lesson”,闡述Rich Sutton的觀點錯誤的六大原因。

Rodney Brooks 被譽為機器人教父,機器人領域祖師爺級別的學者,他還是澳洲科學院院士,美國國家工程院院士,前 MIT 計算機科學和人工智能實驗室主任。

Rodney Brooks

新智元對 Rodney Brooks 的評論文章翻譯如下:

Sutton觀點錯誤的六大原因

就在上周,Rich Sutton 發(fā)表了一篇題為《苦澀的教訓》(The Bitter Lesson) 的短文。我打算盡量把這篇評論寫得比他的帖子更短。Sutton 在強化學習領域有著長期而持續(xù)的貢獻。

在他的文章中,Sutton 用了很多很好的例子來論證,在人工智能 70 年的歷史中,更多的計算和更少的內置知識總是構建 AI 系統(tǒng)的最佳方式。這與許多新進入 AI 領域的人們目前的思維模式產生了共鳴,他們認為,設計學習網(wǎng)絡并投入大量計算能力,要比為某個任務專門設計一個計算架構更好。然而,我必須要說的是,上周在美國國家科學院 (National Academy of Science) 舉辦的為期兩天的深度學習研討會上,后一種觀點更為流行,某種程度上這與 Sutton 的觀點正好相反。

我認為 Sutton 錯了,原因有很多。

1.深度學習最著名的成功之一就是圖像標注 (image labeling),使用 CNN,即卷積神經網(wǎng)絡,但 CNN 的本質是網(wǎng)絡的前端由人類設計來處理平移不變性,即對象可以出現(xiàn)在框架的任何地方。使用深度學習網(wǎng)絡也必須學習那些看起來學究氣十足的東西,并且會使學習的計算成本提高許多個數(shù)量級。

2.在圖像標記方面,還有其他一些東西受到了極大的影響,因為目前的 CNN 中缺乏某些眾所周知對人類表現(xiàn)很重要的內置功能。例如,顏色恒常性 (color constancy)。

有這么一個著名的例子:一個停車標志上被貼了一些膠帶,就被一個為自動駕駛訓練的 CNN 誤認為是一個 “限速 45 英里” 的限速標志了。

人類不會犯這樣的錯誤,因為他們知道停車標志是紅色的,限速標志是白色的。CNN 并不知道這一點,因為相機中的像素顏色和物體的實際顏色之間的關系是一種非常復雜的關系,而這種關系并沒有被訓練算法使用的區(qū)區(qū)數(shù)千萬張訓練圖像所闡明。

未來可行的訓練集可以是將人類的工作負載轉移為創(chuàng)建大量的訓練集,并編碼我們希望系統(tǒng)學習的標簽。這就像直接構建一個顏色恒常性階段一樣需要內置知識。這是把人類的智力工作轉移到其他地方的花招。

3.事實上,對于今天的大多數(shù)機器學習問題,都需要人來設計一個特定的網(wǎng)絡架構才能使學習順利進行。所以,我們現(xiàn)在期望的不是由人類構建特定的知識,而是由人類構建特定的、適當?shù)木W(wǎng)絡,以及構建需要使用的特定訓練機制。再說一次,說 AI 在沒有人類參與的情況下取得成功,這是一種花招。相反,我們要求人類將他們的智慧以一種不同的形式注入算法中。

4. 大量的數(shù)據(jù)集根本不是人類學習東西所需要的,所以這里缺失了某些東西。今天的數(shù)據(jù)集可以有數(shù)十億個樣本,但一個人可能只需要少數(shù)幾個樣本就能學會同樣的東西。但更糟糕的是,訓練我們今天所看到的大多數(shù)網(wǎng)絡所需的計算量只能由預算非常龐大的大公司提供,AI 的成本過高使得個人甚至大學院系難以推動。對于智能系統(tǒng),這不是一個可持續(xù)發(fā)展的模式。對于一些機器學習問題,由于在訓練過程中需要消耗大量能耗,我們已經開始看到一些明顯節(jié)約的方法。

5. 摩爾定律 (Moore’s Law) 正在放緩,因此,一些計算機架構師報告稱,單個芯片上計算量倍增的時間正在從一年延長到 20 年。此外,登納德縮放定律 (Dennard scaling) 在 2006 年的崩潰意味著機器的功耗隨著性能提升而提高,因此我們甚至可能無法承受在小型機器上提高機器學習的結果 (更不用說實際的學習),例如,自動駕駛汽車可能需要 2500 瓦的電力來進行計算 —— 而人腦只需要 20 瓦。因此,Sutton 的觀點只會讓情況變得更糟,讓 AI 和 ML 的使用變得不切實際。

6.計算機架構師現(xiàn)在正試圖通過為訓練好的網(wǎng)絡構建專用芯片來解決這些問題。但他們需要將硬件鎖定到特定的網(wǎng)絡結構,并利用人工分析,在不改變計算結果的情況下大幅降低電力預算。這有兩個缺點。首先,它鎖定了特定于特定解決方案的硬件,因此每當我們遇到新的 ML 問題,我們都需要設計新的硬件。其次,它只是簡單地轉移了應用人類智能的地方,而不是完全消除人類參與設計的需要。

因此,我對 Rich Sutton 這篇文章的看法是,我們應該從過去 70 年的 AI 研究中吸取的教訓,根本不是只要使用更多的計算力就總能成功。相反,我認為應該吸取的更好的教訓是,我們必須考慮任何解決方案的總成本,而且到目前為止,這些都需要大量的人類智慧。

這篇評論,包括這句話,比 Sutton 的帖子短了 78 個詞。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器人
    +關注

    關注

    213

    文章

    31096

    瀏覽量

    222361
  • 智能體
    +關注

    關注

    1

    文章

    479

    瀏覽量

    11608
  • 強化學習
    +關注

    關注

    4

    文章

    270

    瀏覽量

    11970

原文標題:算力不是王道,強化學習之父Rich Sutton的六點錯誤

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    自動駕駛中常提的離線強化學習是什么?

    [首發(fā)于智駕最前沿微信公眾號]在之前談及自動駕駛模型學習時,詳細聊過強化學習的作用,由于強化學習能讓大模型通過交互學到策略,不需要固定的規(guī)則,從而給自動駕駛的落地創(chuàng)造了更多可能。 強化學習
    的頭像 發(fā)表于 02-07 09:21 ?219次閱讀
    自動駕駛中常提的離線<b class='flag-5'>強化學習</b>是什么?

    強化學習會讓自動駕駛模型學習更快嗎?

    [首發(fā)于智駕最前沿微信公眾號]在談及自動駕駛大模型訓練時,有的技術方案會采用模仿學習,而有些會采用強化學習。同樣作為大模型的訓練方式,強化學習有何不同?又有什么特點呢? 什么是強化學習
    的頭像 發(fā)表于 01-31 09:34 ?655次閱讀
    <b class='flag-5'>強化學習</b>會讓自動駕駛模型<b class='flag-5'>學習</b>更快嗎?

    多智能體強化學習(MARL)核心概念與算法概覽

    訓練單個RL智能體的過程非常簡單,那么我們現(xiàn)在換一個場景,同時訓練五個智能體,而且每個都有自己的目標、只能看到部分信息,還能互相幫忙。這就是多智能體強化學習
    的頭像 發(fā)表于 01-21 16:21 ?198次閱讀
    多智能體<b class='flag-5'>強化學習</b>(MARL)核心概念與算法概覽

    上汽別克至境E7首發(fā)搭載Momenta R6強化學習大模型

    別克至境家族迎來新成員——大五座智能SUV別克至境E7首發(fā)。新車將搭載Momenta R6強化學習大模型,帶來全場景的智能出行體驗。
    的頭像 發(fā)表于 01-12 16:23 ?336次閱讀

    思必馳俞凱與圖靈獎得主Richard Sutton進行學術交流

    近日,人工智能領域迎來了一系列高規(guī)格學術交流盛宴。2024年圖靈獎得主、阿爾伯塔大學計算機科學教授Richard Sutton應邀到訪蘇州大學、上海交通大學,展開深度交流。活動由上海交通大學特聘教授
    的頭像 發(fā)表于 12-12 11:20 ?735次閱讀

    今日看點:智元推出真機強化學習;美國軟件公司SAS退出中國市場

    智元推出真機強化學習,機器人訓練周期從“數(shù)周”減至“數(shù)十分鐘” ? 近日,智元機器人宣布其研發(fā)的真機強化學習技術,已在與龍旗科技合作的驗證產線中成功落地。據(jù)介紹,此次落地的真機強化學習方案,機器人
    發(fā)表于 11-05 09:44 ?1105次閱讀

    自動駕駛中常提的“強化學習”是個啥?

    [首發(fā)于智駕最前沿微信公眾號]在談及自動駕駛時,有些方案中會提到“強化學習(Reinforcement Learning,簡稱RL)”,強化學習是一類讓機器通過試錯來學會做決策的技術。簡單理解
    的頭像 發(fā)表于 10-23 09:00 ?691次閱讀
    自動駕駛中常提的“<b class='flag-5'>強化學習</b>”是個啥?

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI的科學應用

    和量子計算的兩項新興的技術,將在生產假說方面發(fā)揮重要作用,從而改變科學發(fā)現(xiàn)的范式。 生成式AI: 2、窮舉搜索 3、分析排錯與組合優(yōu)化 分析排錯是生成假說的重要手段。強化學習也在優(yōu)化假說組合、尋找科學發(fā)現(xiàn)
    發(fā)表于 09-17 11:45

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+化學或生物方法實現(xiàn)AI

    網(wǎng)絡,極其復雜和精密。大腦本質上是一臺濕潤的軟組織生物化學計算機,通過離子、分子之間的相互作用進行復雜的并行計算。 理解了怎么生物AI,作者為我們介紹了幾種備受關注的研究方向和成果。 一、化學
    發(fā)表于 09-15 17:29

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+可期之變:從AI硬件到AI濕件

    生物化學計算機,它通過離子、分子間的相互作用來進行復雜的并行計算。因而未來可期的前景是AI硬件將走向AI濕件。 根據(jù)研究,估算出大腦的功率是20W,在進行智力活動時,其功率會增大到25
    發(fā)表于 09-06 19:12

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+內容總覽

    章 具身智能芯片 第9章 從AI芯片到AGI芯片 圖2 各章重點及邏輯框架 該書可供AI和芯片領域的各層次人群閱讀,無論是學習者還是研究人員。 對于本人來說,讀這本書不但是為了豐富這
    發(fā)表于 09-05 15:10

    【書籍評測活動NO.64】AI芯片,從過去走向未來:《AI芯片:科技探索與AGI愿景》

    》,講述了AI芯片的基礎知識,包括原理、種類、廠商、產業(yè)等概況,展望新技術與研究應用。 《AI芯片:前沿技術與創(chuàng)新未來》出版后獲得了“憶阻器之父”蔡少棠教授的力薦,當時他認為“這是一本
    發(fā)表于 07-28 13:54

    NVIDIA Isaac Lab可用環(huán)境與強化學習腳本使用指南

    Lab 是一個適用于機器人學習的開源模塊化框架,其模塊化高保真仿真適用于各種訓練環(huán)境,Isaac Lab 同時支持模仿學習(模仿人類)和強化學習(在嘗試和錯誤中進行學習),為所有機器
    的頭像 發(fā)表于 07-14 15:29 ?2364次閱讀
    NVIDIA Isaac Lab可用環(huán)境與<b class='flag-5'>強化學習</b>腳本使用指南

    18個常用的強化學習算法整理:從基礎方法到高級模型的理論技術與代碼實現(xiàn)

    本來轉自:DeepHubIMBA本文系統(tǒng)講解從基本強化學習方法到高級技術(如PPO、A3C、PlaNet等)的實現(xiàn)原理與編碼過程,旨在通過理論結合代碼的方式,構建對強化學習算法的全面理解。為確保內容
    的頭像 發(fā)表于 04-23 13:22 ?1620次閱讀
    18個常用的<b class='flag-5'>強化學習</b>算法整理:從基礎方法到高級模型的理論技術與代碼實現(xiàn)

    AI演進的核心哲學:使用通用方法,然后Scale Up!

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 一,AI演進的核心哲學:通用方法 + 計算能力? Richard S. Sutton在《The Bitter Lesson》一文中提到,“回顧AI
    的頭像 發(fā)表于 04-09 14:31 ?851次閱讀
    <b class='flag-5'>AI</b>演進的核心哲學:使用通用方法,然后Scale Up!