国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Facebook確定自研AI芯片,致力于神經網絡的新設計

DPVg_AI_era ? 來源:lq ? 2019-02-20 08:58 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Yann LeCun今天在采訪中確認Facebook正在自研AI芯片,追求更高能效,以支持其AI應用。Facebook也在尋找新的神經網絡架構,大力投入于“自我監督”系統,致力于賦予機器“常識”。

人工智能研究的進展將與硬件創新密切相關。

今天,在2019國際固態電路研討會(ISSCC)的主旨演講中,Facebook首席AI科學家Yann LeCun闡述了深度學習研究的進展將如何影響未來的硬件架構。他的論文題為《深度學習硬件:過去、現在和未來》(Deep Learning Hardware: Past, Present, and Future)。

并且,LeCun公開確認Facebook正在自研AI芯片,這是Facebook首次發表官方評論,證實了其在芯片領域的雄心。

LeCun表示,對DL專用硬件的需求會不斷增加。動態網絡、關聯存儲器結構以及稀疏激活等新的體系結構概念將影響未來需求的硬件體系結構類型。

“這可能要求我們重新發明電路中運算的方式,”LeCun說。今天的計算機芯片通常沒有針對深度學習進行優化,即使使用不太精確的計算,深度學習也可以有效。“因此,研究人員正在嘗試設計一種新的方式來更有效地表示數字。”

推進AI領域的一個關鍵因素,尤其是在深度學習方面,將是確保有能夠支持它的硬件。

這是LeCun演講中的一個重要議題,他在會上討論了一份新的研究報告,概述了未來5到10年芯片廠商和研究人員需要關注的關鍵趨勢。

他說:“無論他們建造的是什么,都將影響未來十年AI的發展。”

在會議開始之前,LeCun與Business Insider就AI領域的發展方向、它對我們日常生活中使用的設備的意義、人工智能的現狀以及未來面臨的最大挑戰進行了討論。以下是采訪的要點。

為了改善AI性能,機器必須在能耗方面做得更好

想象有這樣一個真空吸塵器,它不僅聰明到可以為你的起居室繪制地圖,以便不會重復清潔同一個地方,它還能在撞到障礙物之前檢測到它們。

或者想象有這樣一臺智能割草機,它可以在修剪草坪時智能地避開花壇和樹枝。

LeCun說,這樣的小設備要想實現、并流行起來,除了Facebook、Alphabet等正在投資的技術,如增強現實和自動駕駛技術,還需要有更節能的硬件。

更節能的硬件不僅對這類技術的蓬勃發展是必要的,而且對改善Facebook等公司實時識別照片和視頻內容的方式也是必要的。LeCun說,要理解視頻中發生的事情,將活動轉錄成文本,然后將文本翻譯成另一種語言,以便世界各地的人們能夠實時地理解,需要“巨大”的計算能力。

Facebook 希望使用AI來幫助審核內容

短期內AI將繼續在智能手機中得到改進

LeCun認為,未來3年內,大多數智能手機將通過專用處理器將AI直接內置到硬件中,這將使實時語音翻譯等功能在手機上更為普遍。

對于那些近年來一直密切關注智能手機行業的人來說,這可能并不意外,因為蘋果、谷歌、華為等公司已經將AI更緊密地整合到自己的移動設備中, LeCun 表示,這將使“各種新應用”成為可能。

賦予機器“常識”將是未來10年AI研究的一大重點

雖然人類通常通過一般觀察(general observations)來了解世界,但計算機通常被訓練來執行特定的任務。舉例來說,如果你想設計一種能夠檢測照片中的貓的算法,你必須幫助它了解貓的樣子,方法是提供給它一個巨大的數據集,其中可能包括數千張標記有貓的照片。

但LeCun認為,未來十年,推動AI前進的圣杯在于完善一種稱為自監督學習(self-supervised learning)的技術。換句話說,使機器能夠通過數據了解世界是如何運轉的,而不僅僅是學習如何解決一個特定的問題——比如識別貓。

LeCun表示:“如果我們真的訓練(算法)做到這一點,那么機器捕捉上下文并做出更復雜決策的能力將會取得重大進展。”他補充說,這樣的技術目前只對文本有效,對視頻和圖像仍然無效。

這樣的突破可能是Facebook等公司需要的,用以改進其平臺上的內容審核,盡管現在還不知道這樣的解決方案何時會出現。LeCun說:“這不是一蹴而就的事情。”

Facebook加入AI芯片競賽,自研ASIC

Facebook認識到,要想在AI領域實現下一個突破,它需要大大提高計算速度。目前,Facebook已經加入與亞馬遜和谷歌的競爭,開發自己的AI芯片。

LeCun 在接受英國 《金融時報》 采訪時表示,Facebook 希望與多家芯片公司合作開發新的芯片設計——最近宣布了與英特爾合作開展項目——但他也表示,Facebook正在開發自己的定制 “ASIC” 芯片,以支持其AI程序。

LeCun說:“眾所周知,Facebook會在需要時構建自己的硬件——例如,構建自己的ASIC。遇到任何障礙,我們都將全力以赴。”這是Facebook首次發表官方評論,證實了其在芯片領域的雄心。

談到公司在芯片方面取得突破的機會時,LeCun補充說:“底層肯定有很大的空間。”

Facebook自研芯片的決定,對英偉達也構成了又一個長期挑戰。英偉達是目前用于數據中心AI的圖形處理器的主要生產商。由于大型數據中心客戶離開,英偉達正面臨短期困境。

現在,更大的需求是更專業的AI芯片,其設計旨在以閃電般的速度、更低的功耗執行單一任務,而不是過去的通用處理器。這種需求不僅吸引了谷歌、亞馬遜、蘋果等公司的投資浪潮,也吸引了幾十家初創企業。

對新的芯片設計和硬件架構的關注表明,需要在基礎計算方面取得根本性突破,以防止今天的AI成為一個死胡同。

LeCun 表示,縱觀AI的歷史,在研究人員提出讓該領域得到突破的洞見之前,它往往已經在硬件方面取得了很大的進步。

“在相當長的一段時間里,人們沒有想到相當明顯的想法,”他說,這阻礙了人工智能的發展。其中就包括反向傳播,這是當今深度學習系統的一項核心技術,算法可以通過反向傳播來減少錯誤。 LeCun 表示,這顯然是對早期研究的延伸,但直到上世紀90年代計算機硬件發展后,這一技術才得到廣泛應用。

Facebook過去也曾設計過其他類型的硬件,例如,在將數據中心設備開源供他人使用之前,為這些設備提出一些新想法。 LeCun 表示,同樣的方法也將適用于芯片設計。他補充說:“我們的目標是將其送走。”

重新設計神經網絡,模仿更多人類智能

Facebook還將研究重點放在神經網絡的新設計上。神經網絡是深度學習系統的核心,是圖像和語言識別等領域最近進展的基礎。

30年前,LeCun在 AT&T 貝爾實驗室研究AI芯片時,構建了第一個“卷積”神經網絡,這是目前深度學習系統常用的神經網絡。

LeCun 表示,Facebook正致力于“一切可以降低功耗(并)改善延遲的事情”,以加快處理速度。但他補充說,實時監控視頻帶來的巨大需求,將需要新的神經網絡設計。

Facebook也在尋找新的神經網絡架構,以模仿人類智能的更多方面,并使系統更自然地進行交互。

LeCun說,Facebook正大力投入于“自我監督”系統,這種系統能夠對周圍的世界做出更廣泛的預測,而不僅僅是得出直接與它們所接受的數據相關的結論。這可以使它們對世界產生同樣廣泛的理解,從而使人類能夠應對新的情況。

“就新用途而言,Facebook感興趣的一件事是開發智能數字助理——具有一定程度的常識的智能助理,”他說。“它們擁有背景知識,你可以和它們就任何話題進行討論。”

向計算機灌輸常識的想法還處于非常早期的階段,LeCun表示,這種更深層次的智能“不會很快發生”。

他說:“能夠在不確定性下進行預測是當今的主要挑戰之一。”

Facebook正在參與一項更廣泛的研究努力,旨在增強當今的神經網絡。在ISSCC研討會上,LeCun概述了這項工作。

其中,包括根據通過它們的數據調整其設計的網絡,使其在面對現實世界的變化時更加靈活。另一種研究方法是研究只“激活”解決特定問題所需神經元的網絡,這種方法與人類大腦的運作方式類似,可以大大降低功耗。

研究工作還包括將計算機存儲添加到神經網絡中,這樣當與人“交談”時,神經網絡就能記住更多的信息,并形成更強的語境感。

神經網絡的進步可能會對驅動它們的芯片的設計產生連鎖反應,這可能會為制造當今領先AI芯片的公司帶來更多競爭。

LeCun 表示,谷歌的TPU——最強大的機器學習數據中心芯片——“仍相當通用”。但“它們做出的假設不一定適用于未來的神經網絡架構。”

另一方面,芯片設計的靈活性也有其他缺點。例如,微軟計劃在其所有數據中心服務器上安裝一種不同類型的芯片,即FPGA(現場可編程門陣列)。這些芯片在使用方式上更加靈活,但在處理大量數據方面效率較低,這使它們與專為特定任務而優化的芯片相比處于劣勢。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4838

    瀏覽量

    107854
  • Facebook
    +關注

    關注

    3

    文章

    1432

    瀏覽量

    58958
  • AI芯片
    +關注

    關注

    17

    文章

    2129

    瀏覽量

    36798

原文標題:LeCun:賦予機器 “常識” ,重新設計神經網絡將是AI 研究重點

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    1600TOPS!美國新勢力車企5nm芯片,轉用激光雷達硬剛特斯拉

    的2025 AI Day上,也首次公布了自動駕駛大模型,以及的5nm定制芯片,同時還明確
    的頭像 發表于 12-22 08:02 ?1.1w次閱讀
    1600TOPS!美國新勢力車企<b class='flag-5'>自</b><b class='flag-5'>研</b>5nm<b class='flag-5'>芯片</b>,轉用激光雷達硬剛特斯拉

    神經網絡的初步認識

    日常生活中的智能應用都離不開深度學習,而深度學習則依賴于神經網絡的實現。什么是神經網絡神經網絡的核心思想是模仿生物神經系統的結構,特別是大腦中神經
    的頭像 發表于 12-17 15:05 ?338次閱讀
    <b class='flag-5'>神經網絡</b>的初步認識

    NMSIS神經網絡庫使用介紹

    NMSIS NN 軟件庫是一組高效的神經網絡內核,旨在最大限度地提高 Nuclei N 處理器內核上的神經網絡的性能并最??大限度地減少其內存占用。 該庫分為多個功能,每個功能涵蓋特定類別
    發表于 10-29 06:08

    在Ubuntu20.04系統中訓練神經網絡模型的一些經驗

    本帖欲分享在Ubuntu20.04系統中訓練神經網絡模型的一些經驗。我們采用jupyter notebook作為開發IDE,以TensorFlow2為訓練框架,目標是訓練一個手寫數字識別的神經網絡
    發表于 10-22 07:03

    CICC2033神經網絡部署相關操作

    在完成神經網絡量化后,需要將神經網絡部署到硬件加速器上。首先需要將所有權重數據以及輸入數據導入到存儲器內。 在仿真環境下,可將其存一個文件,并在 Verilog 代碼中通過 readmemh 函數
    發表于 10-20 08:00

    液態神經網絡(LNN):時間連續性與動態適應性的神經網絡

    1.算法簡介液態神經網絡(LiquidNeuralNetworks,LNN)是一種新型的神經網絡架構,其設計理念借鑒自生物神經系統,特別是秀麗隱桿線蟲的神經結構,盡管這種微生物的
    的頭像 發表于 09-28 10:03 ?1248次閱讀
    液態<b class='flag-5'>神經網絡</b>(LNN):時間連續性與動態適應性的<b class='flag-5'>神經網絡</b>

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片到AGI芯片

    和計算成本。 核心: MoE模型利用稀疏性驅動結構,通過包含多個專家網絡的稀疏MoE層替換密集層,其中每個專家致力于特定的訓練數據或任務的子集,并且一個可訓練的門控機制動態地將輸入標記分配給這些專家,從而
    發表于 09-18 15:31

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+神經形態計算、類腦芯片

    AI芯片不僅包括深度學細AI加速器,還有另外一個主要列別:類腦芯片。類腦芯片是模擬人腦神經網絡
    發表于 09-17 16:43

    神經網絡的并行計算與加速技術

    隨著人工智能技術的飛速發展,神經網絡在眾多領域展現出了巨大的潛力和廣泛的應用前景。然而,神經網絡模型的復雜度和規模也在不斷增加,這使得傳統的串行計算方式面臨著巨大的挑戰,如計算速度慢、訓練時間長等
    的頭像 發表于 09-17 13:31 ?1143次閱讀
    <b class='flag-5'>神經網絡</b>的并行計算與加速技術

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+第二章 實現深度學習AI芯片的創新方法與架構

    連接定義了神經網絡的拓撲結構。 不同神經網絡的DNN: 一、基于大模型的AI芯片 1、Transformer 模型與引擎 1.1 Transformer 模型概述 Transforme
    發表于 09-12 17:30

    【書籍評測活動NO.64】AI芯片,從過去走向未來:《AI芯片:科技探索與AGI愿景》

    神經網絡。 材料創新 這部分將視角投向化學與生物領域,探索 “濕件”的可能性,重新定義AI芯片的形態。 化學計算開辟了全新路徑,通過酸堿反應構建邏輯門與神經網絡,讓化學反應成為計算的
    發表于 07-28 13:54

    無刷電機小波神經網絡轉子位置檢測方法的研究

    摘要:論文通過對無刷電機數學模型的推導,得出轉角:與三相相電壓之間存在映射關系,因此構建了一個以三相相電壓為輸人,轉角為輸出的小波神經網絡來實現轉角預測,并采用改進遺傳算法來訓練網絡結構與參數,借助
    發表于 06-25 13:06

    神經網絡專家系統在電機故障診斷中的應用

    摘要:針對傳統專家系統不能進行自學習、自適應的問題,本文提出了基于種經網絡專家系統的并步電機故障診斷方法。本文將小波神經網絡和專家系統相結合,充分發揮了二者故障診斷的優點,很大程度上降低了對電機
    發表于 06-16 22:09

    AI神經網絡降噪算法在語音通話產品中的應用優勢與前景分析

    隨著人工智能技術的快速發展,AI神經網絡降噪算法在語音通話產品中的應用正逐步取代傳統降噪技術,成為提升語音質量的關鍵解決方案。相比傳統DSP(數字信號處理)降噪,AI降噪具有更強的環境適應能力、更高
    的頭像 發表于 05-16 17:07 ?1538次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>神經網絡</b>降噪算法在語音通話產品中的應用優勢與前景分析

    NVIDIA實現神經網絡渲染技術的突破性增強功能

    發者能使用 NVIDIA GeForce RTX GPU 中的 AI Tensor Cores,在游戲的圖形渲染管線內加速神經網絡渲染。
    的頭像 發表于 04-07 11:33 ?1202次閱讀