国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

什么是AI芯片?為什么需要AI芯片?

dKBf_eetop_1 ? 來源:未知 ? 作者:工程師黃明星 ? 2018-07-23 17:53 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

(1)性能與傳統芯片,比如CPUGPU有很大的區別。在執行AI算法時,更快、更節能。

(2)工藝沒有區別,大家都一樣。至少目前來看,都一樣。

所謂的AI芯片,一般是指針對AI算法的ASIC(專用芯片)。

傳統的CPU、GPU都可以拿來執行AI算法,但是速度慢,性能低,無法實際商用。

比如,自動駕駛需要識別道路行人紅綠燈等狀況,但是如果是當前的CPU去算,那么估計車翻到河里了還沒發現前方是河,這是速度慢,時間就是生命。如果用GPU,的確速度要快得多,但是,功耗大,汽車的電池估計無法長時間支撐正常使用,而且,老黃家的GPU巨貴,經常單塊上萬,普通消費者也用不起,還經常缺貨。另外,GPU因為不是專門針對AI算法開發的ASIC,所以,說到底,速度還沒到極限,還有提升空間。而類似智能駕駛這樣的領域,必須快!在手機終端,可以自行人臉識別、語音識別等AI應用,這個必須功耗低,所以GPU OUT!

所以,開發ASIC就成了必然。

說說,為什么需要AI芯片。

AI算法,在圖像識別等領域,常用的是CNN卷積網絡,語音識別、自然語言處理等領域,主要是RNN,這是兩類有區別的算法。但是,他們本質上,都是矩陣或vector的乘法、加法,然后配合一些除法、指數等算法。

一個成熟的AI算法,比如YOLO-V3,就是大量的卷積、殘差網絡、全連接等類型的計算,本質是乘法和加法。對于YOLO-V3來說,如果確定了具體的輸入圖形尺寸,那么總的乘法加法計算次數是確定的。比如一萬億次。(真實的情況比這個大得多的多)

那么要快速執行一次YOLO-V3,就必須執行完一萬億次的加法乘法次數。

這個時候就來看了,比如IBM的POWER8,最先進的服務器用超標量CPU之一,4GHz,SIMD,128bit,假設是處理16bit的數據,那就是8個數,那么一個周期,最多執行8個乘加計算。一次最多執行16個操作。這還是理論上,其實是不大可能的。

那么CPU一秒鐘的巔峰計算次數=16X4Gops=64Gops。

這樣,可以算算CPU計算一次的時間了。

同樣的,換成GPU算算,也能知道執行時間。因為對GPU內部結構不熟,所以不做具體分析。

再來說說AI芯片。比如大名鼎鼎的谷歌的TPU1.

TPU1,大約700M Hz,有256X256尺寸的脈動陣列,如下圖所示。一共256X256=64K個乘加單元,每個單元一次可執行一個乘法和一個加法。那就是128K個操作。(乘法算一個,加法再算一個)

什么是AI芯片?為什么需要AI芯片?

另外,除了脈動陣列,還有其他模塊,比如激活等,這些里面也有乘法、加法等。

所以,看看TPU1一秒鐘的巔峰計算次數至少是=128K X 700MHz=89600Gops=大約90Tops。

對比一下CPU與TPU1,會發現計算能力有幾個數量級的差距,這就是為啥說CPU慢。

當然,以上的數據都是完全最理想的理論值,實際情況,能夠達到5%吧。因為,芯片上的存儲不夠大,所以數據會存儲在DRAM中,從DRAM取數據很慢的,所以,乘法邏輯往往要等待。另外,AI算法有許多層網絡組成,必須一層一層的算,所以,在切換層的時候,乘法邏輯又是休息的,所以,諸多因素造成了實際的芯片并不能達到利潤的計算峰值,而且差距還極大。

可能有人要說,搞研究慢一點也能將就用。

目前來看,神經網絡的尺寸是越來越大,參數越來越多,遇到大型NN模型,訓練需要花幾周甚至一兩個月的時候,你會耐心等待么?突然斷電,一切重來?(曾經動手訓練一個寫小說的AI,然后,一次訓練(50輪)需要大約一天一夜還多,記得如果第一天早上開始訓練,需要到第二天下午才可能完成,這還是模型比較簡單,數據只有幾萬條的小模型呀。)

修改了模型,需要幾個星期才能知道對錯,確定等得起?

突然有了TPU,然后你發現,吃個午飯回來就好了,參數優化一下,繼續跑,多么爽!

計算速度快,才能迅速反復迭代,研發出更強的AI模型。速度就是金錢。

GPU的內核結構不清楚,所以就不比較了。肯定的是,GPU還是比較快的,至少比CPU快得多,所以目前大多數都用GPU,這玩意隨便一個都能價格輕松上萬,太貴,而且,功耗高,經常缺貨。不適合數據中心大量使用。

總的來說,CPU與GPU并不是AI專用芯片,為了實現其他功能,內部有大量其他邏輯,而這些邏輯對于目前的AI算法來說是完全用不上的,所以,自然造成CPU與GPU并不能達到最優的性價比。

谷歌花錢研發TPU,而且目前已經出了TPU3,用得還挺歡,都開始支持谷歌云計算服務了,貌似6點幾美元每小時吧,不記得單位了,懶得查。

可見,谷歌覺得很有必要自己研發TPU。

目前在圖像識別、語音識別、自然語言處理等領域,精度最高的算法就是基于深度學習的,傳統的機器學習的計算精度已經被超越,目前應用最廣的算法,估計非深度學習莫屬,而且,傳統機器學習的計算量與 深度學習比起來少很多,所以,我討論AI芯片時就針對計算量特別大的深度學習而言。畢竟,計算量小的算法,說實話,CPU已經很快了。而且,CPU適合執行調度復雜的算法,這一點是GPU與AI芯片都做不到的,所以他們三者只是針對不同的應用場景而已,都有各自的主場。

至于為何用了CPU做對比?

而沒有具體說GPU。是因為,我說了,我目前沒有系統查看過GPU的論文,不了解GPU的情況,故不做分析。因為積累的緣故,比較熟悉超標量CPU,所以就用熟悉的CPU做詳細比較。而且,小型的網絡,完全可以用CPU去訓練,沒啥大問題,最多慢一點。只要不是太大的網絡模型。

那些AI算法公司,比如曠世、商湯等,他們的模型很大,自然也不是一塊GPU就能搞定的。GPU的算力也是很有限的。

至于說CPU是串行,GPU是并行

沒錯,但是不全面。只說說CPU串行。這位網友估計對CPU沒有非常深入的理解。我的回答中舉的CPU是IBM的POWER8,百度一下就知道,這是超標量的服務器用CPU,目前來看,性能已經是非常頂級的了,主頻4GHZ。不知是否注意到我說了這是SIMD?這個SIMD,就代表他可以同時執行多條同樣的指令,這就是并行,而不是串行。單個數據是128bit的,如果是16bit的精度,那么一周期理論上最多可以計算八組數據的乘法或加法,或者乘加。這還不叫并行?只是并行的程度沒有GPU那么厲害而已,但是,這也是并行。

不知道為啥就不能用CPU來比較算力?

有評論很推崇GPU。說用CPU來做比較,不合適。

拜托,GPU本來是從CPU中分離出來專門處理圖像計算的,也就是說,GPU是專門處理圖像計算的。包括各種特效的顯示。這也是GPU的天生的缺陷,GPU更加針對圖像的渲染等計算算法。但是,這些算法,與深度學習的算法還是有比較大的區別,而我的回答里提到的AI芯片,比如TPU,這個是專門針對CNN等典型深度學習算法而開發的。另外,寒武紀的NPU,也是專門針對神經網絡的,與TPU類似。

谷歌的TPU,寒武紀的DianNao,這些AI芯片剛出道的時候,就是用CPU/GPU來對比的。

看看,谷歌TPU論文的摘要直接對比了TPU1與CPU/GPU的性能比較結果,見紅色框:

這就是摘要中介紹的TPU1與CPU/GPU的性能對比。

再來看看寒武紀DianNao的paper,摘要中直接就是DianNao與CPU的性能的比較,見紅色框:

回顧一下歷史

上個世紀出現神經網絡的時候,那一定是用CPU計算的。

比特幣剛出來,那也是用CPU在挖。目前已經進化成ASIC礦機了。比特大陸了解一下。

從2006年開始開啟的深度學習熱潮,CPU與GPU都能計算,發現GPU速度更快,但是貴啊,更多用的是CPU,而且,那時候GPU的CUDA可還不怎么樣,后來,隨著NN模型越來越大,GPU的優勢越來越明顯,CUDA也越來越6,目前就成了GPU的專場。

寒武紀2014年的DianNao(NPU)比CPU快,而且更加節能。ASIC的優勢很明顯啊。這也是為啥要開發ASIC的理由。

至于說很多公司的方案是可編程的,也就是大多數與FPGA配合。你說的是商湯、深鑒么?的確,他們發表的論文,就是基于FPGA的。

這些創業公司,他們更多研究的是算法,至于芯片,還不是重點,另外,他們暫時還沒有那個精力與實力。FPGA非常靈活,成本不高,可以很快實現架構設計原型,所以他們自然會選擇基于FPGA的方案。不過,最近他們都大力融資,官網也在招聘芯片設計崗位,所以,應該也在涉足ASIC研發了。

如果以FPGA為代表的可編程方案真的有巨大的商業價值,那他們何必砸錢去做ASIC?

說了這么多,我也是半路出家的,因為工作需要而學習的。按照我目前的理解,看TPU1的專利及論文,一步一步推導出內部的設計方法,理解了TPU1,大概就知道了所謂的AI處理器的大部分。然后研究研究寒武紀的一系列論文,有好幾種不同的架構用于不同的情況,有興趣可以研究一下。然后就是另外幾個獨角獸,比如商湯、深鑒科技等,他們每年都會有論文發表,沒事去看看。這些論文,大概就代表了當前最先進的AI芯片的架構設計了。當然,最先進,別人肯定不會公開,比如谷歌就不曾公開關于TPU2和TPU3的相關專利,反正我沒查到。不過,沒事,目前的文獻已經代表了最近幾年最先進的進展了。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 芯片
    +關注

    關注

    463

    文章

    54012

    瀏覽量

    466189
  • cpu
    cpu
    +關注

    關注

    68

    文章

    11279

    瀏覽量

    225033
  • AI
    AI
    +關注

    關注

    91

    文章

    39795

    瀏覽量

    301456

原文標題:AI 芯片和傳統芯片有何區別?

文章出處:【微信號:eetop-1,微信公眾號:EETOP】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    新思科技全面駕馭AI芯片設計復雜性

    AI 芯片正推動著萬物智能時代的到來:作為高度專用化的處理器和加速器,AI 芯片專為處理復雜算法與海量數據集而設計。但在當今快速變化、競爭激烈的市場中,要打造一款脫穎而出的
    的頭像 發表于 12-24 17:13 ?1261次閱讀
    新思科技全面駕馭<b class='flag-5'>AI</b><b class='flag-5'>芯片</b>設計復雜性

    VS680 HDMI AI分析解決方案 #目標識別 #視頻翻譯 #AI #芯片

    AI
    深蕾半導體
    發布于 :2025年11月12日 10:29:33

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片到AGI芯片

    、分布式群體智能 1)物聯網AGI系統 優勢: 組成部分: 2)分布式AI訓練 7、發展重點:基于強化學習的后訓練與推理 8、超越大模型:神經符號計算 三、AGI芯片的實現 1、技術需求 AI取得成功
    發表于 09-18 15:31

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+具身智能芯片

    可以被稱為第一人稱視角。 第一人稱視角:指一個實體本身在觀察或經歷事物時,所能夠看到或感知到的角度。 二、AI感知技術與芯片 具身智能3個層次組成:感知層、認知層和決策行動層。 感知層: 感知層是具身
    發表于 09-18 11:45

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+神經形態計算、類腦芯片

    AI芯片不僅包括深度學細AI加速器,還有另外一個主要列別:類腦芯片。類腦芯片是模擬人腦神經網絡架構的芯片
    發表于 09-17 16:43

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI的科學應用

    流體芯片AI計算平臺 ⑥基于AI的自主決策系統 ⑦基于AI的自主學習系統 2、面臨的挑戰 ①需要造就一個跨學科、全面性覆蓋的知識庫和科學
    發表于 09-17 11:45

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+化學或生物方法實現AI

    順序排列并存儲在毛細血管內。 電石存儲器: 3、化學計算的總體現狀與前景 二、生物計算 1、用活細胞實現AI 作者第七章才會介紹類腦芯片,到時候我們再一起欣賞吧。 這里只是先給我們打了個基礎概念。 1
    發表于 09-15 17:29

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI的未來:提升算力還是智力

    持續發展體現在: 1、收益遞減 大模型的基礎的需要極大的算力,這首先源于昂貴的高性能AI芯片,然后是寶貴的電力、水等與環境相關的資源。 收益遞減體現在: ①模型大小 ②訓練數據量 ③訓練算法的優化 2
    發表于 09-14 14:04

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+第二章 實現深度學習AI芯片的創新方法與架構

    射頻模擬處理器的原型與概念驗證 3、光電組合AI芯片 目前最好的應對Transformer模型需要的極高算力的方法之一就是使用光子計算芯片來代替基于CMOS的
    發表于 09-12 17:30

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片的需求和挑戰

    的工作嗎? 從書中也了解到了AI芯片都有哪些?像CPU、GPU、FPGA、ASIC都是AI芯片。 其他的還是知道的,FPGA屬于AI
    發表于 09-12 16:07

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+可期之變:從AI硬件到AI濕件

    保持停滯的情況下,依照目前計算機的能耗效率,至少還需要30年的努力才接近其水準,見圖1所示。 圖1 大腦與計算機的能量效率對比 圖2 類腦芯片的前瞻性研究領域AI濕件 為此,一些想法超前的科學家
    發表于 09-06 19:12

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+內容總覽

    章 具身智能芯片 第9章 從AI芯片到AGI芯片 圖2 各章重點及邏輯框架 該書可供AI芯片
    發表于 09-05 15:10

    AI 芯片浪潮下,職場晉升新契機?

    芯片設計為例,從最初的架構選型,到算法適配、性能優化,每個環節都考驗著工程師的專業素養。在設計一款面向智能安防領域的 AI 芯片時,需要深入研究安防場景下圖像識別算法的特點,針對性地
    發表于 08-19 08:58

    【書籍評測活動NO.64】AI芯片,從過去走向未來:《AI芯片:科技探索與AGI愿景》

    名單公布 @LiuDW、@jinglixixi、@bruceleesohu 請于9月3日前,前往【書籍評測活動NO.64】《AI芯片:科技探索與AGI愿景》完成書籍兌換。 如有疑問請 添加小助手微信
    發表于 07-28 13:54

    AI芯片需要ASIC

    電子發燒友網報道(文/李彎彎) 2025年,全球AI芯片市場正迎來一場結構性變革。在英偉達GPU占據主導地位的大格局下,ASIC(專用集成電路)憑借針對AI任務的定制化設計,成為推動算力革命的新動力
    的頭像 發表于 07-26 07:30 ?6791次閱讀