国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

Untether AI引領通用AI推理加速器市場

工程師鄧生 ? 來源:Astroys ? 作者:Astroys ? 2022-08-31 09:42 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

憑借其獨特的at-memory計算架構,Untether AI希望引領通用AI推理加速器市場。這家初創(chuàng)公司能否取代主導AI訓練領域、并將觸角伸向AI推理領域的領先CPUGPU供應商?這些令人印象深刻的展示足以讓這家公司成功嗎? Untether AI是一家總部位于多倫多的AI芯片初創(chuàng)公司,上周在Hot Chips 2022上發(fā)布了其最新的通用AI推理加速器,名為speedAI,基于該公司的“at-memory”計算架構。

SpeedAI旨在解決AI計算工作量的爆炸性增長,以及在廣泛的AI推理應用中對更高精度、更低延遲、更靈活和更優(yōu)能效日益增長的需求。

Untether AI專注于推理應用,正試圖模仿Nvidia在AI訓練方面的成功。

AI處理分為兩個階段。在訓練階段,開發(fā)人員向他們的模型提供一個經(jīng)過策劃的數(shù)據(jù)集,這樣它就可以“學習”它將分析的數(shù)據(jù)類型所需的一切。然后,在推理階段,模型可以根據(jù)實時數(shù)據(jù)進行預測,產(chǎn)生可操作的結果。后者正是Untether AI所追求的細分市場。

Untether AI的目標是否過于雄心勃勃?也許。但基于其芯片前所未有的30 TFLOPS/W和2 PFLOPS的性能,Untether AI相信它有機會。該公司聲稱其最新的推理加速器“為能效和計算密度設定了新的標準”。

Yole Intelligence計算和軟件技術和市場分析師Adrien Sanchez稱speedAI的30FLOPS/W“令人印象深刻”。他補充說,這擊敗了Nvidia的A100,并與Nvidia的Hopper設備相媲美。Sanchez說:“誠然,將為訓練量身定制的硬件與以推理為重點的硬件進行比較是完全不同的,但這仍然令人印象深刻。”AI推理市場涵蓋了從自動駕駛汽車到智能城市/零售、自然語言處理和科學應用等方方面面。

處在十字路口的AI推理

在當今的通用AI處理器市場,Nvidia無疑是訓練領域的王者。盡管Nvidia的高功耗解決方案不太適合AI推理應用,但在現(xiàn)實中,許多Nvidia客戶最終也會使用Nvidia基于GPU的解決方案來滿足他們的推理需求。

然而,AI推理市場正處于十字路口。許多用戶很難在AI推理引擎中找到能效和靈活性之間的折中方案。

一方面,有廣泛使用的基于CPU和GPU的解決方案。另一方面,許多推理處理器通常專門作為視覺處理器。Untether AI公司產(chǎn)品副總裁Bob Beachler表示,Mobileye和Ambarella等公司“可以在它們的SoC上實現(xiàn)一些AI功能,其中一些已經(jīng)成功實現(xiàn)了量產(chǎn)。”

在目前碎片化的AI推理市場中,缺少一種能夠處理各種應用中AI工作負載的推理引擎。

TechInsights的首席分析Linley Gwennap認為,“考慮到神經(jīng)網(wǎng)絡的多樣性和變化”,即使是用于推理,最佳解決方案仍是通用AI處理器。另一種選擇是“一種更具體的處理器,例如,只在卷積網(wǎng)絡上工作”。

Gwennap說:“GPU更加通用,這就是為什么它如此普遍的原因。”Untether AI(在speedAI)增加了更多的靈活性,以滿足AI推理應用的這些更廣泛的需求。

可擴展的產(chǎn)品系列

Beachler表示,Untether AI將把speedAI變成一個可擴展的系列。上周發(fā)布的SpeedAI 240被是最大的設備,而一些列的縮小版(在不同的功率節(jié)點上有更少的memory bank)正在開發(fā)中。這些加速器的功率范圍從10W到5W甚至是亞瓦,Beachler說,因此“我們的芯片可以成為任何嵌入式SoC的協(xié)處理器,這取決于你可能需要多少AI計算。”

SpeedAI 240計劃在2023年初出樣。按比例縮小的推理加速器計劃在明年晚些時候推出。

At-memory計算

Untether AI之所以出名,是因為它自己發(fā)明了一種“at-memory”計算架構。

這家初創(chuàng)公司設計了at-memory計算,將其AI推理加速器從CPU和GPU馮·諾伊曼架構固有的低能效中解放出來。這是因為在馮·諾伊曼架構下,數(shù)據(jù)從DRAM傳輸?shù)奖镜鼐彺妫缓筮M入處理元素的距離要遠得多。

Untether AI的at-memory方案在數(shù)據(jù)駐留的地方處理,專用SRAM使用短而寬的總線。這種memory bank架構允許AI計算所需的效率和帶寬,同時支持計算的大規(guī)模并行直接連接。

Untether AI使用At-Memory Computation進行AI加速。

這并不是UntetherAI的at-memory計算架構的第一次展示。該公司首先通過其最初的AI推理加速器runAI展示了其方法的優(yōu)勢。runAI于2020年秋季宣布將于本季度投產(chǎn)。

對于新的speedAI架構,Untether AI在能效、準確性和吞吐量方面增加了許多改進。它們包括第二代at-memory計算架構,超過1400個經(jīng)過優(yōu)化的RISC-V處理器與定制指令,并采用浮點數(shù)據(jù)類型FP8,用于增強推理加速。這些指標標志著runAI的原始性能(Integer數(shù)據(jù)類型為8個TOPS/W)提高到30TFLOPS/W(浮點計算)。

near-memory/馮·諾伊曼架構帶來的吞吐量和能效不足等局限性是眾所周知的。像Mythics這樣的芯片設計公司一直在推廣所謂的“in-memory計算”。

然而,at-memory計算是不同的。Beachler:“人們試圖用內(nèi)存單元來做乘積。”他解釋說,問題是“你試圖使用模擬技術,這導致了模擬效應,意味著你需要在它周圍安裝很多補償電路。”他補充說,額外的電路并不能使in-memory計算設備更高效。

相比之下,在Untether AI,“我們將處理元素直接附加到標準SRAM單元上。”SpeedAI是數(shù)字化的,采用了TSMC 7nm CMOS技術。Beachler補充道:“我們圍繞SRAM做所有的事情,最大限度地降低功耗。我們不做緩存,每個算術邏輯單元都有自己的內(nèi)存。”

RISC-V處理器

Untether AI第二代at-memory計算架構的獨特之處在于使用了RISC-V處理器。

兩年半前,當Beachler加入Untether AI時,他曾問團隊:“我知道你們?yōu)槭裁床皇褂?a target="_blank">Arm,但你們?yōu)槭裁床皇褂肦ISC-V處理器呢?”

對于runAI,Untether AI必須設計一個定制的RISC處理器。Beachler說,RISC-V的生態(tài)系統(tǒng)“還沒有完全形成”。

對于speedAI,團隊“添加了一堆擴展指令,我們稱之為自定義指令,超過20多個”。Beachler解釋道:“這是特定于我們正在進行的計算類型的,包括神經(jīng)網(wǎng)絡計算,以及我們的at-memory計算架構。”

Beachler指出,這種定制化是Untether AI即使在今天的Arm處理器上也無法做到的,因為Arm不開放其指令集。相反,“RISC-V允許這種情況發(fā)生。我們能夠用我們自己的指令設計自己的定制處理器,但我們?nèi)匀皇褂肦ISC-V指令集架構。”

MemoryBank

Untether AI的第二代memory bank將使用RISC-V處理器,用于靈活、高效的AI加速。

據(jù)Untether AI稱,speedAI架構中的每個memory bank都有512個處理元素,直接連接到專用SRAM。這些處理元素支持INT4、FP8、INT8和BF16數(shù)據(jù)類型,以及用于節(jié)能的零檢測電路,并支持2:1結構稀疏性。


SpeedAI加速器使用雙多線程RISC-V來提高memory bank的編程靈活性。

以8行64個處理元素排列,每一行有自己的專用行控制器和硬接線減少功能,以允許編程的靈活性和變壓器網(wǎng)絡功能的高效計算。

兩個RISC-V處理器(每個處理器都有20多條用于推理加速的定制指令)管理各行。該公司表示,這種靈活的memory bank可以適應許多不同的神經(jīng)網(wǎng)絡架構,包括卷積、transformer和推薦網(wǎng)絡以及線性代數(shù)模型。

精度問題

除了能效,UntetherAI團隊還專注于提高其高速AI芯片的AI精度。Beachler說:“AI推理芯片的用戶發(fā)現(xiàn),當他們進行量化步驟時,有時會出現(xiàn)不可接受的準確性損失。對于某些應用來說,這沒問題,但當AI推理加速器用于推薦引擎和自動駕駛汽車時就不行了。”

Beachler解釋說,在AI推薦引擎中,“如果你的準確率僅下降0.1%,就可能會損失5000萬至1億美元的廣告收入,因為你向消費者提供了錯誤的廣告或推薦。準確性很重要的另一個領域是自動駕駛汽車,因為車廠在準確性上不會妥協(xié)。”

今年早些時候,當Nvidia宣布其Hopper架構時,這家GPU巨頭談到了一種新的8位浮點(FP8)數(shù)據(jù)類型。與標準的FP16訓練相比,F(xiàn)P8格式的吞吐量增加了一倍。

SpeedAI也在使用FP8。經(jīng)過自己的研究,該團隊得出結論,兩種不同的FP8格式為AI推理提供了精度、范圍和效率的最佳組合。該公司解釋說,將4-尾數(shù)(FP8p用于精度)和3-尾數(shù)(FP8r用于范圍)相結合,為跨各種不同網(wǎng)絡的推理提供了最佳的精度和吞吐量。”

對于卷積網(wǎng)絡,Untether AI聲稱,使用FP8“與使用BF16數(shù)據(jù)類型相比,精度損失不到1%的十分之一,吞吐量和能效提高了四倍”。

不是“一刀切”

為什么市場需要一個通用的AI推理加速器?首先,因為AI推理加速應用的出現(xiàn)。

Beachler指出,除了中央計算系統(tǒng)必須處理越來越多感知數(shù)據(jù)的自動駕駛汽車之外,智能城市還部署著廣泛的監(jiān)控市場。“他們需要聚集數(shù)百個攝像頭來生成實時可操作的情報。”這同樣適用于軍事AI應用,例如對抗無人機。“他們試圖用不同的傳感器掃描天空,以對抗無人機。或者他們會尋找雷達信號,以了解空域內(nèi)的情況。”其他的AI推理應用包括自然語言處理加速,Untether AI將其加入到speedAI中。

Yole Intelligence的Sanchez表示,通用AI推理的其他應用包括實時分類的智能零售、金融領域的語音到文本、企業(yè)數(shù)據(jù)中心和高性能計算領域的氣候建模。

其次,神經(jīng)網(wǎng)絡以及客戶在執(zhí)行AI時使用它們的方式有無數(shù)種變化。Beachler說:“我們已經(jīng)分析了50多個不同的客戶神經(jīng)網(wǎng)絡。每個都是不同的。他們可能從基本的開始,但隨后他們會做出“適合他們數(shù)據(jù)集和訓練”的偏差。

綜上所述,你需要的是具有擴展性和靈活性的AI推理加速器架構。

然而,目前許多AI應用都依賴于現(xiàn)有的通用CPU和GPU。對于服務器中的AI應用,Sanchez說:“我們看到大部分的推理都是由CPU完成的。這是因為對推理任務的需求是零星的。對于客戶來說,使用幾個Xeon或Epyc內(nèi)核進行快速推理比使用整個硬件池更方便。”

Untether AI面臨的一大挑戰(zhàn)是識別需要專用推理硬件的細分市場。Sanchez說:“超擴展性和服務器分離可能會增加推理專用硬件應對挑戰(zhàn)的機會。”

軟件陷阱

曾在Altera工作過的Beachler(就像Untether AI執(zhí)行團隊的許多成員一樣)很清楚軟件和工具流的重要性。就像FPGA客戶遇到了軟件編譯問題或擬議硬件架構的利用率很差一樣,一些AI芯片客戶也遇到了類似的問題,“你不能編程,或者它太難編程。”

Beachler說:“正如我們在Altera學到的,我們確保我們的工具永遠是行業(yè)中最好的,我們在Untether AI也在努力做同樣的事,對軟件進行過度投資。”

然而,Untether AI還沒有提交給MLPerf對其AI芯片進行基準測試。Beachler說,公司的工程團隊被50個客戶拉去做50個不同的神經(jīng)網(wǎng)絡,這家初創(chuàng)公司的首要任務是“確保軟件能夠運行所有這些不同的神經(jīng)網(wǎng)絡”。

他說,這些都是“任何AI初創(chuàng)公司都會遇到的成長的痛苦”。但UntetherAI的首個AI加速器runAI已經(jīng)投入使用,并為客戶運行網(wǎng)絡。

與大量現(xiàn)成的特定應用AI推理引擎不同,Untether AI的AI推理加速器被設計為通用設備。然而,這家初創(chuàng)公司似乎被拉向了多個方向,以滿足客戶的不同需求。Untether AI成功的關鍵在于它的軟件和編程工具,讓客戶在使用Untether AI的加速器時能夠獨立地做出自己的偏差和修改。



審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 處理器
    +關注

    關注

    68

    文章

    20256

    瀏覽量

    252498
  • cpu
    cpu
    +關注

    關注

    68

    文章

    11281

    瀏覽量

    225108
  • 加速器
    +關注

    關注

    2

    文章

    839

    瀏覽量

    40111
  • gpu
    gpu
    +關注

    關注

    28

    文章

    5196

    瀏覽量

    135514
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    使用NORDIC AI的好處

    ; 自定義 Neuton 模型博客] Axon NPU :集成在 nRF54LM20B 等高端 SoC 中的專用 AI 加速器,對 TensorFlow Lite 模型可實現(xiàn)最高約 15× 推理
    發(fā)表于 01-31 23:16

    邊緣計算中的AI加速器類型與應用

    人工智能正在推動對更快速、更智能、更高效計算的需求。然而,隨著每秒產(chǎn)生海量數(shù)據(jù),將所有數(shù)據(jù)發(fā)送至云端處理已變得不切實際。這正是邊緣計算中AI加速器變得不可或缺的原因。這種專用硬件能夠直接在邊緣設備上
    的頭像 發(fā)表于 11-06 13:42 ?822次閱讀
    邊緣計算中的<b class='flag-5'>AI</b><b class='flag-5'>加速器</b>類型與應用

    亞馬遜云科技第三期創(chuàng)業(yè)加速器圓滿收官 助力初創(chuàng)釋放Agentic AI潛力 加速全球化進程

    北京——2025年10月28日 ,亞馬遜云科技第三期創(chuàng)業(yè)加速器項目圓滿收官。35家入營企業(yè)齊聚一堂,分享了各自的業(yè)務發(fā)展情況,以及參與本期加速器的收獲及體驗。第三期創(chuàng)業(yè)加速器持續(xù)聚焦AI
    的頭像 發(fā)表于 10-29 15:18 ?937次閱讀

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI的科學應用

    主要步驟: ①溯因②假說③實驗 1、科學推理的類型 ①演繹②歸納 2、自動化科學發(fā)現(xiàn)框架 AI-笛卡兒-----自動化科學發(fā)現(xiàn)框架,利用數(shù)據(jù)和知識來生成和評估候選的科學假說。 4項規(guī)則:三、直覺
    發(fā)表于 09-17 11:45

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+第二章 實現(xiàn)深度學習AI芯片的創(chuàng)新方法與架構

    、Transformer 模型的后繼者 二、用創(chuàng)新方法實現(xiàn)深度學習AI芯片 1、基于開源RISC-V的AI加速器 RISC-V是一種開源、模塊化的指令集架構(ISA)。優(yōu)勢如下: ①模塊化特性②標準接口③開源
    發(fā)表于 09-12 17:30

    華為亮相2025金融AI推理應用落地與發(fā)展論壇

    創(chuàng)新技術——UCM推理記憶數(shù)據(jù)管理,旨在推動AI推理體驗升級,提升推理性價比,加速
    的頭像 發(fā)表于 08-15 09:45 ?1237次閱讀

    研華科技推出緊湊型邊緣AI推理系統(tǒng)AIR-120

    Hailo-8 AI加速器。這一強大的系統(tǒng)配置能夠提供可擴展的性能,最多具備8個核心,AI計算能力高達26 TOPS,并且在性能、功耗效率和成本之間進行平衡,從而實現(xiàn)高吞吐量、低延遲的推理
    的頭像 發(fā)表于 07-17 17:16 ?1061次閱讀

    信而泰×DeepSeek:AI推理引擎驅動網(wǎng)絡智能診斷邁向 “自愈”時代

    模態(tài)的技術特性,DeepSeek正加速推動AI在金融、政務、科研及網(wǎng)絡智能化等關鍵領域的深度應用。 信而泰:AI推理引擎賦能網(wǎng)絡智能診斷新范式信而泰深度整合DeepSeek-R1大模型
    發(fā)表于 07-16 15:29

    芯原可擴展的高性能GPGPU-AI計算IP賦能汽車與邊緣服務AI解決方案

    與人工智能 (AI) 加速器相融合,這些IP在熱和功耗受限的環(huán)境下,能夠高效支持大語言模型 (LLM) 推理、多模態(tài)感知以及實時決策等復雜的AI工作負載。 芯原的GPGPU-
    的頭像 發(fā)表于 06-16 10:44 ?1378次閱讀

    八天三次收購!AMD收購AI芯片制造商Untether AI團隊,刺激創(chuàng)新

    電子發(fā)燒友原創(chuàng) 章鷹 6月6日,美國芯片大廠AMD宣布收購加拿大AI推理芯片公司Untether AI。這是AMD公司在短短八天之內(nèi)完成的第三筆收購。
    的頭像 發(fā)表于 06-08 07:01 ?6195次閱讀
    八天三次收購!AMD收購<b class='flag-5'>AI</b>芯片制造商<b class='flag-5'>Untether</b> <b class='flag-5'>AI</b>團隊,刺激創(chuàng)新

    谷歌第七代TPU Ironwood深度解讀:AI推理時代的硬件革命

    谷歌第七代TPU Ironwood深度解讀:AI推理時代的硬件革命 Google 發(fā)布了 Ironwood,這是其第七代張量處理單元 (TPU),專為推理而設計。這款功能強大的 AI
    的頭像 發(fā)表于 04-12 11:10 ?3772次閱讀
    谷歌第七代TPU Ironwood深度解讀:<b class='flag-5'>AI</b><b class='flag-5'>推理</b>時代的硬件革命

    英偉達GTC25亮點:NVIDIA Dynamo開源庫加速并擴展AI推理模型

    Triton 推理服務的后續(xù)產(chǎn)品,NVIDIA Dynamo 是一款全新的 AI 推理服務軟件,旨在為部署推理
    的頭像 發(fā)表于 03-20 15:03 ?1275次閱讀

    Banana Pi 發(fā)布 BPI-AI2N &amp; BPI-AI2N Carrier,助力 AI 計算與嵌入式開發(fā)

    低功耗特性。搭載 Renesas 獨有的 DRP-AI 加速器,支持 15 Sparse TOPS的 AI 計算能力,使其在計算機視覺、邊緣 AI 及智能制造等場景中大放異彩。 豐富接
    發(fā)表于 03-19 17:54

    Oracle 與 NVIDIA 合作助力企業(yè)加速代理式 AI 推理

    ——Oracle 和 NVIDIA 今日宣布,NVIDIA 加速計算和推理軟件與 Oracle 的 AI 基礎設施以及生成式 AI 服務首次實現(xiàn)集成,以幫助全球企業(yè)組織
    發(fā)表于 03-19 15:24 ?580次閱讀
    Oracle 與 NVIDIA 合作助力企業(yè)<b class='flag-5'>加速</b>代理式 <b class='flag-5'>AI</b> <b class='flag-5'>推理</b>

    嵌入式AI加速器DRP-AI 詳細介紹

    的嵌入式設備。此外,人工智能正在不斷發(fā)展,新的算法不時被開發(fā)出來。 在人工智能快速發(fā)展的過程中,瑞薩開發(fā)了人工智能加速器(DRP-AI)和軟件(DRP-AI翻譯),既提供高性能又提供
    的頭像 發(fā)表于 03-15 16:13 ?1815次閱讀
    嵌入式<b class='flag-5'>AI</b><b class='flag-5'>加速器</b>DRP-<b class='flag-5'>AI</b> 詳細介紹