国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

通過Transformer架構(gòu)賦能新一代邊緣AI應(yīng)用

Arm社區(qū) ? 來源:Arm社區(qū) ? 2024-04-08 10:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

人工智能 (AI) 和機(jī)器學(xué)習(xí) (ML) 的加速發(fā)展既得益于基礎(chǔ)硬件的不斷改進(jìn),也離不開軟件領(lǐng)域的發(fā)展成果。

以 Transformer 架構(gòu)為例。2017 年,谷歌在一篇研究論文中[1]首次提出這一架構(gòu),它采用自注意力機(jī)制 (self-attention),使模型能夠在進(jìn)行預(yù)測時(shí)對不同的輸入詞元 (token) 賦予不同權(quán)重。利用自注意力機(jī)制,Transformer 模型能夠捕捉數(shù)據(jù)中的遠(yuǎn)程依賴關(guān)系,因此在執(zhí)行語言翻譯、圖像處理、文本生成和情感分析等任務(wù)時(shí)非常高效。例如,生成式預(yù)訓(xùn)練模型 (GPT) 就是當(dāng)前流行訓(xùn)練有素的 Transformer 模型。這些模型已經(jīng)在語音助手和 AI 圖像生成工具中得到應(yīng)用。

這之于感知器 (perceptron) 還是存在很大的差別。感知器是早期的一種神經(jīng)網(wǎng)絡(luò),由單層人工神經(jīng)元組成,可在模式識別任務(wù)(例如,識別手寫數(shù)字)中做出二元決策。相較于卷積神經(jīng)網(wǎng)絡(luò) (CNN),Transformer 架構(gòu)已開始受到更多青睞。CNN 對數(shù)據(jù)架構(gòu)方式會進(jìn)行內(nèi)置假設(shè),它關(guān)注附近的關(guān)系,以及觀察圖像或視頻中的對象移動或變化方式。

而 Transformer 架構(gòu)則不會做出這些假設(shè)。相反地,它利用自注意力來理解序列的不同部分如何相互關(guān)聯(lián),而忽略其位置信息。得益于這種靈活性,基于 Transformer 的模型能夠更加輕松地適應(yīng)不同的任務(wù)。

這是如何實(shí)現(xiàn)的?Transformer 架構(gòu)及其采用的注意力機(jī)制徹底改變了 AI 應(yīng)用的格局,因?yàn)樽⒁饬C(jī)制具備的相關(guān)功能可以為諸多用例提供支持。文本(及語言)本身就是編碼信息,圖像、音頻以及其他形式的串行數(shù)據(jù)同樣如此。由于編碼信息可以解讀為一種語言,因此 Transformer 模型可以廣泛應(yīng)用于不同的用例中。這種適應(yīng)性對于理解視頻、填充圖像的缺失部分或同時(shí)分析來自多個(gè)攝像頭的數(shù)據(jù)或多模態(tài)數(shù)據(jù)來源(參見下文示例)等任務(wù)非常有效。

2020 年問世的 Vision Transformer (ViT) 是將 Transformer 架構(gòu)成功應(yīng)用于圖像分類的最早一批神經(jīng)網(wǎng)絡(luò)技術(shù)[2]之一。ViT 將圖像劃分為多個(gè)圖塊,并使用自注意力機(jī)制對這些圖塊之間的交互進(jìn)行建模。

自此,Transformer 模型被迅速應(yīng)用于各類視覺任務(wù)中,例如:

圖像分類

目標(biāo)檢測

語義分割

圖像超分辨率

圖像生成

視頻分類

在硬件上優(yōu)化模型

那么,硬件與這一切有什么關(guān)系呢?關(guān)系相當(dāng)密切!而且硬件將是未來發(fā)展的關(guān)鍵因素。

GPU、TPU 或 NPU(甚至 CPU)都可以處理 Transformer 模型所需的密集矩陣運(yùn)算和并行計(jì)算。同時(shí),Transformer 架構(gòu)可使更復(fù)雜的模型運(yùn)行于資源更為受限的邊緣設(shè)備上。

主要有以下三個(gè)原因:

與 CNN 或循環(huán)神經(jīng)網(wǎng)絡(luò) (RNN) 相比,Transformer 架構(gòu)從本質(zhì)上而言更具可并行性。這一特性能更有效地利用硬件,從而可以在計(jì)算資源受限的邊緣設(shè)備上部署基于 Transformer 的模型。

自注意力機(jī)制意味著通過較小的 Transformer 模型所帶來的性能表現(xiàn),可以媲美基于 CNN 或 RNN 的較大模型,從而降低邊緣部署的算力與內(nèi)存需求。

模型壓縮技術(shù)(例如剪枝、量化、知識提煉和注意力稀疏)的提升可進(jìn)一步縮小 Transformer 模型的大小,同時(shí)又不會造成性能或準(zhǔn)確性的明顯下降。

Transformer 架構(gòu)提升

現(xiàn)在,不妨想象一下功能更強(qiáng)大的計(jì)算資源,畢竟這一切并不遙遠(yuǎn)。通過優(yōu)化支持 Transformer 架構(gòu)的硬件,創(chuàng)新者可充分發(fā)掘這些強(qiáng)大神經(jīng)網(wǎng)絡(luò)的全部潛力,并為跨不同領(lǐng)域和模式的 AI 應(yīng)用帶來全新的可能性。

例如,硬件性能和效率的提升可以:

加快 Transformer 模型的推理速度,從而提高響應(yīng)能力,并改善用戶體驗(yàn)。

部署更大的 Transformer 模型,從而在語言翻譯、文本生成和圖像處理等任務(wù)中獲得更佳表現(xiàn)。

提高在一系列應(yīng)用和部署場景中的邊緣設(shè)備、云服務(wù)器或?qū)S?AI 加速器中部署 Transformer 解決方案的可擴(kuò)展性。

探索全新架構(gòu),并不斷優(yōu)化 Transformer 模型。這其中包括嘗試不同的層配置、注意力機(jī)制和正則化技術(shù),以進(jìn)一步提高模型的性能和效率。

顯著提高能效,鑒于某些模型的規(guī)模增長,這一點(diǎn)至關(guān)重要。

試想一下,當(dāng)你打開手機(jī)或智能眼鏡上[3]的某個(gè)視覺應(yīng)用,它可以識別某個(gè)款式的襯衫,并從你的衣柜中推薦與之搭配的下半身穿著。或者由于算力提升而出現(xiàn)的新的圖像生成功能[4]。

增加計(jì)算資源并不困難。集成子系統(tǒng)可提供經(jīng)過驗(yàn)證的各種處理單元塊,包括 CPU、NPU、互連、內(nèi)存和其他組件。而軟件工具可以根據(jù)處理器來優(yōu)化 Transformer 模型,以獲得性能和效率的最大化。

擁抱未來

通過硬件優(yōu)化,Transformer 模型架構(gòu)有望推動一些令人驚嘆的新應(yīng)用。借助優(yōu)化的硬件配置以及集成子系統(tǒng)、互連和軟件開發(fā),無論是更快的推理速度,為更大的模型提供更好的性能,還是更出色的可擴(kuò)展性等等,這一切都將成為可能。這條通往創(chuàng)新和探索的全新旅程,正在蓬勃發(fā)展,引領(lǐng)我們走向更遠(yuǎn)的未來。



審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4838

    瀏覽量

    107768
  • 人工智能
    +關(guān)注

    關(guān)注

    1817

    文章

    50098

    瀏覽量

    265374
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8553

    瀏覽量

    136948
  • AI加速器
    +關(guān)注

    關(guān)注

    1

    文章

    73

    瀏覽量

    9488

原文標(biāo)題:大咖觀點(diǎn) | 通過 Transformer 架構(gòu)賦能新一代邊緣 AI 應(yīng)用

文章出處:【微信號:Arm社區(qū),微信公眾號:Arm社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    Transformer 入門:從零理解 AI 大模型的核心原理

    Normalization) Transformer 使用的是層歸化,它在每層對數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化: 計(jì)算步驟 ini 體驗(yàn)AI代碼助手 代碼解讀 復(fù)制代碼 輸入向量:x = [
    發(fā)表于 02-10 16:33

    AI 邊緣計(jì)算 + EtherCAT 實(shí)時(shí)控制:新一代 EMS 控制器架構(gòu)演進(jìn)

    正在成型—— AI 邊緣計(jì)算 + 儲 EMS + EtherCAT 實(shí)時(shí)控制 。 而這,也正是新一代控制器正在走的方向。
    的頭像 發(fā)表于 01-22 11:04 ?322次閱讀

    DPU新一代邊緣數(shù)據(jù)中心算力革新

    場景中,對數(shù)據(jù)采集和處理的時(shí)效性、連續(xù)性、安全性、隱私性,以及數(shù)據(jù)價(jià)值的挖掘和利用,都有更高的要求。因此,未來幾年是構(gòu)建新一代智能數(shù)據(jù)中心基礎(chǔ)設(shè)施的關(guān)鍵時(shí)期,數(shù)據(jù)中心將從“云+端”轉(zhuǎn)變?yōu)椤霸?邊+端”三層架構(gòu)
    的頭像 發(fā)表于 01-21 09:27 ?442次閱讀
    DPU<b class='flag-5'>賦</b><b class='flag-5'>能</b><b class='flag-5'>新一代</b><b class='flag-5'>邊緣</b>數(shù)據(jù)中心算力革新

    MIPS 推出軟件優(yōu)先的 S8200 RISC-V NPU,自主邊緣物理 AI

    日,中國上海 —— 格羅方德(GlobalFoundries)旗下公司 MIPS 正式發(fā)布 MIPS S8200 處理器 IP 的詳細(xì)信息,旨在新一代嵌入式平臺的 AI 工作負(fù)載
    的頭像 發(fā)表于 01-14 10:26 ?6.5w次閱讀
    MIPS 推出軟件優(yōu)先的 S8200 RISC-V NPU,<b class='flag-5'>賦</b><b class='flag-5'>能</b>自主<b class='flag-5'>邊緣</b>物理 <b class='flag-5'>AI</b>

    生成式AI虛擬調(diào)試——fe.screen-sim的架構(gòu)價(jià)值

    生成式AI虛擬調(diào)試——fe.screen-sim的架構(gòu)價(jià)值
    的頭像 發(fā)表于 12-04 14:59 ?979次閱讀
    生成式<b class='flag-5'>AI</b><b class='flag-5'>賦</b><b class='flag-5'>能</b>虛擬調(diào)試——fe.screen-sim的<b class='flag-5'>架構(gòu)</b>價(jià)值

    正式推出新一代邊緣AI芯片KL1140

    總部位于圣迭戈的 AI 科技企業(yè) Kneron 耐今日正式發(fā)表新一代 AI 系列芯片,并由全新旗艦產(chǎn)品 KL1140 領(lǐng)銜,全面構(gòu)建從終端到云端的完整
    的頭像 發(fā)表于 11-28 15:01 ?666次閱讀

    Nordic新一代NRF54高性能藍(lán)牙, 更多穿戴戒指行業(yè)客戶產(chǎn)品

    智能可穿戴設(shè)備公司陸續(xù)推出智能戒指產(chǎn)品,而Nordic Semiconductor新一代超低功耗無線SoC芯片NRF54L15,重新定義了健康與健身追蹤可穿戴技術(shù)的可能性。 基于Nordic
    發(fā)表于 11-26 17:19

    AI管理系統(tǒng),通過AI模型提高能耗管理

    AI管理系統(tǒng),通過AI模型提高能耗管理 在能源轉(zhuǎn)型成為全球共識的今天,儲
    的頭像 發(fā)表于 11-05 17:52 ?805次閱讀

    工業(yè)視覺網(wǎng)關(guān):RK3576多路檢測與邊緣AI

    ~150ms6TOPS NPU 邊緣AI推理易對接 MES / 追溯系統(tǒng) 、產(chǎn)線痛點(diǎn):從“人看”到“機(jī)判”的轉(zhuǎn)變· 多工位/多角度同步:單機(jī)位覆蓋不足,典型項(xiàng)目需 8~12 路并發(fā),且畫面時(shí)序
    發(fā)表于 10-16 17:56

    【內(nèi)測活動同步開啟】這么小?這么強(qiáng)?新一代大模型MCP開發(fā)板來啦!

    【內(nèi)測活動同步開啟】這么小?這么強(qiáng)?新一代大模型MCP開發(fā)板來啦! 聆思全新一代六合芯片「LS26系列」,搭載WIFI / BLE & BT / NPU,與「小聆AI」強(qiáng)強(qiáng)
    發(fā)表于 09-25 11:47

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+第二章 實(shí)現(xiàn)深度學(xué)習(xí)AI芯片的創(chuàng)新方法與架構(gòu)

    Transformer 模型的后繼者 二、用創(chuàng)新方法實(shí)現(xiàn)深度學(xué)習(xí)AI芯片 1、基于開源RISC-V的AI加速器 RISC-V是種開源、模塊化的指令集
    發(fā)表于 09-12 17:30

    廣和通發(fā)布新一代AI語音智能體FiboVista

    近日,2025火山引擎Force原動力大會正式開幕。廣和通發(fā)布新一代AI語音智能體FiboVista,并已率先應(yīng)用于車聯(lián)網(wǎng),成為智能駕駛的“用車伙伴”和“出行伴侶”。通過創(chuàng)新AI大模型
    的頭像 發(fā)表于 06-17 09:22 ?1259次閱讀

    芯原可擴(kuò)展的高性能GPGPU-AI計(jì)算IP汽車與邊緣服務(wù)器AI解決方案

    芯原股份 (芯原,股票代碼:688521.SH) 日前宣布其 高性能、可擴(kuò)展的GPGPU-AI計(jì)算IP的最新進(jìn)展,這些IP現(xiàn)已為新一代汽車電子和邊緣服務(wù)器應(yīng)用提供強(qiáng)勁
    的頭像 發(fā)表于 06-16 10:44 ?1366次閱讀

    Transformer架構(gòu)概述

    由于Transformer模型的出現(xiàn)和快速發(fā)展,深度學(xué)習(xí)領(lǐng)域正在經(jīng)歷場翻天覆地的變化。這些突破性的架構(gòu)不僅重新定義了自然語言處理(NLP)的標(biāo)準(zhǔn),而且拓寬了視野,徹底改變了AI的許多
    的頭像 發(fā)表于 06-10 14:24 ?1288次閱讀
    <b class='flag-5'>Transformer</b><b class='flag-5'>架構(gòu)</b>概述

    寶馬發(fā)布全新一代智能電子電氣架構(gòu)

    "超級大腦"寶馬新世代車型智能駕駛樂趣 全新一代電子電氣架構(gòu)搭載新世代車型,覆蓋全動力系統(tǒng)和全細(xì)分車型 全新一代電子電氣
    的頭像 發(fā)表于 03-13 15:42 ?734次閱讀