国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

邁向更高效的圖像分類:解析DeiT模型的移植和適配

算能開發(fā)者社區(qū) ? 2023-11-23 08:33 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1. DeiT概述

1.1 項目簡介

Deit(Data-efficient image Transformers)是由Facebook與索邦大學的Matthieu Cord教授合作開發(fā)的圖像分類模型。作為一種基于Transformer架構(gòu)的深度學習模型,DeiT在保持高性能的同時,能夠大大提高數(shù)據(jù)效率,為圖像識別領(lǐng)域帶來了顛覆性的變化。

與傳統(tǒng)的CNN不同,DeiT模型采用了Transformer的自注意力機制,將圖像分割成若干個固定大小的塊,并對每個塊進行編碼,捕捉圖像中的長程依賴關(guān)系。

本文將為大家介紹如何將DeiT移植到算能BM1684X平臺上。

1.2 模型介紹

DeiT目前有3個版本的模型(tiny, small, base),均由12個Attention結(jié)構(gòu)組成,模型區(qū)別在于輸入的header個數(shù)及embed_dim不同。

Attention結(jié)構(gòu)如下圖所示:

f5dd2bea-8997-11ee-9788-92fbcf53809c.pngattention

不同版本的模型具體參數(shù)區(qū)別如下表:

f5f01ad4-8997-11ee-9788-92fbcf53809c.pngversion

2. 模型移植

以下部分介紹如何將DeiT移植到算能BM1684X平臺上。

2.1 模型trace

原始DeiT模型基于Pytorch框架訓練及推理。算能TPU-MLIR工具鏈可以編譯通過jit trace過的靜態(tài)模型。

首先進行模型trace,命令如下,需要修改原推理代碼。

f612c46c-8997-11ee-9788-92fbcf53809c.pngtrace

2.2 模型編譯

以下介紹如何使用算能TPU-MLIR工具鏈將上一步trace過的模型編譯成可以在算能BM1684X上推理的bmodel。在模型移植過程中遇到一些算子邊界的處理問題,均已修復。

f6221b60-8997-11ee-9788-92fbcf53809c.pngtransformf634c6ac-8997-11ee-9788-92fbcf53809c.pngdeploy

2.3 精度測試

DeiT為分類模型,精度測試采用topk來進行。

精度測試及性能測試結(jié)果如下:

f649d45c-8997-11ee-9788-92fbcf53809c.pngprecision

3 小結(jié)

總體看移植過程相對順利,在解決了部分算子邊界問題之后可以成功編譯出bmodel。F32精度基本可與原始框架對齊。由于第一個Conv stride > 15,在進行F16/BF16轉(zhuǎn)換時遇到比對問題,這部分代碼目前仍在重構(gòu),生成bmodel過程中這部分采用F32混精度處理。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1096

    瀏覽量

    42329
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3752

    瀏覽量

    52111
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5599

    瀏覽量

    124398
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    沐曦曦云C500/C550 GPU產(chǎn)品適配騰訊混元圖像3.0圖生圖模型

    近日,騰訊混元團隊宣布開源混元圖像3.0圖生圖版本(HunyuanImage 3.0-Instruct),沐曦股份曦云C500/C550 24小時內(nèi)完成適配,為國內(nèi)首批適配模型的國產(chǎn)
    的頭像 發(fā)表于 02-02 14:43 ?373次閱讀

    SAM(通用圖像分割基礎模型)丨基于BM1684X模型部署指南

    前言SAM是Meta提出的一個分割一切的提示型模型,其在1100萬張圖像上訓練了超過10億個掩碼,實現(xiàn)了強大的零樣本泛化,突破了分割界限。本例程對SAM官方開源倉庫的模型和算法進行移植
    的頭像 發(fā)表于 01-12 16:17 ?305次閱讀
    SAM(通用<b class='flag-5'>圖像</b>分割基礎<b class='flag-5'>模型</b>)丨基于BM1684X<b class='flag-5'>模型</b>部署指南

    飛騰多元化工控主板:賦能產(chǎn)業(yè)發(fā)展更智能、更高效、更便捷

    在工業(yè)4.0浪潮席卷全球、產(chǎn)業(yè)數(shù)字化轉(zhuǎn)型加速推進的今天,工控主板作為工業(yè)控制領(lǐng)域的核心,其性能與適配能力深度決定了產(chǎn)業(yè)升級的深度與效率。國產(chǎn)工控主板以技術(shù)創(chuàng)新打破場景局限,憑借靈活適配、穩(wěn)定可靠、智能互聯(lián)的核心優(yōu)勢,為千行百業(yè)注入強勁動能,推動產(chǎn)業(yè)發(fā)展
    的頭像 發(fā)表于 01-07 09:25 ?154次閱讀
    飛騰多元化工控主板:賦能產(chǎn)業(yè)發(fā)展更智能、<b class='flag-5'>更高效</b>、更便捷

    千兆工業(yè)圖像采集卡 | 穩(wěn)定網(wǎng)絡傳輸,適配遠程工業(yè)檢測

    在工業(yè)自動化檢測邁向遠程化、分布式部署的趨勢下,千兆工業(yè)圖像采集卡以其卓越的網(wǎng)絡傳輸穩(wěn)定性和廣泛的場景適配能力,成為連接工業(yè)相機與后端處理系統(tǒng)的核心樞紐。千兆工業(yè)圖像采集卡深度契合遠程
    的頭像 發(fā)表于 12-23 15:58 ?261次閱讀
    千兆工業(yè)<b class='flag-5'>圖像</b>采集卡 | 穩(wěn)定網(wǎng)絡傳輸,<b class='flag-5'>適配</b>遠程工業(yè)檢測

    MDB-RS232適配器數(shù)據(jù)通信格式解析

    MDB-RS232適配器數(shù)據(jù)通信格式解析
    的頭像 發(fā)表于 12-20 16:26 ?1638次閱讀
    MDB-RS232<b class='flag-5'>適配</b>器數(shù)據(jù)通信格式<b class='flag-5'>解析</b>

    在Ubuntu20.04系統(tǒng)中訓練神經(jīng)網(wǎng)絡模型的一些經(jīng)驗

    , batch_size=512, epochs=20)總結(jié) 這個核心算法中的卷積神經(jīng)網(wǎng)絡結(jié)構(gòu)和訓練過程,是用來對MNIST手寫數(shù)字圖像進行分類的。模型圖像作為輸入,通過卷積和池化
    發(fā)表于 10-22 07:03

    迅為iTOP-RK3568人工智能開發(fā)板mobilenet圖像分類模型推理測試

    想快速驗證MobileNet圖像分類模型的實際運行效果?迅為iTOP-RK3568人工智能開發(fā)板,讓模型推理測試高效又省心。
    的頭像 發(fā)表于 08-28 15:53 ?1430次閱讀
    迅為iTOP-RK3568人工智能開發(fā)板mobilenet<b class='flag-5'>圖像</b><b class='flag-5'>分類</b><b class='flag-5'>模型</b>推理測試

    衛(wèi)星圖像智能合成系統(tǒng)全面解析

    衛(wèi)星圖像智能合成系統(tǒng)全面解析
    的頭像 發(fā)表于 08-27 14:49 ?602次閱讀
    衛(wèi)星<b class='flag-5'>圖像</b>智能合成系統(tǒng)全面<b class='flag-5'>解析</b>

    RT-Thread Nano硬核移植指南:手把手實現(xiàn)VGLite圖形驅(qū)動適配 | 技術(shù)集結(jié)

    VGLite是NXP提供的輕量級2D圖形API,本文將手把手帶你實現(xiàn)VGLite圖形驅(qū)動適配RT-Thread。文章分為上、下兩篇,將手把手教您移植。上篇對RT-ThreadNano內(nèi)核與Finsh組件進行移植,下篇則教您改寫S
    的頭像 發(fā)表于 07-17 14:40 ?3390次閱讀
    RT-Thread Nano硬核<b class='flag-5'>移植</b>指南:手把手實現(xiàn)VGLite圖形驅(qū)動<b class='flag-5'>適配</b> | 技術(shù)集結(jié)

    翼輝信息RealEvo-Stream的高效移植過程

    面向內(nèi)核、驅(qū)動、板級支持包等嵌入式底層開發(fā)者,而 RealEvo-Stream 則主要針對應用開發(fā)者,其功能偏向上層業(yè)務開發(fā)、應用適配以及生態(tài)軟件移植。RealEvo-Stream 可支持多種常用開源
    的頭像 發(fā)表于 07-05 16:00 ?1296次閱讀
    翼輝信息RealEvo-Stream的<b class='flag-5'>高效</b><b class='flag-5'>移植</b>過程

    【正點原子STM32MP257開發(fā)板試用】基于 DeepLab 模型圖像分割

    是谷歌團隊提出的一種用于語義分割的深度學習模型,屬于 DeepLab 系列模型的第三代版本。它在圖像語義分割任務中表現(xiàn)優(yōu)異,能夠高效地捕獲圖像
    發(fā)表于 06-21 21:11

    壁仞科技完成Qwen3旗艦模型適配

    近日,在高效適配Qwen3系列模型推理后,壁仞科技宣布完成旗艦版Qwen3-235B-A22B模型的訓練適配和優(yōu)化。由此,壁仞科技已實現(xiàn)Qw
    的頭像 發(fā)表于 05-16 16:23 ?991次閱讀

    基于RV1126開發(fā)板實現(xiàn)自學習圖像分類方案

    在RV1126開發(fā)板上實現(xiàn)自學習:在識別前對物體圖片進行模型學習,訓練完成后通過算法分類得出圖像模型ID。 方案設計邏輯流程圖,方案代碼分為分為兩個業(yè)務流程,主體代碼負
    的頭像 發(fā)表于 04-21 13:37 ?11次閱讀
    基于RV1126開發(fā)板實現(xiàn)自學習<b class='flag-5'>圖像</b><b class='flag-5'>分類</b>方案

    愛芯通元NPU適配Qwen2.5-VL-3B視覺多模態(tài)大模型

    熟悉愛芯通元NPU的網(wǎng)友很清楚,從去年開始我們在端側(cè)多模態(tài)大模型適配上一直處于主動緊跟的節(jié)奏。先后適配了國內(nèi)最早開源的多模態(tài)大模MiniCPM V 2.0,上海人工智能實驗室的書生多模態(tài)大模型
    的頭像 發(fā)表于 04-21 10:56 ?3151次閱讀
    愛芯通元NPU<b class='flag-5'>適配</b>Qwen2.5-VL-3B視覺多模態(tài)大<b class='flag-5'>模型</b>

    ?VLM(視覺語言模型)?詳細解析

    的詳細解析: 1. 核心組成與工作原理 視覺編碼器 :提取圖像特征,常用CNN(如ResNet)或視覺Transformer(ViT)。 語言模型 :處理文本輸入/輸出,如GPT、BERT等,部分
    的頭像 發(fā)表于 03-17 15:32 ?8843次閱讀
    ?VLM(視覺語言<b class='flag-5'>模型</b>)?詳細<b class='flag-5'>解析</b>