国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

什么?不用GPU也能加速你的YOLOv3深度學(xué)習(xí)模型

新機(jī)器視覺(jué) ? 來(lái)源:量子位 ? 作者:量子位 ? 2021-06-10 15:33 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

你還在為神經(jīng)網(wǎng)絡(luò)模型里的冗余信息煩惱嗎?

或者手上只有CPU,對(duì)一些只能用昂貴的GPU建立的深度學(xué)習(xí)模型“望眼欲穿”嗎?

最近,創(chuàng)業(yè)公司Neural Magic帶來(lái)了一種名叫新的稀疏化方法,可以幫你解決煩惱,讓你的深度學(xué)習(xí)模型效率“一節(jié)更比七節(jié)強(qiáng)”!

Neural Magic是專(zhuān)門(mén)研究深度學(xué)習(xí)的稀疏方法的公司,這次他們發(fā)布了教程:用recipe稀疏化YOLOv3。

聽(tīng)起來(lái)有點(diǎn)意思啊,讓我們來(lái)看看是怎么實(shí)現(xiàn)的~

稀疏化的YOLOv3

稀疏化的YOLOv3使用剪枝(prune)和量化(quantize)等算法,可以刪除神經(jīng)網(wǎng)絡(luò)中的冗余信息。

這種稀疏化方法的好處可不少。

它的推斷速度更快,文件更小。

但是因?yàn)檫^(guò)程太復(fù)雜,涉及的超參數(shù)又太多,很多人都不太關(guān)心這種方法。

Neural Magic的ML團(tuán)隊(duì)針對(duì)必要的超參數(shù)和指令,創(chuàng)建了可以自主編碼的recipe。

各種不同條件下的recipe構(gòu)成了一種可以滿足客戶(hù)各類(lèi)需求的框架。

這樣就可以建立高度精確的pruned或pruned quantized的YOLOv3模型,從而簡(jiǎn)化流程。

那這種稀疏化方法的靈感來(lái)源是什么呢?

其實(shí),Neural Magic 的 Deep Sparse(深度稀疏)架構(gòu)的主要靈感,是在產(chǎn)品硬件上模仿大腦的計(jì)算方式。

它通過(guò)利用 CPU 的大型快速緩存和大型內(nèi)存,將神經(jīng)網(wǎng)絡(luò)稀疏性與通信局部性相結(jié)合,實(shí)現(xiàn)效率提升。

教程概況

本教程目錄主要包括三大模塊:

創(chuàng)建一個(gè)預(yù)訓(xùn)練的模型

應(yīng)用Recipe

導(dǎo)出推理教程的這些recipe可以幫助用戶(hù)在Ultralytics強(qiáng)大的訓(xùn)練平臺(tái)上,使用稀疏深度學(xué)習(xí)的recipe驅(qū)動(dòng)的方法插入數(shù)據(jù)。

教程中列出的示例均在VOC數(shù)據(jù)集上執(zhí)行,所有結(jié)果也可通過(guò)“權(quán)重和偏差”項(xiàng)目公開(kāi)獲得(地址見(jiàn)參考鏈接4)。

調(diào)試結(jié)果展示

研究團(tuán)隊(duì)給出了稀疏YOLOv3目標(biāo)檢測(cè)模型在Deep Sparse引擎和PyTorch上的運(yùn)行情況。

這段視頻以波士頓著名地標(biāo)為特色,在Neural Magic的誕生地——MIT的校園取景。

同樣的條件下,在Deep Sparse引擎上比PyTorch上效率會(huì)更高。

遇到的常見(jiàn)問(wèn)題

如果用戶(hù)的硬件不支持量化網(wǎng)絡(luò)來(lái)推理加速,或者對(duì)完全恢復(fù)的要求非常高,官方建議使用pruned或pruned short 的recipe。

如果用戶(hù)的硬件可以支持量化網(wǎng)絡(luò),如CPU 上的 VNNI 指令集,官方建議使用pruned quantized或pruned quantized short的recipe。

所以使用哪一種recipe,取決于用戶(hù)愿意花多長(zhǎng)時(shí)間訓(xùn)練數(shù)據(jù),以及對(duì)完全恢復(fù)的要求。

具體要比較這幾種recipe的話,可以參考下表。

ce8f673a-c9b7-11eb-9e57-12bb97331649.png

網(wǎng)友:這個(gè)框架會(huì)比傳統(tǒng)的機(jī)器學(xué)習(xí)框架pytorch好嗎?

既然給出了和pytorch的比較視頻,就有網(wǎng)友發(fā)問(wèn)了:

Neural Magic也使用python嗎?為什么一個(gè)比另一個(gè)快10倍以上?我不相信像pytorch這樣傳統(tǒng)的機(jī)器學(xué)習(xí)框架不會(huì)得到優(yōu)化。兩種模型的實(shí)現(xiàn)是否相同?

公司官方人員也下場(chǎng)解釋了:

我們擁有專(zhuān)利技術(shù),可以通過(guò)減少計(jì)算和內(nèi)存移動(dòng)來(lái)使稀疏網(wǎng)絡(luò)在CPU上更高效的運(yùn)行。

雖然傳統(tǒng)的ML框架也能很好地實(shí)現(xiàn)簡(jiǎn)單而高效的訓(xùn)練過(guò)程。

但是,多加入一些優(yōu)化的推理,可以實(shí)現(xiàn)更多的性能,尤其是在CPU上更明顯。

看來(lái),有了以上強(qiáng)大的YOLOv3 模型工具和教程,用戶(hù)就可以在CPU上,以最小化的占用空間和GPU的速度來(lái)運(yùn)行深度學(xué)習(xí)模型。

這樣有用的教程,你還在等什么?

希望教程能對(duì)大家有所幫助,歡迎在評(píng)論區(qū)分享交流訓(xùn)練模型經(jīng)驗(yàn)~

最后介紹一下Neural Magic,有興趣的朋友可以去了解一下。

Neural Magic是一家什么樣的公司?

Neural Magic成立在馬薩諸塞州的劍橋。

創(chuàng)始人Nir Shavit和Alexander Matveev在MIT繪制大腦中的神經(jīng)連接圖時(shí),一直覺(jué)得GPU有許多限制。

因此他們停下來(lái)問(wèn)自己兩個(gè)簡(jiǎn)單的問(wèn)題:

為什么深度學(xué)習(xí)需要GPU等專(zhuān)用硬件?

有什么更好的方法嗎?

畢竟,人腦可以通過(guò)廣泛使用稀疏性來(lái)減少神經(jīng)網(wǎng)絡(luò),而不是添加FLOPS來(lái)匹配神經(jīng)網(wǎng)絡(luò),從而滿足神經(jīng)網(wǎng)絡(luò)的計(jì)算需求。

基于這種觀察和多年的多核計(jì)算經(jīng)驗(yàn),他們采用了稀疏和量化深度學(xué)習(xí)網(wǎng)絡(luò)的技術(shù),并使其能夠以GPU的速度或更高的速度在商用CPU上運(yùn)行。

這樣,數(shù)據(jù)科學(xué)家在模型設(shè)計(jì)和輸入大小上就不需要再做妥協(xié),也沒(méi)必要用稀缺且昂貴的GPU資源。

Brian Stevens

Neural Magic的CEO,Red Hat和Google Cloud的前CTO。

Nir Shavit

Neural Magic聯(lián)合創(chuàng)始人。

麻省理工學(xué)院教授,他目前的研究涉及為多處理器設(shè)計(jì)可伸縮軟件的技術(shù),尤其是多核計(jì)算機(jī)的并發(fā)數(shù)據(jù)結(jié)構(gòu)。

Alexander Matveev

Neural Magic首席技術(shù)官兼聯(lián)合創(chuàng)始人。

麻省理工學(xué)院前研究科學(xué)家,專(zhuān)門(mén)研究AI多核算法和系統(tǒng)。

參考鏈接:

[1]https://github.com/neuralmagic/sparseml/blob/main/integrations/ultralytics-yolov3/t2.utorials/sparsifying_yolov3_using_recipes.md

[2]https://neuralmagic.com/blog/sparsifying-yolov3-using-recipes-tutorial/

[3]https://arxiv.org/pdf/1804.02767.pdf

[4]https://wandb.ai/neuralmagic/yolov3-spp-lrelu-voc

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • cpu
    cpu
    +關(guān)注

    關(guān)注

    68

    文章

    11279

    瀏覽量

    224991
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5194

    瀏覽量

    135450
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1236

    瀏覽量

    26194
  • voc
    voc
    +關(guān)注

    關(guān)注

    0

    文章

    110

    瀏覽量

    16189

原文標(biāo)題:不用GPU,稀疏化也能加速你的YOLOv3深度學(xué)習(xí)模型

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    老舊設(shè)備采數(shù):不用改造

    不用改造連”的核心邏輯,是“非侵入式采集+邊緣計(jì)算”的組合方案,就像給老設(shè)備戴了塊功能強(qiáng)大的“智能手環(huán)”,全程不改動(dòng)原有控制系統(tǒng),完美避開(kāi)拆機(jī)風(fēng)險(xiǎn)和停工損失。
    的頭像 發(fā)表于 12-18 09:57 ?435次閱讀
    老舊設(shè)備采數(shù):<b class='flag-5'>不用</b>改造<b class='flag-5'>也</b><b class='flag-5'>能</b>連

    【團(tuán)購(gòu)】獨(dú)家全套珍藏!龍哥LabVIEW視覺(jué)深度學(xué)習(xí)實(shí)戰(zhàn)課(11大系列課程,共5000+分鐘)

    GPU加速訓(xùn)練(可選) 雙軌教學(xué):傳統(tǒng)視覺(jué)算法+深度學(xué)習(xí)方案全覆蓋 輕量化部署:8.6M超輕OCR模型,適合嵌入式設(shè)備集成 無(wú)監(jiān)督
    發(fā)表于 12-04 09:28

    【團(tuán)購(gòu)】獨(dú)家全套珍藏!龍哥LabVIEW視覺(jué)深度學(xué)習(xí)實(shí)戰(zhàn)課程(11大系列課程,共5000+分鐘)

    GPU加速訓(xùn)練(可選) 雙軌教學(xué):傳統(tǒng)視覺(jué)算法+深度學(xué)習(xí)方案全覆蓋 輕量化部署:8.6M超輕OCR模型,適合嵌入式設(shè)備集成 無(wú)監(jiān)督
    發(fā)表于 12-03 13:50

    使用ROCm?優(yōu)化并部署YOLOv8模型

    ://github.com/ultralytics/ultralytics/tree/main YOLOv8模型的卓越性能使其在多個(gè)領(lǐng)域具有廣泛的應(yīng)用前景,如自動(dòng)駕
    的頭像 發(fā)表于 09-24 18:32 ?864次閱讀
    使用ROCm?優(yōu)化并部署<b class='flag-5'>YOLOv</b>8<b class='flag-5'>模型</b>

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+第二章 實(shí)現(xiàn)深度學(xué)習(xí)AI芯片的創(chuàng)新方法與架構(gòu)

    矩陣乘法的算法 ①矩陣乘法的各種算法 ②優(yōu)化矩陣乘法過(guò)程的新方法 ③加速矩陣乘法的新算法 1)用學(xué)習(xí)替代乘法 2)用加法代替矩陣乘法 3)只用加法的大模型計(jì)算 4)用
    發(fā)表于 09-12 17:30

    基于瑞芯微RK3576的 yolov5訓(xùn)練部署教程

    1.Yolov5簡(jiǎn)介 YOLOv5 模型是 Ultralytics 公司于 2020 年 6 月 9 日公開(kāi)發(fā)布的。YOLOv5 模型是基于
    的頭像 發(fā)表于 09-11 16:43 ?2951次閱讀
    基于瑞芯微RK3576的 <b class='flag-5'>yolov</b>5訓(xùn)練部署教程

    自動(dòng)駕駛中Transformer大模型會(huì)取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿微信公眾號(hào)]近年來(lái),隨著ChatGPT、Claude、文心一言等大語(yǔ)言模型在生成文本、對(duì)話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)”這一話題一直被
    的頭像 發(fā)表于 08-13 09:15 ?4184次閱讀
    自動(dòng)駕駛中Transformer大<b class='flag-5'>模型</b>會(huì)取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    在K230中,如何使用AI Demo中的object_detect_yolov8n,YOLOV8多目標(biāo)檢測(cè)模型

    在K230的AI開(kāi)發(fā)教程文檔中,可以看到有源碼的AI Demo,其中包括yolov8n模型,在倉(cāng)庫(kù)里可以看到源碼 我想請(qǐng)問(wèn)各位大佬,如何使用這個(gè)程序?如何更改程序,替換為我自己的數(shù)據(jù)集和訓(xùn)練后的模型
    發(fā)表于 08-07 06:48

    yolov5訓(xùn)練部署全鏈路教程

    1.Yolov5簡(jiǎn)介YOLOv5模型是Ultralytics公司于2020年6月9日公開(kāi)發(fā)布的。YOLOv5模型是基于
    的頭像 發(fā)表于 07-25 15:22 ?1763次閱讀
    <b class='flag-5'>yolov</b>5訓(xùn)練部署全鏈路教程

    別讓 GPU 故障拖后腿,捷智算GPU維修室來(lái)救場(chǎng)!

    在AI浪潮洶涌的當(dāng)下,GPU已然成為眾多企業(yè)與科研機(jī)構(gòu)的核心生產(chǎn)力。從深度學(xué)習(xí)模型訓(xùn)練,到影視渲染、復(fù)雜科學(xué)計(jì)算,GPU憑借強(qiáng)大并行計(jì)算能力
    的頭像 發(fā)表于 07-17 18:56 ?1148次閱讀
    別讓 <b class='flag-5'>GPU</b> 故障拖后腿,捷智算<b class='flag-5'>GPU</b>維修室來(lái)救場(chǎng)!

    模型推理顯存和計(jì)算量估計(jì)方法研究

    ,如乘法、加法等; (2)根據(jù)各層計(jì)算操作的類(lèi)型和復(fù)雜度,確定每層所需的計(jì)算量; (3)將各層計(jì)算量相加,得到模型總的計(jì)算量。 基于硬件加速的算力估計(jì) 隨著硬件加速技術(shù)的發(fā)展,許多
    發(fā)表于 07-03 19:43

    智算加速卡是什么東西?它真能在AI戰(zhàn)場(chǎng)上干掉GPU和TPU!

    隨著AI技術(shù)火得一塌糊涂,大家都在談"大模型"、"AI加速"、"智能計(jì)算",可真到了落地環(huán)節(jié),算力才是硬通貨。有沒(méi)有發(fā)現(xiàn),現(xiàn)在越來(lái)越多的AI企業(yè)不光用GPU
    的頭像 發(fā)表于 06-05 13:39 ?1647次閱讀
    智算<b class='flag-5'>加速</b>卡是什么東西?它真能在AI戰(zhàn)場(chǎng)上干掉<b class='flag-5'>GPU</b>和TPU!

    labview調(diào)用yolo目標(biāo)檢測(cè)、分割、分類(lèi)、obb

    labview調(diào)用yolo目標(biāo)檢測(cè)、分割、分類(lèi)、obb、pose深度學(xué)習(xí),支持CPU和GPU推理,32/64位labview均可使用。 (yolov5~
    發(fā)表于 03-31 16:28

    請(qǐng)問(wèn)如何在imx8mplus上部署和運(yùn)行YOLOv5訓(xùn)練的模型

    我正在從事 imx8mplus yocto 項(xiàng)目。我已經(jīng)在自定義數(shù)據(jù)集上的 YOLOv5 上訓(xùn)練了對(duì)象檢測(cè)模型。它在 ubuntu 電腦上運(yùn)行良好。現(xiàn)在我想在我的 imx8mplus 板上運(yùn)行該模型
    發(fā)表于 03-25 07:23

    YOLOv4模型轉(zhuǎn)換為IR的說(shuō)明,無(wú)法將模型轉(zhuǎn)換為T(mén)ensorFlow2格式怎么解決?

    遵照 將 YOLOv4 模型轉(zhuǎn)換為 IR 的 說(shuō)明,但無(wú)法將模型轉(zhuǎn)換為 TensorFlow2* 格式。 將 YOLOv4 darknet 轉(zhuǎn)換為 Keras
    發(fā)表于 03-07 07:14