国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

用于深度學(xué)習(xí)推理的高性能工具包

星星科技指導(dǎo)員 ? 來(lái)源:嵌入式計(jì)算設(shè)計(jì) ? 作者:Saumitra Jagdale ? 2022-07-12 10:08 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

近年來(lái),深度神經(jīng)網(wǎng)絡(luò)在將計(jì)算機(jī)視覺(jué)算法的準(zhǔn)確性提升到一個(gè)新的水平方面取得了重大進(jìn)展。OpenVINO 工具包就是這樣一個(gè)示例,它可以在提供高性能的同時(shí)優(yōu)化 DNN 模型。

英特爾最近發(fā)布了其 OpenVINO 工具套件的最新版本 (2022.1),可為任何地方的開(kāi)發(fā)人員提供更簡(jiǎn)單的部署。OpenVINO 是“Open Visual Inference and Neural Network Optimization”的縮寫(xiě),是一個(gè)跨平臺(tái)的深度學(xué)習(xí)工具包,可提供額外的深度學(xué)習(xí)模型、設(shè)備可移植性和更高的推理性能,同時(shí)代碼更改更少。它專(zhuān)注于通過(guò)一次寫(xiě)入、隨處部署的方法來(lái)增強(qiáng)深度神經(jīng)網(wǎng)絡(luò)推理,從而優(yōu)化應(yīng)用程序的開(kāi)發(fā)生命周期

該工具包有兩個(gè)版本,一個(gè)開(kāi)源 OpenVINO 工具包和一個(gè)英特爾 Distribution of OpenVINO 工具包。OpenVINO 工具包主要用于開(kāi)發(fā)各種問(wèn)題的快速解決方案,如模擬人類(lèi)視覺(jué)、語(yǔ)音識(shí)別、自然語(yǔ)言處理、推薦系統(tǒng)等。它為開(kāi)發(fā)人員在其 AI 界面上工作以及采用和維護(hù)提供了一種更簡(jiǎn)單的替代方案他們的代碼。OpenVINO 建立在最新一代人工神經(jīng)網(wǎng)絡(luò) (ANN) 的基礎(chǔ)上,例如卷積神經(jīng)網(wǎng)絡(luò) (CNN) 以及循環(huán)和基于注意力的網(wǎng)絡(luò)。

在英特爾硬件中,OpenVINO 包含計(jì)算機(jī)視覺(jué)和非計(jì)算機(jī)視覺(jué)工作負(fù)載。通過(guò)其眾多功能,它確保了最大的性能并加快了應(yīng)用程序的開(kāi)發(fā)。它提供了來(lái)自自己的 Open Model Zoo 的預(yù)訓(xùn)練模型,這些模型提供了優(yōu)化的模型。OpenVINO 提供了模型優(yōu)化器 API,可以轉(zhuǎn)換您提供的模型并為推理做好準(zhǔn)備。推理引擎允許用戶通過(guò)編譯優(yōu)化的網(wǎng)絡(luò)和管理特定設(shè)備上的推理操作來(lái)調(diào)整性能。而且由于該工具包與大多數(shù)框架兼容,因此干擾最小,性能最高。

上圖顯示了使用計(jì)算機(jī)視覺(jué)進(jìn)行入侵檢測(cè)的 OpenVINO 工具包的應(yīng)用。英特爾的 OpenVINO 工具套件分發(fā)版旨在促進(jìn)和簡(jiǎn)化高性能計(jì)算機(jī)視覺(jué)和深度學(xué)習(xí)推理應(yīng)用程序在廣泛使用的英特爾平臺(tái)上的開(kāi)發(fā)、創(chuàng)建和部署。OpenVINO 的應(yīng)用范圍從自動(dòng)化和安全到農(nóng)業(yè)、醫(yī)療保健等等。

版本 2022.1 的功能

此版本為之前的 2021.3 版本提供了錯(cuò)誤修復(fù)和功能更改。

更新,更清潔的 API

這個(gè)新版本使維護(hù)開(kāi)發(fā)人員的代碼變得更加容易。它可以與最小化轉(zhuǎn)換的 TensorFlow 約定集成。此版本減少了模型優(yōu)化器中的 API 參數(shù),以最大限度地降低復(fù)雜性。另一方面,在開(kāi)放式神經(jīng)網(wǎng)絡(luò)交換 (ONNX*) 模型上的模型轉(zhuǎn)換性能得到了顯著提升。

更廣泛的模型支持

用戶可以在包括自然語(yǔ)言處理 (NLP)、雙精度和計(jì)算機(jī)視覺(jué)在內(nèi)的各種深度學(xué)習(xí)模型中輕松部署應(yīng)用程序。以 NLP 和異常檢測(cè)的附加類(lèi)別為重點(diǎn),預(yù)訓(xùn)練模型可用于工業(yè)檢查、降噪、問(wèn)答、翻譯和文本到語(yǔ)音。

便攜性和性能

此版本承諾通過(guò)跨 CPUGPU 等的自動(dòng)設(shè)備發(fā)現(xiàn)、負(fù)載平衡和動(dòng)態(tài)推理并行性來(lái)提升性能。

OpenVINO 工具包附加組件

計(jì)算機(jī)視覺(jué)注釋工具

數(shù)據(jù)集管理框架

深度學(xué)習(xí)流媒體

神經(jīng)網(wǎng)絡(luò)壓縮框架

OpenVINO 模型服務(wù)器

OpenVINO 安全插件

培訓(xùn)擴(kuò)展

OpenVINO 的工作原理

OpenVINO 工具包由各種開(kāi)發(fā)和部署工具組成,其中包括一套完全配置的預(yù)訓(xùn)練模型和用于評(píng)估的硬件。以下步驟描述了 OpenVINO 的工作原理:

先決條件:設(shè)置 OpenVINO

在開(kāi)始實(shí)際工作流程之前,請(qǐng)確保您選擇了主機(jī)、目標(biāo)平臺(tái)和模型。該工具支持 Linux、Windows、macOS 和 Raspbian 等操作系統(tǒng)。至于深度學(xué)習(xí)模型訓(xùn)練框架,它支持TensorFlow、Caffe、MXNet、Kaldi,以及開(kāi)放神經(jīng)網(wǎng)絡(luò)交換(ONNX)模型格式。

第 1 步:訓(xùn)練模型

第一步是準(zhǔn)備和訓(xùn)練深度學(xué)習(xí)模型。您可以從 Open Model Zoo 中找到預(yù)訓(xùn)練的模型,也可以構(gòu)建自己的模型。OpenVINO 為公共模型提供經(jīng)過(guò)驗(yàn)證的支持,并在存儲(chǔ)庫(kù)中提供一系列代碼示例和演示。您可以使用腳本為用于訓(xùn)練模型的框架配置模型優(yōu)化器。

第 2 步:轉(zhuǎn)換和優(yōu)化模型

配置模型后,您可以運(yùn)行模型優(yōu)化器將模型轉(zhuǎn)換為中間表示 (IR),該中間表示 (IR) 以一對(duì)文件(.xml 和 .bin)的形式表示。除了這對(duì)文件(.xml 和 .bin)之外,模型優(yōu)化器還通過(guò)輸出診斷消息來(lái)幫助進(jìn)一步調(diào)整。

第 3 步:調(diào)整性能

在這一步中,推理引擎用于編譯優(yōu)化模型。推理引擎是一種高級(jí)(C、C++Python*)推理 API,它作為每種硬件類(lèi)型的動(dòng)態(tài)加載插件實(shí)現(xiàn)。它為每個(gè)硬件提供最佳性能,無(wú)需維護(hù)多個(gè)代碼路徑。

第 4 步:部署應(yīng)用程序

推理引擎用于部署應(yīng)用程序。使用部署管理器,您可以通過(guò)將模型、IR 文件、應(yīng)用程序和相關(guān)依賴(lài)項(xiàng)組裝到目標(biāo)設(shè)備的運(yùn)行時(shí)包中來(lái)創(chuàng)建開(kāi)發(fā)包。

綜上所述,這個(gè)新版本的 OpenVINO 工具包提供了許多好處,不僅優(yōu)化了用戶部署應(yīng)用程序的體驗(yàn),還增強(qiáng)了性能參數(shù)。它使用戶能夠開(kāi)發(fā)具有易于部署、更多深度學(xué)習(xí)模型、更多設(shè)備可移植性和更高推理性能且代碼更改更少的應(yīng)用程序。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 操作系統(tǒng)
    +關(guān)注

    關(guān)注

    37

    文章

    7401

    瀏覽量

    129278
  • API
    API
    +關(guān)注

    關(guān)注

    2

    文章

    2368

    瀏覽量

    66752
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5598

    瀏覽量

    124392
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    如何確保CAT.1模組的高性能與低功耗?

    元器件數(shù)量和板級(jí)面積,從而降低了整體系統(tǒng)的功耗。 超輕量架構(gòu)設(shè)計(jì):芯片內(nèi)部集成了定制的RISC-V協(xié)處理器,專(zhuān)門(mén)用于處理后臺(tái)低負(fù)載任務(wù)(如心跳維持、傳感器數(shù)據(jù)輪詢(xún))。主核可以在大部分時(shí)間處于深度休眠
    發(fā)表于 03-05 11:41

    TPS61042:高性能LED驅(qū)動(dòng)芯片的深度解析

    TPS61042:高性能LED驅(qū)動(dòng)芯片的深度解析 在電子設(shè)備的設(shè)計(jì)中,LED驅(qū)動(dòng)芯片的性能直接影響著設(shè)備的顯示效果和穩(wěn)定性。TPS61042作為一款備受關(guān)注的LED驅(qū)動(dòng)芯片,以其出色的性能
    的頭像 發(fā)表于 02-27 16:15 ?138次閱讀

    新品 | AI Pyramid AI Pyramid-Pro,面向本地推理與智能交互的高性能AI PC

    AIPyramid是一款金字塔形狀的高性能AIPC,專(zhuān)為本地AI推理與邊緣智能應(yīng)用而生。內(nèi)置AxeraAX8850SoC,集成八核Cortex-A55處理器與24TOPS@INT8NPU,輕松應(yīng)對(duì)
    的頭像 發(fā)表于 02-06 17:24 ?3616次閱讀
    新品 | AI Pyramid AI Pyramid-Pro,面向本地<b class='flag-5'>推理</b>與智能交互的<b class='flag-5'>高性能</b>AI PC

    深度剖析UCC21750:用于SiC/IGBT的高性能單通道柵極驅(qū)動(dòng)器

    深度剖析UCC21750:用于SiC/IGBT的高性能單通道柵極驅(qū)動(dòng)器 在電力電子領(lǐng)域,柵極驅(qū)動(dòng)器起著至關(guān)重要的作用。德州儀器(Texas Instruments)的UCC21750單通道柵極驅(qū)動(dòng)器
    的頭像 發(fā)表于 01-21 17:35 ?1268次閱讀

    華邦高性能NOR Flash用于學(xué)習(xí)平板

    華邦電子(Winbond)的NOR Flash以其卓越性能成為學(xué)習(xí)平板理想的存儲(chǔ)解決方案。其芯片內(nèi)執(zhí)行(XIP)特性可實(shí)現(xiàn)系統(tǒng)秒級(jí)快速啟動(dòng),高可靠性確保固件和核心代碼安全,低功耗特性則有效延長(zhǎng)設(shè)備續(xù)航,為流暢穩(wěn)定的學(xué)習(xí)體驗(yàn)奠定堅(jiān)
    的頭像 發(fā)表于 11-10 09:48 ?515次閱讀
    華邦<b class='flag-5'>高性能</b>NOR Flash<b class='flag-5'>用于</b><b class='flag-5'>學(xué)習(xí)</b>平板

    一文了解Mojo編程語(yǔ)言

    CPU、GPU 和其他加速器的支持,簡(jiǎn)化了并行編程模型。 漸進(jìn)式類(lèi)型系統(tǒng) 結(jié)合靜態(tài)類(lèi)型檢查和類(lèi)型推導(dǎo),既保證編譯時(shí)安全性,又保留動(dòng)態(tài)類(lèi)型的靈活性。 應(yīng)用場(chǎng)景 AI 與機(jī)器學(xué)習(xí) 用于訓(xùn)練大型模型和實(shí)時(shí)推理
    發(fā)表于 11-07 05:59

    eForce無(wú)線通信軟件開(kāi)發(fā)工具包兼容WLAN模塊WKR612AA1

    近期,eForce株式會(huì)社宣布,其面向嵌入式設(shè)備的無(wú)線通信軟件開(kāi)發(fā)工具包(μC3-WLAN SDK)現(xiàn)已兼容 KAGA FEI 生產(chǎn)的無(wú)線局域網(wǎng)(WLAN)模塊"WKR612AA1"。
    的頭像 發(fā)表于 09-24 15:16 ?1194次閱讀

    基于米爾瑞芯微RK3576開(kāi)發(fā)板部署運(yùn)行TinyMaix:超輕量級(jí)推理框架

    推理庫(kù),可以讓你在任意低資源MCU上運(yùn)行輕量級(jí)深度學(xué)習(xí)模型。關(guān)鍵特性核心代碼少于 400行(tm_layers.c+tm_model.c+arch_cpu.h), 代碼段(.text)少于3KB 低
    發(fā)表于 07-25 16:35

    信而泰×DeepSeek:AI推理引擎驅(qū)動(dòng)網(wǎng)絡(luò)智能診斷邁向 “自愈”時(shí)代

    網(wǎng)絡(luò)智能診斷平臺(tái)。通過(guò)對(duì)私有化網(wǎng)絡(luò)數(shù)據(jù)的定向訓(xùn)練,信而泰打造了高性能、高可靠性的網(wǎng)絡(luò)診斷模型,顯著提升了AI輔助診斷的精準(zhǔn)度與實(shí)用性。該方案實(shí)現(xiàn)了網(wǎng)絡(luò)全流量深度解析能力與AI智能推理分析能力的有機(jī)融合
    發(fā)表于 07-16 15:29

    IQM 宣布 Resonance 量子云平臺(tái)重大升級(jí),推出全新軟件開(kāi)發(fā)工具包

    進(jìn)程,并為終端用戶帶來(lái)性能強(qiáng)大的新一代量子系統(tǒng)。 此次升級(jí)將 Qrisp——一個(gè)源自德國(guó)弗勞恩霍夫 FOKUS 研究所的項(xiàng)目——設(shè)為平臺(tái)新的默認(rèn)軟件開(kāi)發(fā)工具包 (SDK)。Qrisp 為量子開(kāi)發(fā)者
    的頭像 發(fā)表于 07-11 11:03 ?663次閱讀

    大模型推理顯存和計(jì)算量估計(jì)方法研究

    ,為實(shí)際應(yīng)用提供了有益的參考。 未來(lái),我們將繼續(xù)深入研究大模型推理的優(yōu)化方法,以降低顯存和計(jì)算資源的需求,提高深度學(xué)習(xí)模型在實(shí)際應(yīng)用中的性能
    發(fā)表于 07-03 19:43

    在OpenVINO?工具套件的深度學(xué)習(xí)工作臺(tái)中無(wú)法導(dǎo)出INT8模型怎么解決?

    無(wú)法在 OpenVINO? 工具套件的深度學(xué)習(xí) (DL) 工作臺(tái)中導(dǎo)出 INT8 模型
    發(fā)表于 03-06 07:54

    在Google Colab筆記本電腦上導(dǎo)入OpenVINO?工具包2021中的 IEPlugin類(lèi)出現(xiàn)報(bào)錯(cuò),怎么解決?

    在 Google* Colab Notebook 上OpenVINO?工具包 2021 中使用了 IEPlugin 。 遇到: ImportError: cannot import name \'IEPlugin\' from \'openvino.inference_engine\'
    發(fā)表于 03-05 10:31

    構(gòu)建開(kāi)源OpenVINO?工具包后,使用MYRIAD插件成功運(yùn)行演示時(shí)報(bào)錯(cuò)怎么解決?

    構(gòu)建開(kāi)源OpenVINO?工具包后,使用 MYRIAD 插件成功運(yùn)行演示。 使用 CPU 插件運(yùn)行演示時(shí)遇到錯(cuò)誤: Cannot load library \'libarmPlugin.so
    發(fā)表于 03-05 09:57

    安裝OpenVINO?工具包穩(wěn)定擴(kuò)散后報(bào)錯(cuò),怎么解決?

    已安裝OpenVINO?工具包穩(wěn)定擴(kuò)散并收到錯(cuò)誤消息: \"BackendCompilerFailed: openvino_fx raised RuntimeError
    發(fā)表于 03-05 06:56