国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

英特爾OpenVINO?將全力助力極視角AI推理加速

英特爾物聯網 ? 來源:極市平臺 ? 作者:鄧富城博士 極視角 ? 2021-09-22 16:19 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在模型開發和部署方面,極市平臺集成了最新版本的OpenVINO工具,助力開發者在最小化代碼修改的條件下加速AI算法在各類生產環境中規模化部署應用,尤其是在Intel豐富的硬件資源平臺上(CPUs、iGPUs、VPUs等等)。

本文重點介紹了極視角與英特爾開發人員共同研發的OpenVINO最新功能,無縫集成TensorFlow框架,對于熟悉TensorFlow開發的開發者來說,在原有代碼的基礎上只需要添加幾行簡單代碼就可以無痛實現模型精度不變的前提下推理加速1.34倍以上,避免了顯式地進行OpenVINO轉換以及推理部分代碼的重新編寫,大大簡化OpenVINO工具的使用,加速AI算法在生產環境中的應用部署。

無痛實現 1.34 倍加速推理

我們先來看看本文方法在模型推理加速上具體表現:

可以看到,在同一測試環境下,OpenVINO 與 TensorFlow 的集成實現了 1.34 的加速幾何平均值,同時,模型的準確性保持不變:

具體實操

OpenVINO 與 TensorFlow 的集成專為使用 OpenVINO 工具套件的開發人員而設計——通過最少的代碼修改來提高推理應用程序的性能。該集成為提高TensorFlow 兼容性提供以 OpenVINO 工具套件內聯優化和所需運行時,并加速了各種英特爾芯片上多類AI模型的推理。

通過將以下兩行代碼添加到 Python 代碼或 Jupyter Notebooks 中,就可以極大地加速你的 TensorFlow 模型的推理:

import openvino_tensorflowopenvino_tensorflow.set_backend(‘《backend_name》’)

OpenVINO 與 TensorFlow 的集成通過將 TensorFlow 圖巧妙地劃分為多個子圖,再將這些子圖分派到 TensorFlow 運行時或 OpenVINO 運行時,從而實現最佳加速推理。

# 工作流概述

同時,通過 openvino_tensorflow ,我們能夠非常輕松地使用不同硬件:

更多的詳細信息可以前往 Github:

https://github.com/openvinotoolkit/openvino_tensorflow

# 在Extreme Vision notebooks中集成

在Extreme Vision IDE中可以直接將OpenVINO與TensorFlow集成。如下圖所示,你只需要簡單地導入openvino_tensorflow,即可無縫加速 Jupyter Notebook 中在CPU上推理的所有 TensorFlow模型,同時可以繼續使用標準的TensorFlow API,而無需代碼重構。

對推理加速更深的討論

從前文對推理加速上的結果展示中,我們可以看到通過添加 2 行代碼激活OpenVINO與 TensorFlow 的集成后,可以獲得最高達 10 倍的推理加速。但也有個別模型出現了異常情況,如Mask RCNN Atrous 和 SSD Mobilenet V2,因此我們對如何獲得最佳性能進行了討論:

#01

OPENVINO_TF_MIN_NONTRIVIAL_NODES 變量

該變量設置了聚類中可以存在的最小操作數。如果操作數小于指定的數量,則聚類將回退到 TensorFlow。默認情況是根據總圖大小計算的,但除非手動設置,否則不能小于 6。另外,我們將此變量設置為 15 和 22 來觀察模型進一步的性能增強,并以此得到了最終的最佳推理性能。因此,在具體的開發應用中應通過默認值或實驗來確定能夠為模型提供最佳性能的變量最佳值。

#02

凍結 Keras 模型以獲得最佳性能

一些 Keras 模型可能包含訓練操作,這會導致 TensorFlow 產生控制流。由于 OpenVINO 工具套件不支持這些操作,因此圖形可能會被劃分為較小的聚類。因此,在使用 OpenVINO 與 TensorFlow 的集成時,凍結模型可以避免這些操作并提高整體性能。

使用 Keras API 的 DenseNet121 推理應用代碼示例:

import tensorflow as tffrom tensorflow import kerasfrom tensorflow.keras.applications.densenet import DenseNet121# Add two lines of code to enable OpenVINO integration with TensorFlowimport openvino_tensorflowopenvino_tensorflow.set_backend("CPU")


model = DenseNet121(weights='imagenet')


# Run the inference using Keras API  model.predict(input_data)

下面是凍結和運行 Keras 模型的一個示例代碼,通過這種方式,我們能夠優化使用 OpenVINO 與 TensorFlow 的集成實現的最佳性能。

import tensorflow as tffrom tensorflow import kerasfrom tensorflow.keras.applications.densenet import DenseNet121from tensorflow.python.framework.convert_to_constants import convert_variables_to_constants_v2# Add two lines of code to enable OpenVINO integration with TensorFlowimport openvino_tensorflowopenvino_tensorflow.set_backend("CPU")


model = DenseNet121(weights='imagenet')


# Freeze the model first to achieve the best performance# using OpenVINO integration with TensorFlow    full_model = tf.function(lambda x: self.model(x))full_model = full_model.get_concrete_function(tf.TensorSpec(model.inputs[0].shape,model.inputs[0].dtype, name=model.inputs[0].name))frozen_func = convert_variables_to_constants_v2(full_model)frozen_func.graph.as_graph_def()session = tf.compat.v1.Session(graph=frozen_func.graph)prob_tensor = frozen_func.graph.get_tensor_by_name(full_model.outputs[0].name)


# Run the inference on the frozen modelsession.run(prob_tensor, feed_dict={full_model.inputs[0].name : input_data})

#03

Mask RCNN Atrous和SSD Mobilenet

如上文的結果所示,OpenVINO與TensorFlow的集成可以加速大多數TensorFlow模型,但由于一些模型具有OpenVINO與TensorFlow集成尚不完全支持的工作組件(例如運算符、層等),如Mask RCNN Atrous和SSD Mobilenet V2等一些模型仍在開發完善中。

為了擴大模型覆蓋范圍以及進一步提升性能,極視角技術團隊將會繼續測試和完善OpenVINO與TensorFlow的集成,以幫助更多使用TensorFlow開發人員能夠更好地應用極市平臺。

編輯:jq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • API
    API
    +關注

    關注

    2

    文章

    2370

    瀏覽量

    66758
  • SSD
    SSD
    +關注

    關注

    21

    文章

    3109

    瀏覽量

    122222
  • AI
    AI
    +關注

    關注

    91

    文章

    39771

    瀏覽量

    301372
  • 代碼
    +關注

    關注

    30

    文章

    4968

    瀏覽量

    73960

原文標題:英特爾OpenVINO? 助力極視角AI推理加速

文章出處:【微信號:英特爾物聯網,微信公眾號:英特爾物聯網】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    英特爾創新引領AI NAS:軟硬結合引領本地數據智慧管理與多場景創新應用

    展示面向中小企業、消費者和專業用戶,賦能新場景、加速產品落地的最新技術方案。會上,綠聯、空間、鐵威馬、暢網、飛牛等AI NAS 廠商,發布和展示了一系列基于英特爾? 酷睿? Ultr
    的頭像 發表于 12-12 15:45 ?485次閱讀
    <b class='flag-5'>英特爾</b>創新引領<b class='flag-5'>AI</b> NAS:軟硬結合引領本地數據智慧管理與多場景創新應用

    向新而生,同“芯”向上!2025英特爾技術創新與產業生態大會在重慶舉行

    11月19日,2025英特爾技術創新與產業生態大會今天在重慶開幕。英特爾公司首席執行官陳立武在視頻致辭中表示:“在AI浪潮中,我們持續加強與各位伙伴的合作,從客戶端、數據中心,到邊緣
    的頭像 發表于 11-19 21:34 ?5778次閱讀
    向新而生,同“芯”向上!2025<b class='flag-5'>英特爾</b>技術創新與產業生態大會在重慶舉行

    發力圖形工作站和AI推理市場,英特爾大顯存GPU亮相灣芯展

    英特爾發布了面向專業的銳炫Pro B50和B60。這兩款顯卡比較RTX2000和5660Ti,有哪些性能上的優勢?在支持AI推理工作站和大模型部署上,B60有哪些獨到之處?10月16日,在深圳舉行的灣區半導體大會上,
    的頭像 發表于 10-22 13:40 ?1.1w次閱讀
    發力圖形工作站和<b class='flag-5'>AI</b><b class='flag-5'>推理</b>市場,<b class='flag-5'>英特爾</b>大顯存GPU亮相灣芯展

    英特爾Gaudi 2E AI加速器為DeepSeek-V3.1提供加速支持

    英特爾? Gaudi 2EAI加速器現已為DeepSeek-V3.1提供深度優化支持。憑借出色的性能和成本效益,英特爾Gaudi 2E以更低的投入、更高的效率,實現從模型訓練的深度突破到推理
    的頭像 發表于 08-26 19:18 ?3024次閱讀
    <b class='flag-5'>英特爾</b>Gaudi 2E <b class='flag-5'>AI</b><b class='flag-5'>加速</b>器為DeepSeek-V3.1提供<b class='flag-5'>加速</b>支持

    硬件與應用同頻共振,英特爾Day 0適配騰訊開源混元大模型

    OpenVINO? 構建的 AI 軟件平臺的可擴展性,英特爾助力ISV生態伙伴率先實現應用端Day 0 模型適配,大幅加速了新模型的落地進
    的頭像 發表于 08-07 14:42 ?1365次閱讀
    硬件與應用同頻共振,<b class='flag-5'>英特爾</b>Day 0適配騰訊開源混元大模型

    主控CPU全能選手,英特爾至強6助力AI系統高效運轉

    2025年3月,英偉達發布了DGX B300 AI加速計算平臺。2025年5月,英特爾發布了三款全新英特爾至強6性能核處理器,其中一款6776P被用作是DGX B300的主控CPU,這
    的頭像 發表于 06-27 11:44 ?879次閱讀
    主控CPU全能選手,<b class='flag-5'>英特爾</b>至強6<b class='flag-5'>助力</b><b class='flag-5'>AI</b>系統高效運轉

    使用英特爾? NPU 插件C++運行應用程序時出現錯誤:“std::Runtime_error at memory location”怎么解決?

    使用OpenVINO?工具套件版本 2024.4.0 構建C++應用程序 使用英特爾? NPU 插件運行了 C++ 應用程序 遇到的錯誤: Microsoft C++ exception: std::runtime_error at memory location
    發表于 06-25 08:01

    無法Openvino? 2025.0與onnx運行時Openvino? 執行提供程序 1.16.2 結合使用,怎么處理?

    使用OpenVINO?與英特爾 i5-8500 CPU 和超核處理器 630 iGPU 一起部署模型。 使用了 Microsoft.ML.OnnxRuntime.OpenVino
    發表于 06-24 06:31

    英特爾銳炫Pro B系列,邊緣AI的“智能引擎”

    CTO、高級首席AI工程師張宇博士 英特爾客戶端計算事業部邊緣計算CTO、高級首席AI工程師張宇博士在MWC AI終端峰會上指出,邊緣崛起
    的頭像 發表于 06-20 17:32 ?890次閱讀
    <b class='flag-5'>英特爾</b>銳炫Pro B系列,邊緣<b class='flag-5'>AI</b>的“智能引擎”

    直擊Computex 2025:英特爾重磅發布新一代GPU,圖形和AI性能躍升3.4倍

    電子發燒友原創? 章鷹 5月19日,在Computex 2025上,英特爾發布了最新全新圖形處理器(GPU)和AI加速器產品系列。包括全新英特爾銳炫? Pro B系列GPU——
    的頭像 發表于 05-21 00:57 ?7467次閱讀
    直擊Computex 2025:<b class='flag-5'>英特爾</b>重磅發布新一代GPU,圖形和<b class='flag-5'>AI</b>性能躍升3.4倍

    直擊Computex2025:英特爾重磅發布新一代GPU,圖形和AI性能躍升3.4倍

    5月19日,在Computex 2025上,英特爾發布了最新全新圖形處理器(GPU)和AI加速器產品系列。包括全新英特爾銳炫? Pro B系列GPU——
    的頭像 發表于 05-20 12:27 ?5443次閱讀
    直擊Computex2025:<b class='flag-5'>英特爾</b>重磅發布新一代GPU,圖形和<b class='flag-5'>AI</b>性能躍升3.4倍

    英特爾發布全新GPU,AI和工作站迎來新選擇

    Pro B50 GPU,搭載了為AI推理和專業工作站量身定制的配置,擴展了英特爾銳炫Pro產品系列。 英特爾 ? Gaudi 3 AI
    發表于 05-20 11:03 ?1844次閱讀

    AI驅動零售變革!英特爾AI方案助力中國廠商海外破局

    本次零售行業大會上,英特爾帶來了哪些技術解決方案?英特爾POS認證計劃的推出,對于合作伙伴開拓海外市場帶來哪些助力英特爾中國網絡與邊緣技術產品總監王景佳、
    的頭像 發表于 05-15 18:19 ?6849次閱讀
    <b class='flag-5'>AI</b>驅動零售變革!<b class='flag-5'>英特爾</b><b class='flag-5'>AI</b>方案<b class='flag-5'>助力</b>中國廠商海外破局

    英特爾借助開放生態系統,加速邊緣AI創新

    英特爾推出全新AI邊緣系統、邊緣AI套件和開放邊緣平臺軟件,賦能合作伙伴AI無縫融入現有基礎設施 ?
    發表于 03-21 11:31 ?331次閱讀
    <b class='flag-5'>英特爾</b>借助開放生態系統,<b class='flag-5'>加速</b>邊緣<b class='flag-5'>AI</b>創新

    使用OpenVINO?進行推理時的內存泄漏怎么解決?

    使用 OpenVINO? 進行推理時,內存會隨著時間的推移而增加,并導致程序崩潰。
    發表于 03-06 08:29