国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

用于移動設備的框架TensorFlow Lite發布重大更新

jmiy_worldofai ? 來源:lq ? 2019-01-21 13:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

TensorFlow用于移動設備的框架TensorFlow Lite發布重大更新,支持開發者使用手機等移動設備的GPU來提高模型推斷速度。

在進行人臉輪廓檢測的推斷速度上,與之前使用CPU相比,使用新的GPU后端有不小的提升。在Pixel 3和三星S9上,提升程度大概為4倍,在iPhone 7上有大約有6倍。

為什么要支持GPU?

眾所周知,使用計算密集的機器學習模型進行推斷需要大量的資源。

但是移動設備的處理能力和功率都有限。雖然TensorFlow Lite提供了不少的加速途徑,比如將機器學習模型轉換成定點模型,但總是會在模型的性能或精度上做出讓步。

而將GPU作為加速原始浮點模型的一種選擇,不會增加量化的額外復雜性和潛在的精度損失。

在谷歌內部,幾個月來一直在產品中使用GPU后端做測試。結果證明,的確可以加快復雜網絡的推斷速度。

在Pixel 3的人像模式(Portrait mode)中,與使用CPU相比,使用GPU的Tensorflow Lite,用于摳圖/背景虛化的前景-背景分隔模型加速了4倍以上。新深度估計(depth estimation)模型加速了10倍以上。

在能夠為視頻增加文字、濾鏡等特效的YouTube Stories和谷歌的相機AR功能Playground Stickers中,實時視頻分割模型在各種手機上的速度提高了5-10倍。

對于不同的深度神經網絡模型,使用新GPU后端,通常比浮點CPU快2-7倍。對4個公開模型和2個谷歌內部模型進行基準測試的效果如下:

使用GPU加速,對于更復雜的神經網絡模型最為重要,比如密集的預測/分割或分類任務。

在相對較小的模型上,加速的效果就沒有那么明顯了,使用CPU反而有利于避免內存傳輸中固有的延遲成本。

如何使用?

安卓設備(用Java)中,谷歌已經發布了完整的Android Archive (AAR) ,其中包括帶有GPU后端的TensorFlow Lite。

你可以編輯Gradle文件,用AAR替代當前的版本,并將下面的代碼片段,添加到Java初始化代碼中。

//InitializeinterpreterwithGPUdelegate.GpuDelegatedelegate=newGpuDelegate();Interpreter.Optionsoptions=(newInterpreter.Options()).addDelegate(delegate);Interpreterinterpreter=newInterpreter(model,options);//Runinference.while(true){writeToInputTensor(inputTensor);interpreter.run(inputTensor,outputTensor);readFromOutputTensor(outputTensor);}//Cleanup.delegate.close();在iOS設備(用C++)中,要先下載二進制版本的TensorFlowLite。然后更改代碼,在創建模型后調用ModifyGraphWithDelegate()。//InitializeinterpreterwithGPUdelegate.std::unique_ptrinterpreter;InterpreterBuilder(model,op_resolver)(&interpreter);auto*delegate=NewGpuDelegate(nullptr);//defaultconfigif(interpreter->ModifyGraphWithDelegate(delegate)!=kTfLiteOk)returnfalse;//Runinference.while(true){WriteToInputTensor(interpreter->typed_input_tensor(0));if(interpreter->Invoke()!=kTfLiteOk)returnfalse;ReadFromOutputTensor(interpreter->typed_output_tensor(0));}//Cleanup.interpreter=nullptr;DeleteGpuDelegate(delegate);

(更多的使用教程,可以參見TensorFlow的官方教程,傳送門在文末)

還在發展中

當前發布的,只是TensorFlow Lite的開發者預覽版。

新的GPU后端,在安卓設備上利用的是OpenGL ES 3.1 Compute Shaders,在iOS上利用的是Metal Compute Shaders。

能夠支持的GPU操作并不多。有:

ADD v1、AVERAGE_POOL_2D v1、CONCATENATION v1、CONV_2D v1、DEPTHWISE_CONV_2D v1-2、FULLY_CONNECTED v1、LOGISTIC v1

MAX_POOL_2D v1、MUL v1、PAD v1、PRELU v1、RELU v1、RELU6 v1、RESHAPE v1、RESIZE_BILINEAR v1、SOFTMAX v1、STRIDED_SLICE v1、SUB v1、TRANSPOSE_CONV v1

TensorFlow官方表示,未來將會擴大操作范圍、進一步優化性能、發展并最終確定API。

完整的開源版本,將會在2019年晚些時候發布。

傳送門

使用教程:

https://www.tensorflow.org/lite/performance/gpu

項目完整文檔:

https://www.tensorflow.org/lite/performance/gpu_advanced

博客地址:

https://medium.com/tensorflow/tensorflow-lite-now-faster-with-mobile-gpus-developer-preview-e15797e6dee7

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • cpu
    cpu
    +關注

    關注

    68

    文章

    11277

    瀏覽量

    224956
  • 移動設備
    +關注

    關注

    0

    文章

    528

    瀏覽量

    55942
  • tensorflow
    +關注

    關注

    13

    文章

    334

    瀏覽量

    62178
  • TensorFlow Lite
    +關注

    關注

    0

    文章

    26

    瀏覽量

    828

原文標題:TensorFlow Lite發布重大更新!支持移動GPU、推斷速度提升4-6倍

文章出處:【微信號:worldofai,微信公眾號:worldofai】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    申請指定設備發布Profile

    前提條件 已創建HarmonyOS應用。 已申請發布證書,并注冊測試設備。 (如需使用ACL權限)已申請并獲取ACL權限。 1.登錄AppGallery Connect,選擇“證書、APP ID
    發表于 01-13 11:02

    申請指定設備發布Profile

    前提條件 已創建HarmonyOS應用。 已申請發布證書,并注冊測試設備。 (如需使用ACL權限)已申請并獲取ACL權限。 操作步驟 登錄AppGallery Connect,選擇“證書、APP
    發表于 01-12 10:31

    如何在TensorFlow Lite Micro中添加自定義操作符(1)

    相信大家在部署嵌入式端的AI應用時,一定使用過TensorFlow Lite Micro,以下簡稱TFLm。TFLm 是專為微控制器和嵌入式設備設計的輕量級機器學習推理框架,它通過模塊
    的頭像 發表于 12-26 10:34 ?5314次閱讀

    微軟發布多項智能Microsoft?365?Copilot副駕駛重大更新

    ?365?Copilot?副駕駛 重大更新,助力每家企業從任務自動化邁向流程自主化,加速成為“前沿企業”。這些新功能由微軟全新的智能引擎 Work?IQ 驅動,通過多智能體(Agents)協同讓 Copilot 更加懂您、主動替您行動,大幅提升工作效率與創造力。
    的頭像 發表于 12-02 09:49 ?804次閱讀

    【上海晶珩睿莓1開發板試用體驗】將TensorFlow-Lite物體歸類(classify)的輸出圖片移植到LVGL9.3界面中

    既然調通了TensorFlow-Lite物體歸類(classify)和LVGL9.3代碼,那么把這兩個東西結合起來也是沒問題的,需要注意的是,TensorFlow-Lite是C++代碼,而
    發表于 09-21 00:39

    【上海晶珩睿莓1開發板試用體驗】TensorFlow-Lite物體歸類(classify)

    目前尚未得知睿莓1開發板上面有NPU或者DPU之類的額外處理器,因此使用樹莓派系列使用最廣泛的TensorFlow-Lite庫進行物體歸類,使用CPU運行代碼,因此占用的是CPU的算力。在
    發表于 09-12 22:43

    技術洞見:THEIA S1 & S1 LITE 直播機實操效果真的棒!

    的專業級演播室效果。 賦能移動,重構格局 THEIA S1 LITE 致力于打造移動創作閉環: 遠程協作: 通過網頁端 WebGUI 管理系統,導播可異地輕松接管設備調控。 隨著TH
    發表于 08-25 15:39

    芯科科技Arduino開發資源重大更新

    Silicon Labs (芯科科技)近期于在線技術社群中發布了面向Arduino Core和Matter庫的重大更新,帶來了兩個關鍵突破:全面支持Matter 1.4標準,以及人工智能和機器學習
    的頭像 發表于 08-20 15:51 ?908次閱讀

    無法將Tensorflow Lite模型轉換為OpenVINO?格式怎么處理?

    Tensorflow Lite 模型轉換為 OpenVINO? 格式。 遇到的錯誤: FrontEnd API failed with OpConversionFailure:No translator found for TFLite_Detection_PostP
    發表于 06-25 08:27

    迅為iTOP-3576開發板適用于ARM PC、邊緣計算、個人移動互聯網設備及其他多媒體產品。

    計算、個人移動互聯網設備及其他多媒體產品。 支持INT4/INT8/INT16/FP16/BF16/TF32混合運算,并憑借其強大的兼容性,可以輕松轉換基于TensorFlow、MXNet
    發表于 06-19 10:48

    DevEco重大更新快來體驗吧

    HarmonyOS首個api17 release已經正式發布了。這次的更新DevEco增加了很多重大特性,系統能力也有所增強。DevEco現在支持創建api17的應用了,模擬器也首次支持闊折疊手機
    發表于 05-17 20:59

    迅為iTOP-RK3576開發板/核心板6TOPS超強算力NPU適用于ARM PC、邊緣計算、個人移動互聯網設備及其他多媒體產品

    計算、個人移動互聯網設備及其他多媒體產品。 支持INT4/INT8/INT16/FP16/BF16/TF32混合運算,并憑借其強大的兼容性,可以輕松轉換基于TensorFlow、MXNet
    發表于 05-16 14:46

    微軟Copilot迎來重大更新

    “在微軟成立50周年之際,微軟AI首席執行官穆斯塔法·蘇萊曼發布了Copilot的重大更新,這標志著人工智能助手進入了一個全新的時代。穆斯塔法在活動中表示:“Copilot不僅僅是一個AI,它是屬于
    的頭像 發表于 04-09 16:40 ?896次閱讀

    FlexBuild構建Debian 12,在“tflite_ethosu_delegate”上構建失敗了怎么解決?

    /workspace/tn_debian_FlexBuild 構建/components_lsdk2412/apps/ml/tflite/tensorflow/lite/tools/cmake
    發表于 04-01 06:53

    LibreELEC 12.0.2 為樹莓派用戶帶來重大變化!

    LibreELEC12.0.2,一個開源媒體中心,現集成Kodi21.2,從ARM升級到AArch64,并為RaspberryPi4/5帶來這些重大更新。在其上一個12.0.1版本發布五個月
    的頭像 發表于 03-25 09:20 ?1130次閱讀
    LibreELEC 12.0.2 為樹莓派用戶帶來<b class='flag-5'>重大</b>變化!