国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

MLPerf是邊緣AI推理的新行業基準

星星科技指導員 ? 來源:嵌入式計算設計 ? 作者:嵌入式計算設計 ? 2022-07-08 15:37 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

最高額。翻牌。GFLOPS。AI 處理器供應商以多種方式計算其架構的最大推理性能。

這些數字還重要嗎?它們中的大多數是在實驗室類型的環境中生產的,理想的條件和工作負載允許被測設備 (SUT) 為營銷目的生成盡可能高的分數。另一方面,大多數工程師可能不太關心這些理論上的可能性。他們更關心技術如何影響推理設備的準確性、吞吐量和/或延遲。

將計算元素與特定工作負載進行比較的行業標準基準更加有用。例如,圖像分類工程師可以識別出多個滿足其性能要求的選項,然后根據功耗、成本等因素對其進行縮減。語音識別設計人員可以使用基準測試結果來分析各種處理器和內存組合,然后決定是否合成本地或云中的語音。

但 AI 和 ML 模型、開發框架和工具的快速引入使此類比較變得復雜。如圖 1 所示,AI 技術堆棧中越來越多的選項也意味著可用于判斷推理性能的排列呈指數級增長。那是在考慮可以針對給定系統架構優化模型和算法的所有方式之前。

poYBAGLH336AIVFpAAIxmy3uin4792.png

圖 1. AI 開發堆棧中越來越多的選項具有復雜的行業標準基準測試。

不用說,開發這樣一個全面的基準超出了大多數公司的能力或愿望。即使有能力完成這一壯舉,工程界真的會接受它作為“標準基準”嗎?

MLPerf:更好的 AI 推理基準

更廣泛地說,工業界和學術界在過去幾年中開發了幾個推理基準,但他們傾向于關注新生人工智能市場的更多利基領域。一些例子包括 EEMBC 用于嵌入式圖像分類和對象檢測的 MLMark,蘇黎世聯邦理工學院針對 Android 智能手機上的計算機視覺的 AI 基準,以及哈佛的 Fathom 基準,它強調各種神經網絡的吞吐量,但不強調準確性。

可以在 MLPerf 最近發布的 Inference v0.5 基準測試中找到對 AI 推理環境的更完整評估。MLPerf Inference 是一個社區開發的測試套件,可用于測量 AI 硬件、軟件、系統和服務的推理性能。這是來自 30 多家公司的 200 多名工程師合作的結果。

正如您對任何基準測試所期望的那樣,MLPerf Inference 定義了一套標準化的工作負載,這些工作負載被組織成用于圖像分類、對象檢測和機器翻譯用例的“任務”。每個任務都由與正在執行的功能相關的 AI 模型和數據集組成,圖像分類任務支持 ResNet-50 和 MobileNet-v1 模型,對象檢測任務利用具有 ResNet34 或 MobileNet-v1 主干的 SSD 模型,以及使用 GNMT 模型的機器翻譯任務。

除了這些任務之外,MLPerf 推理開始偏離傳統基準的規范。由于不同用例對準確性、延遲、吞吐量和成本的重要性的權重不同,MLPerf Inference 通過根據移動設備、自動駕駛汽車、機器人和云這四個關鍵應用領域的質量目標對推理性能進行分級來進行權衡。

為了在盡可能接近在這些應用程序領域運行的真實系統的上下文中有效地對任務進行評分,MLPerf Inference 引入了負載生成器工具,該工具根據四種不同的場景生成查詢流量:

樣本大小為 1 的連續單流查詢,在移動設備中很常見

每個流具有多個樣本的連續多流查詢,如在延遲至關重要的自動駕駛汽車中發現的那樣

請求隨機到達的服務器查詢,例如在延遲也很重要的 Web 服務中

執行批處理且吞吐量是一個突出考慮因素的離線查詢

Load Generator 以測試準確性和吞吐量(性能)的模式提供這些場景。圖 2 描述了 SUT 如何接收來自負載生成器的請求,從而將數據集中的樣本加載到內存中,運行基準測試并將結果返回給負載生成器。然后,準確性腳本會驗證結果。

poYBAGLH34mAYqmFAADz4xaUcpE959.png

圖 2. MLPerf Inference 基準測試依賴于負載生成器,該負載生成器根據許多實際場景查詢被測系統 (SUT)。

作為基準測試的一部分,每個 SUT 必須執行最少數量的查詢以確保統計可信度。

提高靈活性

如前所述,人工智能技術市場中使用的各種框架和工具是任何推理基準測試的關鍵挑戰。前面提到的另一個考慮因素是模型和算法的調整,以從 AI 推理系統中擠出最高的準確性、吞吐量或最低的延遲。就后者而言,量化和圖像重塑等技術現在已成為常見做法。

MLPerf Inference 是語義級別的基準測試,這意味著,雖然基準測試提供了特定的工作負載(或一組工作負載)和執行它的一般規則,但實際實施取決于執行基準測試的公司。公司可以優化提供的參考模型,使用他們想要的工具鏈,并在他們選擇的硬件目標上運行基準測試,只要它們保持在一定的指導范圍內。

然而,重要的是要注意,這并不意味著提交公司可以隨意使用 MLPerf 模型或數據集,并且仍然有資格獲得主要基準。MLPerf 推理基準分為兩個部分 - 封閉式和開放式 - 封閉式部分對可以使用哪些類型的優化技術以及禁止使用其他優化技術有更嚴格的要求。

要獲得封閉部門的資格,提交者必須使用提供的模型和數據集,但允許量化。為確保兼容性,封閉部門的參賽者不能使用經過重新訓練或修剪的模型,也不能使用經過調整以具有基準或數據集感知能力的緩存或網絡。

另一方面,開放部門旨在促進人工智能模型和算法的創新。提交給開放部門仍然需要執行相同的任務,但可以更改模型類型、重新訓練和修剪其模型、使用緩存等。

盡管封閉部門聽起來很嚴格,但有 150 多個條目成功地獲得了 MLPerf Inference v0.5 發布的資格。圖 3 和圖 4 展示了參賽者使用的 AI 技術堆棧的多樣性,涵蓋了幾乎所有類型的處理器架構和軟件框架,從 ONNX 和 PyTorch 到 TensorFlow、OpenVINO 和 Arm NN。

pYYBAGLH35CAeq4XAAElHF4l_eU163.png

圖 3. DSPFPGACPUASICGPU 均成功完成了 MLPerf Inference 封閉劃分要求。

poYBAGLH35eAHaYkAAGY_5AozU8613.png

圖 4. AI 軟件開發框架(如 ONNX、PyTorch、TensorFlow、OpenVINO、Arm NN 等)用于開發符合封閉劃分基準的 MLPerf 推理系統。

將猜測排除在評估之外

雖然 MLPerf Inference 的初始版本包含一組有限的模型和用例,但基準測試套件是以模塊化、可擴展的方式構建的。隨著技術和行業的發展,這將使 MLPerf 能夠擴展任務、模型和應用領域,并且該組織已經計劃這樣做。

最新的 AI 推理基準顯然具有重要意義,因為它是目前可用的最接近真實世界 AI 推理性能的衡量標準。但隨著它的成熟和吸引更多的提交,它也將成為成功部署技術堆棧的晴雨表和新實施的試驗場。

為什么不讓技術自己說話,而不是處理特定于供應商的數據表數字呢?畢竟,更少的猜測意味著更強大的解決方案和更快的上市時間。

審核編輯:郭婷

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 處理器
    +關注

    關注

    68

    文章

    20255

    瀏覽量

    252336
  • 嵌入式
    +關注

    關注

    5198

    文章

    20449

    瀏覽量

    334110
  • AI
    AI
    +關注

    關注

    91

    文章

    39793

    瀏覽量

    301453
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    如何在邊緣AI應用場景中實現高性能、低功耗推理(上)

    RA生態工作室關注我們為什么選擇邊緣AIAI市場已經發生了根本性變革。過去,AI處理主要在云端完成。EndPoint設備從傳感器收集數據并將其發送到云端進行
    的頭像 發表于 03-03 14:18 ?4597次閱讀
    如何在<b class='flag-5'>邊緣</b><b class='flag-5'>AI</b>應用場景中實現高性能、低功耗<b class='flag-5'>推理</b>(上)

    如何在邊緣AI應用場景中實現高性能、低功耗推理(上)

    ? 為什么選擇邊緣AIAI市場已經發生了根本性變革。過去,AI處理主要在云端完成。End Point設備從傳感器收集數據并將其發送到云端進行推理
    的頭像 發表于 02-27 07:48 ?7917次閱讀
    如何在<b class='flag-5'>邊緣</b><b class='flag-5'>AI</b>應用場景中實現高性能、低功耗<b class='flag-5'>推理</b>(上)

    基于NVIDIA模組與軟件套件推動邊緣與機器人AI推理

    NVIDIA 正式推出 NVIDIA Jetson T4000,將高性能 AI 與實時推理能力帶入更廣泛的機器人和邊緣 AI 應用。T4000 針對更嚴格的功耗和散熱限制進行了優化,最
    的頭像 發表于 01-14 09:46 ?546次閱讀
    基于NVIDIA模組與軟件套件推動<b class='flag-5'>邊緣</b>與機器人<b class='flag-5'>AI</b><b class='flag-5'>推理</b>

    工業視覺網關:RK3576賦能多路檢測與邊緣AI

    ~150ms6TOPS NPU 邊緣AI推理易對接 MES / 追溯系統 一、產線痛點:從“人看”到“機判”的轉變· 多工位/多角度同步:單機位覆蓋不足,典型項目需 8~12 路并發,且畫面時序一致性要求高
    發表于 10-16 17:56

    此芯科技發布“合一”AI加速計劃,賦能邊緣與端側AI創新

    此芯科技正式發布“合一”AI加速計劃,旨在為邊緣計算和端側AI場景提供高能效的全棧算力解決方案。該計劃由此芯科技聯合多家行業合作伙伴共同發起,推出基于此芯P1SoC及此芯P1+
    的頭像 發表于 09-15 11:53 ?2011次閱讀
    此芯科技發布“合一”<b class='flag-5'>AI</b>加速計劃,賦能<b class='flag-5'>邊緣</b>與端側<b class='flag-5'>AI</b>創新

    AI 邊緣計算網關:開啟智能新時代的鑰匙?—龍興物聯

    在數字化浪潮的當下,AI 邊緣計算網關正逐漸嶄露頭角,成為眾多行業轉型升級的關鍵力量。它宛如一座智能橋梁,一端緊密連接著各類物理設備,如傳感器、攝像頭、工業機器等,負責收集豐富的數據信息;另一端則
    發表于 08-09 16:40

    邊緣智能網關在水務行業中的應用—龍興物聯

    ),形成更強大的分布式智能網絡。 三、未來發展趨勢與潛力? AI模型輕量化與性能提升:? 更高效的邊緣AI推理框架和專用AI加速芯片(NPU
    發表于 08-02 18:28

    研華科技推出緊湊型邊緣AI推理系統AIR-120

    研華科技隆重宣布,推出緊湊型邊緣AI推理系統——AIR-120。該系統搭載英特爾凌動x7433RE(Amston Lake)處理器、酷睿i3-N305處理器、N97(Alder Lake)處理器以及
    的頭像 發表于 07-17 17:16 ?1054次閱讀

    信而泰×DeepSeek:AI推理引擎驅動網絡智能診斷邁向 “自愈”時代

    DeepSeek-R1:強大的AI推理引擎底座DeepSeek是由杭州深度求索人工智能基礎技術研究有限公司開發的新一代AI大模型。其核心優勢在于強大的推理引擎能力,融合了自然語言處理(
    發表于 07-16 15:29

    邊緣AI盒子技術解析:ASIC/FPGA/GPU芯片及邊緣-云端協同與自適應推理

    數據上傳到云端,為眾多行業提供高效、智能的解決方案。它是邊緣AI需要用到的關鍵邊緣設備。 邊緣AI
    的頭像 發表于 07-13 08:25 ?4563次閱讀

    Nordic收購 Neuton.AI 關于產品技術的分析

    與 Nordic 的 nRF54 系列超低功耗無線 SoC 結合,使得即使是資源極為有限的設備也能高效運行邊緣 AI。Nordic 目前正在將 Neuton 深度集成到自身開發生態中,未來會提供更多工具、固件
    發表于 06-28 14:18

    STM32F769是否可以部署邊緣AI

    STM32F769是否可以部署邊緣AI
    發表于 06-17 06:44

    華為AI WAN在智算邊緣推理網絡中的關鍵優勢

    WAN:智算邊緣推理網絡架構、實踐及產業進展”的演講,詳細闡述了AI WAN在智算邊緣推理網絡中的關鍵優勢及其對產業發展的深遠意義。
    的頭像 發表于 04-09 09:53 ?1141次閱讀

    1.9倍性能提升!英特爾至強6在MLPerf基準測試中表現卓越

    與第五代至強處理器相比,英特爾至強6性能核的性能平均提高了1.9倍。 今日,MLCommons公布了最新的MLPerf推理v5.0基準測試結果,其中,英特爾??至強??6性能核處理器在本次測試的六個
    的頭像 發表于 04-07 10:58 ?677次閱讀

    2025邊緣AI預測:昇騰310B邊緣將占工業推理市場35%的三大動因

    據工信部《2025 智能算力發展白皮書》預測,到 2025 年我國邊緣 AI 推理芯片市場規模將突破 580 億元,其中工業場景占比達 42%。在這場變革中,昇騰 310B 邊緣
    的頭像 發表于 03-24 14:09 ?3074次閱讀
    2025<b class='flag-5'>邊緣</b><b class='flag-5'>AI</b>預測:昇騰310B<b class='flag-5'>邊緣</b>將占工業<b class='flag-5'>推理</b>市場35%的三大動因