国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

如何應對邊緣設備上部署GenAI的挑戰

新思科技 ? 來源:新思科技 ? 2025-04-30 13:48 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

邊緣生成式人工智能(GenAI)的興起

過去十年間,人工智能(AI)和機器學習(ML)領域發生了巨大的變化。卷積神經網絡(CNN)和循環神經網絡(RNN)逐漸被Transformer和生成式人工智能(GenAI)所取代,這標志著該領域進入了一個全新的發展階段。這一轉變源于人們需要更準確、高效且具備上下文理解能力、能處理復雜任務的模型。

起初,AI和ML模型在執行音頻、文本、語音和視覺處理等任務時,高度依賴數字信號處理器DSP)。這些模型雖有一定成效,但在準確性和可擴展性方面存在局限。神經網絡,尤其是CNN的出現,帶來了重大突破,大幅提升了模型的準確率。比如,AlexNet作為開創性的CNN,在圖像識別方面的準確率達到了65%,超越了DSP的50%。

Transformer的誕生帶來了又一次重大突破。2017年,谷歌在論文《Attention is All You Need》中提出了該模型,憑借更高效的序列數據處理方式,在該領域掀起了一場革命。與局部處理數據的CNN不同,Transformer使用注意力機制來評估輸入數據不同部分的重要性,能夠捕捉數據中的復雜關系與依賴,在自然語言處理(NLP)和圖像識別等任務中展現出卓越的性能。

Transformer推動了GenAI的興起。GenAI借助這些模型,可以依據學習到的模式生成新數據,例如文本、圖像甚至音樂。Transformer能夠理解和生成復雜數據,因此成為ChatGPT和DALL-E等熱門AI應用的基礎。這些模型已展現出卓越能力,比如生成邏輯連貫的文本、根據文字描述生成圖像,充分彰顯了GenAI的巨大潛力。

為何要在邊緣設備上部署GenAI

對于實時處理、隱私和安全要求極高的應用來說,在邊緣設備上部署GenAI具有顯著優勢。智能手機物聯網設備和自動駕駛汽車等邊緣設備,都能從GenAI的強大能力中獲益。

在邊緣設備上部署GenAI的主要原因之一,是對低延遲處理的需求。自動駕駛、實時翻譯、語音助手等應用需要即時響應,云端處理的延遲會嚴重影響其響應速度。直接在邊緣設備上運行GenAI模型,能最大限度地減少延遲,確保響應快速可靠。

隱私和安全也是重要的考慮因素。將敏感數據傳到云端進行處理,存在數據泄露和未經授權訪問的風險。通過在邊緣設備上部署GenAI,數據處理始終在設備本地進行,這既能增強隱私保護,又能降低安全漏洞風險。這在數據處理需格外謹慎的應用中尤為關鍵,例如醫療健康應用中的患者數據處理。

網絡連接受限也是推動在邊緣設備上部署GenAI的因素。在互聯網接入不可靠的偏遠或欠發達地區,搭載GenAI的邊緣設備可以脫離云連接獨立運行,確保功能持續可用。這對災難救援等可能缺乏可靠通信基礎設施的應用場景至關重要。

應對邊緣設備上部署GenAI的挑戰

在邊緣設備上部署GenAI好處眾多,但也面臨多種挑戰,必須克服這些挑戰,才能確保其有效實施與運行。這些挑戰主要涉及計算復雜性、數據要求、帶寬限制、功耗和硬件約束。

GenAI模型的計算復雜性是一大挑戰。Transformer作為GenAI模型的基礎,因其注意力機制和大規模矩陣乘法運算,計算量極大。這些運算需要強大的處理能力和大量內存,給邊緣設備有限的計算資源帶來沉重壓力。此外,邊緣設備常常需要實時處理,尤其是在自動駕駛或實時翻譯等應用中。GenAI模型對算力的高要求,使得在邊緣設備上實現所需的速度和響應能力困難重重。

242aa084-21bf-11f0-9310-92fbcf53809c.png

▲表1:GenAI模型(包括大語言模型(LLM)和圖像生成器)的參數量明顯大于CNN

數據要求也帶來了巨大挑戰。訓練GenAI模型需要海量數據。例如,GPT-4等模型訓練使用了數TB的數據,要在存儲和內存容量有限的邊緣設備上處理和存儲這些數據,根本不現實。即便在推理階段,為生成準確且相關的輸出,GenAI模型也可能需要大量數據。受存儲限制,在邊緣設備上管理和處理這些數據頗具挑戰性。

帶寬限制讓GenAI在邊緣設備上的部署變得更為復雜。邊緣設備通常使用低功耗內存接口,如低功耗雙倍數據速率(LPDDR)內存,其帶寬低于數據中心使用的高帶寬內存(HBM)。這會限制邊緣設備的數據處理能力,從而影響GenAI模型的性能。在內存和處理單元之間高效傳輸數據,對GenAI模型的性能至關重要。有限的帶寬會妨礙這一過程,導致處理時間延長、效率降低。

功耗是在邊緣設備上部署GenAI的又一關鍵問題。GenAI模型因計算需求大,耗電量高。這對依靠電池供電的邊緣設備,如智能手機、物聯網設備和自動駕駛汽車等,是個嚴重問題。高功耗會導致發熱增加,因此需要有效的熱管理解決方案。在緊湊的邊緣設備進行散熱管理難度大,還可能影響設備壽命和性能。

硬件約束同樣是在邊緣設備上部署GenAI的一大挑戰。與數據中心服務器相比,邊緣設備的處理能力通常有限。選擇既能滿足GenAI的需求、又能兼顧低功耗和高性能的合適處理器至關重要。邊緣設備有限的內存和存儲容量,限制了可部署GenAI模型的規模和復雜性。因此,必須開發能在這些約束條件下運行且性能不受影響的優化模型。

模型優化對于應對這些挑戰至關重要。模型量化(降低模型參數精度)和剪枝(去除冗余參數)等技術,可幫助降低GenAI模型的計算和內存需求。不過,在采用這些技術時需要謹慎,以保證模型的準確性和功能性。開發專門針對邊緣部署優化的模型,能幫助應對部分挑戰。這需要創建GenAI模型的輕量級版本,使其能在邊緣設備上高效運行,同時不降低性能。

軟件和工具鏈支持也很關鍵。在邊緣設備上高效部署GenAI,離不開支持模型優化、部署和管理的強大軟件工具和框架。確保與邊緣硬件兼容并提供高效的開發流水線至關重要。優化推理過程以縮短延遲并提高效率,對實時應用非常重要。這涉及微調模型并利用硬件加速器實現最佳性能。

安全和隱私問題也必須得到妥善解決。確保邊緣設備所處理數據的安全性極為重要。采用魯棒的加密技術和安全的數據處理做法,是保護敏感信息的關鍵。在邊緣設備上本地處理數據,可最大限度地減少將敏感數據傳到云端的需求,有助于解決隱私問題。但同時,也要確保GenAI模型本身不會無意中泄露敏感信息。

通過精心挑選硬件、優化模型并利用先進軟件工具來應對這些挑戰,可讓邊緣設備部署GenAI變得更加可行和有效。這將使眾多應用受益于GenAI的強大能力,同時保留邊緣計算的優勢。

邊緣GenAI的處理器選擇

在邊緣設備上運行GenAI,選擇合適的嵌入式處理器對于克服上述挑戰至關重要。選擇時必須兼顧計算能力、功耗和處理各種AI工作任務的靈活性。

GPUCPU靈活性高且可編程,適用于廣泛的AI應用。但從功耗角度看,它們可能并非邊緣設備的最佳選擇。尤其是GPU,耗電量大,對電池供電的設備不太友好。

ASIC是針對特定任務優化的硬連線解決方案,具有高能效和高性能。然而,它缺乏靈活性,難以適應不斷發展的AI模型和工作任務。

神經處理單元(NPU)在靈活性和能效之間取得了平衡。NPU(包括新思科技ARC NPX NPU IP)專為AI工作任務設計,針對矩陣乘法和張量運算等運行GenAI模型的關鍵任務,能實現優化的性能。NPU解決方案可編程且功耗低,適合邊緣設備。

244e71da-21bf-11f0-9310-92fbcf53809c.png

▲圖2:CPU、GPU、NPU和ASIC在邊緣AI/ML中的表現比較。NPU除了可編程性和易于使用之外,還擁有最高效的處理能力。

例如,在NPU上運行Stable Diffusion等GenAI模型僅需2瓦電力,而在GPU上運行則需200瓦,節能效果顯著。NPU還支持混合精度算法和內存帶寬優化等高級功能,對滿足GenAI模型的計算需求至關重要。

結語

向Transformer和生成式人工智能(GenAI)的過渡,是人工智能(AI)和機器學習(ML)領域的重大進步。這些模型性能卓越、功能多樣,支持從自然語言處理到圖像生成的廣泛應用。在邊緣設備上部署GenAI能夠開啟新的可能,提供低延遲、安全、可靠的AI能力。

然而,要充分發揮邊緣GenAI的潛力,必須克服計算復雜性、數據要求、帶寬限制和功耗等挑戰。選擇NPU等合適的處理器,能為邊緣應用提供兼顧性能與能效的平衡解決方案。

隨著AI持續發展,GenAI在邊緣設備上的集成將發揮關鍵作用,有助于推動創新并擴大智能技術的應用范圍。通過克服這些挑戰并利用先進處理器的優勢,我們將為AI全面融入日常生活的美好未來鋪平道路。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • cpu
    cpu
    +關注

    關注

    68

    文章

    11279

    瀏覽量

    224964
  • 人工智能
    +關注

    關注

    1817

    文章

    50098

    瀏覽量

    265320
  • 機器學習
    +關注

    關注

    66

    文章

    8553

    瀏覽量

    136940
  • Transformer
    +關注

    關注

    0

    文章

    156

    瀏覽量

    6937

原文標題:為何要在邊緣設備上部署GenAI?

文章出處:【微信號:Synopsys_CN,微信公眾號:新思科技】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    求一套聽聲辯位的算法,并在板機上部署

    求一套聽聲辯位的算法,并在板機上部署。有謝。
    發表于 11-10 23:07

    如何快速在云服務器上部署Web環境?

    如何快速在云服務器上部署Web環境
    的頭像 發表于 10-14 14:16 ?661次閱讀

    戴爾如何構建更敏捷、可靠的邊緣站點

    企業需要一種既穩健又靈活的邊緣部署方式,讓計算和數據處理能力能夠真正靠近業務現場。長期深耕邊緣領域的戴爾科技,憑借端到端解決方案和豐富的實踐經驗,為企業應對這些
    的頭像 發表于 09-08 16:46 ?930次閱讀

    如何在基于Arm架構的邊緣AI設備上部署飛槳模型

    當 Arm 與領先的開源深度學習平臺強強聯合,會帶來什么?那就是推動創新的“火箭燃料”。Arm 攜手百度,利用雙方在高能效計算平臺與 AI 模型的技術積累,助力廣大開發者加快邊緣 AI 解決方案的開發和部署
    的頭像 發表于 09-06 14:07 ?1089次閱讀

    有哪些技術可以提高邊緣計算設備的安全性?

    邊緣計算設備的安全性面臨分布式部署、資源受限(算力 / 存儲 / 帶寬)、網絡環境復雜(多無線連接)、物理接觸易被篡改等獨特挑戰,因此其安全技術需在 “安全性” 與 “輕量化適配” 之
    的頭像 發表于 09-05 15:44 ?1480次閱讀
    有哪些技術可以提高<b class='flag-5'>邊緣</b>計算<b class='flag-5'>設備</b>的安全性?

    部署邊緣計算設備時需要考慮哪些問題?

    應對邊緣場景的復雜挑戰。以下是關鍵注意事項,按核心維度分類說明: 一、硬件選型:匹配邊緣場景的 “環境適應性” 與 “資源平衡” 邊緣設備
    的頭像 發表于 09-05 15:38 ?1195次閱讀
    <b class='flag-5'>部署</b><b class='flag-5'>邊緣</b>計算<b class='flag-5'>設備</b>時需要考慮哪些問題?

    Arm方案 基于Arm架構的邊緣設備(樹莓派或 NVIDIA Jetson Nano)上部署PyTorch模型

    本文將為你展示如何在樹莓派或 NVIDIA Jetson Nano 等基于 Arm 架構的邊緣設備上部署 PyTorch 模型。
    的頭像 發表于 07-28 11:50 ?2873次閱讀

    打通邊緣智能之路:面向嵌入式設備的開源AutoML正式發布----加速邊緣AI創新

    北京?2025年7月17日?/美通社/ -- 隨著AI迅速向邊緣領域挺進,對智能邊緣器件的需求隨之激增。然而,要在小尺寸的微控制器上部署強大的模型,仍是困擾眾多開發者的難題。開發者需要兼顧數據預處理
    的頭像 發表于 07-17 16:08 ?480次閱讀
    打通<b class='flag-5'>邊緣</b>智能之路:面向嵌入式<b class='flag-5'>設備</b>的開源AutoML正式發布----加速<b class='flag-5'>邊緣</b>AI創新

    無法運行Whisper Asr GenAI OpenVINO? Notebook怎么解決?

    冉小 聲說-asr-genai OpenVINO?筆記本。 遇到的錯誤: Port for tensor name cache_position was not found.
    發表于 06-25 07:41

    使用Openvino? GenAI運行Sdxl Turbo模型時遇到錯誤怎么解決?

    使用 OpenVINO? GenAI 運行 SDXL Turbo 模型。 遇到的錯誤: RuntimeError :- Check ov_tokenizer || ov_detokenizer Neither tokenizer nor detokenizer models were provided
    發表于 06-24 06:38

    stm32N657上部署cubeAI生成代碼,編譯出錯的原因?怎么解決?

    你好,要怎么在stm32N657上部署cubeAI生成代碼呢,編譯出錯,我使用cubeAI生成的手寫數字模型的代碼,編譯報錯 要怎么配置呢,我看其他AI demo都是分了兩個文件,這里要怎么燒錄進去使用呢?
    發表于 06-20 06:31

    邊緣AI實現的核心環節:硬件選擇和模型部署

    邊緣AI的實現原理是將人工智能算法和模型部署到靠近數據源的邊緣設備上,使這些設備能夠在本地進行數據處理、分析和決策,而無需將數據傳輸到遠程的
    的頭像 發表于 06-19 12:19 ?1381次閱讀
    <b class='flag-5'>邊緣</b>AI實現的核心環節:硬件選擇和模型<b class='flag-5'>部署</b>

    STM32F769是否可以部署邊緣AI?

    STM32F769是否可以部署邊緣AI
    發表于 06-17 06:44

    RAKsmart企業服務器上部署DeepSeek編寫運行代碼

    在RAKsmart企業服務器上部署并運行DeepSeek模型的代碼示例和詳細步驟。假設使用 Python + Transformers庫 + FastAPI實現一個基礎的AI服務。主機推薦小編為您整理發布RAKsmart企業服務器上部署DeepSeek編寫運行代碼。
    的頭像 發表于 03-25 10:39 ?699次閱讀

    邊緣部署GenAI機遇與挑戰并存,NPU成破局關鍵

    過去十年里,人工智能 (AI) 和機器學習 (ML) 經歷了重大變革——卷積神經網絡 (CNN) 和循環神經網絡 (RNN) 正在向Transformer和生成式人工智能 (GenAI) 過渡。這一
    發表于 03-20 10:57 ?561次閱讀
    <b class='flag-5'>邊緣</b><b class='flag-5'>部署</b><b class='flag-5'>GenAI</b>機遇與<b class='flag-5'>挑戰</b>并存,NPU成破局關鍵