国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

AI推理框架軟件ONNX Runtime正式支持龍架構

龍芯中科 ? 來源:龍芯中科 ? 2024-03-12 12:23 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

近日,知名AI推理框架開源社區ONNX Runtime正式發布支持龍架構的版本1.17.0。今后,用戶可以直接使用ONNX Runtime開源社區發布的版本在龍芯平臺完成AI推理類應用的開發和部署,標志著龍架構軟件生態得到進一步完善。

f9225b04-e027-11ee-a297-92fbcf53809c.png

ONNX Runtime(ORT)是近年來興起的AI推理框架軟件,被大量AI應用作為基礎AI推理引擎。ORT可支持PyTorch、TensorflowTFLite等多種格式的模型輸入,以及CPUGPUIoT、NPU、FPGA等多樣化算力后端。

在ONNX Runtime 社區1.17.0版本的研制過程中,龍芯中科技術團隊與社區保持緊密合作,期間向ONNX Runtime社區代碼倉庫提交了7697行代碼,對矩陣乘法、卷積、轉置等核心算子進行深度向量優化。在社區支持下,龍架構優化代碼通過了檢視、測試驗證等質量保證流程,ONNX Runtime社區自1.17.0版本起正式實現對龍架構的原生支持。

未來,龍芯中科將繼續與AI領域的國際開源軟件社區攜手合作,助力AI領域的生態發展和技術創新,為用戶帶來更優產品,實現更大價值。




審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • FPGA
    +關注

    關注

    1660

    文章

    22408

    瀏覽量

    636227
  • 龍芯中科
    +關注

    關注

    0

    文章

    366

    瀏覽量

    8541
  • NPU
    NPU
    +關注

    關注

    2

    文章

    373

    瀏覽量

    21088

原文標題:AI推理框架軟件ONNX Runtime正式支持龍架構

文章出處:【微信號:gh_53fadbdbd4d4,微信公眾號:龍芯中科】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    OrangePi RV2 深度技術評測:RISC-V AI融合架構的先行者

    2 TOPS 融合算力 :在端側輕量模型(如MobileNet、DeepSeek-R1蒸餾版)上可流暢運行 框架支持 :官方宣稱兼容主流AI生態(TensorFlow Lite、ONNX
    發表于 03-03 20:19

    使用NORDIC AI的好處

    × 在 CPU 上運行時可快 10×、更省電,平均模型體積 <5 KB。[Edge AI 軟件頁] Axon NPU 對同一 TensorFlow Lite 模型:* 推理速度最高可比
    發表于 01-31 23:16

    算力積木+3D堆疊!GPNPU架構創新,應對AI推理需求

    落地的關鍵瓶頸。在此背景下,云天勵飛推出其第五代芯片架構——GPNPU(General-Purpose Neural Processing Unit,通用神經網絡處理單元),以一場底層架構的革命,試圖重塑AI算力格局,推動大模型
    的頭像 發表于 12-11 08:57 ?7837次閱讀

    Alif Semiconductor的Ensemble MCU新增對ExecuTorch Runtime支持,助力其推動邊緣生成式AI發展

    ·?Ensemble E4/E6/E8是業界首個為Transformer網絡提供硬件加速的MCU系列,可在邊緣設備及終端設備上實現本地生成式AI推理 ·?Alif與Arm合作,在PyTorch大會上
    的頭像 發表于 11-04 11:44 ?1488次閱讀
    Alif Semiconductor的Ensemble MCU新增對ExecuTorch <b class='flag-5'>Runtime</b>的<b class='flag-5'>支持</b>,助力其推動邊緣生成式<b class='flag-5'>AI</b>發展

    NVIDIA TensorRT LLM 1.0推理框架正式上線

    TensorRT LLM 作為 NVIDIA 為大規模 LLM 推理打造的推理框架,核心目標是突破 NVIDIA 平臺上的推理性能瓶頸。為實現這一目標,其構建了多維度的核心實現路徑:一
    的頭像 發表于 10-21 11:04 ?1165次閱讀

    onnx模型轉換rknn模型出現問題

    the inputs/outputs or the model. 我并沒有找到解決方案,我嘗試了直接使用onnxruntime進行onnx推理,可以完成,但是為什么onnx轉換為rknn時會報錯。這些事一些相關
    發表于 08-11 11:25

    請問如何在RK3588上使用npu,用onnx模型來推理

    請問如何在瑞芯微 RK3588上使用npu,用onnx模型來推理。官網上介紹說要把ONNX模型轉換成RKNN模型。但是我并不想這么干,請問有什么辦法嗎?
    發表于 08-09 00:51

    信而泰×DeepSeek:AI推理引擎驅動網絡智能診斷邁向 “自愈”時代

    DeepSeek-R1:強大的AI推理引擎底座DeepSeek是由杭州深度求索人工智能基礎技術研究有限公司開發的新一代AI大模型。其核心優勢在于強大的推理引擎能力,融合了自然語言處理(
    發表于 07-16 15:29

    Nordic收購 Neuton.AI 關于產品技術的分析

    Nordic Semiconductor 于 2025 年收購了 Neuton.AI,這是一家專注于超小型機器學習(TinyML)解決方案的公司。 Neuton 開發了一種獨特的神經網絡框架,能夠
    發表于 06-28 14:18

    潤和軟件StackRUNS異構分布式推理框架的應用案例

    江蘇潤和軟件股份有限公司(以下簡稱“潤和軟件”)自主研發的StackRUNS異構分布式推理框架已在實際場景中取得顯著成效,成功應用于大型園區多模態模型演練及高校滿血版DeepSeek-
    的頭像 發表于 06-13 09:11 ?1309次閱讀
    潤和<b class='flag-5'>軟件</b>StackRUNS異構分布式<b class='flag-5'>推理</b><b class='flag-5'>框架</b>的應用案例

    潤和軟件發布StackRUNS異構分布式推理框架

    當下,AI模型規模持續膨脹、多模態應用場景日益復雜,企業正面臨異構算力資源碎片化帶來的嚴峻挑戰。為應對行業痛點,江蘇潤和軟件股份有限公司(以下簡稱“潤和軟件”)正式發布自主研發的StackRUNS異構分布式
    的頭像 發表于 06-13 09:10 ?1458次閱讀
    潤和<b class='flag-5'>軟件</b>發布StackRUNS異構分布式<b class='flag-5'>推理</b><b class='flag-5'>框架</b>

    【米爾MYC-YM90X安路飛龍DR1開發板】安路科技 SALDRAGON開發板介紹

    基于Buildroot或Yocto的定制化Linux系統,支持Cortex-A35雙核的OpenMP/OpenCL多線程編程,優化NPU的TensorFlow Lite/ONNX Runtime
    發表于 04-28 17:57

    首創開源架構,天璣AI開發套件讓端側AI模型接入得心應手

    ,聯發科帶來了全面升級的天璣AI開發套件2.0,在模型庫規模、架構開放程度、前沿端側AI技術支持和端側LoRA訓練落地等方面均迎來全面躍遷,為開發者提供了更全面、更開放、更強大的端側
    發表于 04-13 19:52

    邊緣AI新突破:MemryX AI加速卡與RK3588打造高效多路物體檢測方案

    資源及對主流深度學習框架 (如 TensorFlow、PyTorch、ONNX) 的支持,即便是新手也能快速上手,輕松部署 AI 模型,實現智能應用開發。
    的頭像 發表于 03-06 10:45 ?951次閱讀
    邊緣<b class='flag-5'>AI</b>新突破:MemryX <b class='flag-5'>AI</b>加速卡與RK3588打造高效多路物體檢測方案

    無法在GPU上運行ONNX模型的Benchmark_app怎么解決?

    在 CPU 和 GPU 上運行OpenVINO? 2023.0 Benchmark_app推斷的 ONNX 模型。 在 CPU 上推理成功,但在 GPU 上失敗。
    發表于 03-06 08:02