国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

架構/算力/軟件/應用全面突破,安謀科技Arm China用“周易”X3破局端側AI

Felix分析 ? 來源:電子發燒友網 ? 作者:吳子鵬 ? 2025-11-21 08:52 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發燒友網報道(文/吳子鵬)當前,全球端側AI市場正呈現爆發式增長。根據弗若斯特沙利文的統計數據,全球端側AI市場規模預計將從2024年的3219億元增長至2029年的12230億元,復合年增長率高達39.6%。然而,當大模型從云端向端側滲透,算力瓶頸、能效矛盾、開發門檻成為制約端側AI行業前進的三重枷鎖。

為幫助行業破解這一難題,國內領先的芯片IP設計與服務提供商安謀科技(中國)有限公司(以下簡稱“安謀科技Arm China”)于近日正式發布了新一代NPU IP——“周易”X3。該產品采用專為大模型打造的最新DSP+DSA架構,不僅聚焦硬件性能的飛躍,更通過軟硬協同與生態開放,重新定義了端側AI計算效率,為基礎設施、智能汽車、移動終端、智能物聯網四大領域帶來前所未有的AI計算體驗。

安謀科技Arm China產品研發副總裁劉浩表示:“在‘All in AI’產品戰略的指引下,我們將持續加大投入,以前瞻性視野整合頂尖研發資源,秉持開放合作理念,為生態伙伴提供業界領先的從硬件、軟件到服務的端到端解決方案,全力賦能伙伴的產品創新和商業化落地。”
安謀科技Arm China產品研發副總裁劉浩

技術突破:DSP+DSA架構實現端側AI計算效能躍升

隨著生成式AI(AIGC)和大模型技術的快速發展,智能手機、AI PC、智能汽車等端側設備對AI能力的需求正呈爆發式增長。然而,端側AI的核心痛點在于“有限資源承載復雜計算”。此外,在半導體IP領域,“面向未來5年的產品方向進行前瞻布局”已成為行業共識,這讓IC設計人員在定義下一代端側AI計算芯片時面臨極大挑戰。

為解決這些產業難題,“周易”X3 NPU IP應運而生,旨在打造端側AI計算效率的新標桿?!爸芤住盭3采用專為大模型打造的DSP+DSA融合架構,突破了傳統NPU架構的局限——純DSA架構雖能高效處理固定算法,但面對大模型的靈活迭代易陷入“硬管道”困境,而DSP的加入有效彌補了通用計算的短板。同時,“周易”X3的架構也兼顧了CNN與Transformer的通用架構,支持全算力類型并增強浮點運算FLOPS,助力實現從定點到浮點計算的關鍵轉變。

在架構創新方面,“周易”X3還集成了自研解壓硬件WDC,通過軟件無損壓縮+硬件解壓的方式,可額外獲得15%-20%的等效帶寬;配合W4A8/W4A16計算加速模式,有效破解了端側大模型的帶寬消耗難題;通過集成AI專屬硬件引擎AIFF(AI Fixed-Function)與專用硬化調度器,將CPU負載壓低至0.5%,確保多任務場景下的低延遲響應;支持int4/int8/int16/int32/fp4/fp8/fp16/bf16/fp32多精度融合計算及強浮點計算,可靈活適配智能手機邊緣部署、AI PC推理、智能汽車等從傳統CNN到前沿大模型的數據類型需求,實現性能與能效的平衡。

談及W4A8/W4A16計算加速模式創新,安謀科技Arm China產品總監鮑敏祺形象地比喻道:“W4A8/W4A16是混合量化策略,旨在平衡模型精度與計算效率,通過降低權重的比特數來減少顯存占用,同時保持激活值較高的精度以最小化推理誤差。如果W4A16計算是1秒輸出,那么到了W4A8就可能是600毫秒輸出。因為在保證精度的前提下,‘A’(即Activation,激活值)的數值降低了,就相當于算力翻倍。當然,端側需優先定義可用模型,再解決系統問題——早期端側聚焦1B-3B模型,但7B模型才具備實用價值。當端側要承載更大參數規模的AI模型(比如從3B擴大到7B),‘W’(即Weight,權重)也要隨之降低,安謀科技Arm China也在協同合作伙伴著力優化W2A8,以支持7B模型在手機等終端部署,而保證精度是前提?!?br />
安謀科技Arm China產品總監鮑敏祺

這些創新為“周易”X3帶來了顯著的性能提升:“周易”X3單Cluster支持8-80 FP8 TFLOPS算力靈活配置,單Core帶寬高達256GB/s。相較于“周易”X2產品,“周易”X3的CNN模型性能提升30%~50%,多核算力線性度達到70%~80%;在同算力規格下,AIGC大模型能力較上一代產品實現10倍增長。實測數據顯示,在Llama2 7B大模型中,Prefill階段算力利用率達72%,Decode階段在自研解壓硬件WDC加持下,有效帶寬利用率超100%。

創新亮點:軟硬協同,破解端側AI開發痛點

“周易”X3不僅在硬件上實現突破,還配套了完善易用的“周易”Compass AI軟件平臺。通過“軟硬一體”的協同設計,讓開發者從“能用”到“好用”,顯著提升開發部署效率,破解端側AI行業“適配難、周期長、門檻高”的痛點。

對此,鮑敏祺指出:“‘周易’X3遵循‘軟硬協同、全周期服務與成就客戶’的產品準則,提供從硬件、軟件到售后服務的全鏈路支持,以前瞻性設計、專業團隊交付與深度服務投入,全面助力客戶產品成功與商業化落地?!?br />
Compass AI軟件平臺實現了從模型導入到部署的端到端支持,兼容TensorFlow、ONNX、PyTorch等主流AI框架,覆蓋超160種算子與270多種模型,提供開箱即用的Model Zoo。其創新的Hugging Face模型“一鍵部署”功能,讓開發者無需復雜適配即可實現大模型的端側落地,大幅縮短開發周期。

針對大模型的動態特性,Compass AI平臺具備業界領先的動態Shape支持能力,可高效處理任意長度輸入序列;同時支持GPTQ等主流量化方案及Tensor/Channel/Token Level多樣量化方式,配合Bit精度軟件仿真平臺,讓開發者在平衡性能與精度時更具靈活性。豐富的調試工具與白盒部署能力,更滿足了深度開發場景下的定制需求。

同時,安謀科技Arm China深知生態的核心在于“開放”,已將Compass AI平臺的Parser、Optimizer、Linux Driver等核心組件開放,成為行業內少數開放量化能力的廠商。通過支持DSL算子編程語言,客戶可自主開發自定義算子或打造專屬模型編譯器,實現差異化創新。這種“開放”的策略,既降低了中小開發者的入門門檻,也為大客戶提供了深度定制的空間。

安謀科技Arm China NPU產品線負責人兼首席架構師舒浩博士總結道:“‘周易’X3的產品優勢,源于通用、靈活、高效且軟硬協同的系統架構設計,這一設計使其兼具廣泛的行業適用性與靈活的邊端側AI應用場景匹配能力?!?br />
安謀科技Arm China NPU產品線負責人兼首席架構師舒浩博士

應用場景:從“可用”到“好用”的端側AI革命

“周易”X3的產品定位精準覆蓋基礎設施、智能汽車、移動終端、智能物聯網四大核心領域,將算力轉化為實實在在的應用價值。

在基礎設施領域,其支持CNN與大模型的混合加速,為邊緣計算節點與加速卡提供核心算力,成為數據中心算力的重要補充;在智能汽車領域,“周易”X3既可以在ADAS系統中為自動泊車等輔助駕駛功能提供高性能AI算力支持,也可以在IVI(車載信息娛樂系統)中支持基于語音與車內外視頻圖像輸入的智能互動;在移動終端方面,可在AI PC與AI手機上實現超分渲染與AI Agent應用,讓端側多模態交互更流暢;在智能物聯網領域,通過本地AI推理提升智能網關、IPC等設備的響應速度,兼顧實時性與隱私保護。

從產品家族演進來看,“周易”系列已形成從Z1到X3的完整布局,覆蓋從入門級AIoT到高端智能設備的全場景需求?,F場展示的DeepSeek-R1-Distill-Qwen-1.5B文生文、Stable Diffusion v1.5文生圖等Demo,直觀呈現了端側大模型的落地效果。

結語

“周易”X3 NPU IP的發布,不僅是安謀科技Arm China技術實力的體現,更是端側AI規?;渴鸬年P鍵一步。通過軟硬協同、前瞻布局和生態開放,它有望推動端側AI從“功能實現”走向“場景深化”,為智能汽車、移動終端等領域注入新動力。隨著行業對算力、精度和易用性需求的持續演化,安謀科技Arm China的戰略實踐或將成為中國AI芯片IP發展的參考范式。
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 算力
    +關注

    關注

    2

    文章

    1409

    瀏覽量

    16605
  • 安謀科技
    +關注

    關注

    0

    文章

    123

    瀏覽量

    8177
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    應對端AI、內存、功耗“三堵墻”困境,科技Arm China周易X3給出技術錦囊

    AI大模型正加速從云端向邊緣與端滲透,然而,、內存、功耗等卻成了制約其規?;涞氐摹案邏Α?。專為AI計算而生的神經網絡處理器(NPU)
    的頭像 發表于 12-18 13:45 ?100次閱讀
    應對端<b class='flag-5'>側</b><b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>、內存、功耗“三堵墻”困境,<b class='flag-5'>安</b><b class='flag-5'>謀</b>科技<b class='flag-5'>Arm</b> <b class='flag-5'>China</b> “<b class='flag-5'>周易</b>”<b class='flag-5'>X3</b>給出技術錦囊

    邁向云端巔峰:昆侖芯K200 AI加速卡全面解讀

    昆侖芯K200作為云端AI加速卡,在K100架構基礎上全面升級。其INT8達256 TOPS,配備16GB HBM內存與512GB/s帶
    的頭像 發表于 12-14 11:17 ?1315次閱讀
    邁向云端<b class='flag-5'>算</b><b class='flag-5'>力</b>巔峰:昆侖芯K200 <b class='flag-5'>AI</b>加速卡<b class='flag-5'>全面</b>解讀

    科技:端NPU技術創新,拉動AI落地引擎

    X3 NPU IP以及生態建設、NPU發展趨勢等話題。 ? 圖:科技產品總監鮑敏祺 ? 周易X3 NPU IP正當時 ?
    的頭像 發表于 12-09 16:44 ?5573次閱讀
    <b class='flag-5'>安</b><b class='flag-5'>謀</b>科技:端<b class='flag-5'>側</b>NPU技術創新,拉動<b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>落地引擎

    科技“AI Arm CHINA”戰略,鏈接全球生態與本土創新

    的如醫療領域,新癌癥藥物研發速度較以往提升數十倍。”在11月20日ICCAD-Expo 2025上,科技Arm China CEO?陳鋒在演講中如是說。 ? 當前中國
    的頭像 發表于 12-03 10:24 ?5822次閱讀

    發布“周易X3 NPU,AI,智繪未來藍圖

    2025年11月13日,國內領先的芯片IP設計與服務提供商科技Arm China,正式揭開了新一代NPU IP“周易
    的頭像 發表于 11-17 11:47 ?181次閱讀
    <b class='flag-5'>安</b><b class='flag-5'>謀</b>發布“<b class='flag-5'>周易</b>”<b class='flag-5'>X3</b> NPU,<b class='flag-5'>破</b>局<b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>,智繪未來藍圖

    矢量計算性能提升200%,STAR-MC3賦能端AI革命

    日益增長,推動芯片設計向更高能效、更強AI的方向演進。 ? 就在近期,芯片IP設計與服務提供商科技(
    的頭像 發表于 10-27 09:11 ?2321次閱讀

    AI+MCU新選擇,科技“星辰”STAR-MC3問世

    日前,科技Arm China發布“星辰”STAR-MC3 CPU IP解析長圖,清晰展現了該產品的五大亮點、核心應用領域與“星辰”CPU
    的頭像 發表于 10-23 16:01 ?227次閱讀
    <b class='flag-5'>AI</b>+MCU新選擇,<b class='flag-5'>安</b><b class='flag-5'>謀</b>科技“星辰”STAR-MC<b class='flag-5'>3</b>問世

    科技發布“星辰”STAR-MC3,提升MCU AI處理能力

    電子發燒友網綜合報道 2025年9月25日,科技正式推出自主研發的第三代高能效嵌入式芯片IP——“星辰”STAR-MC3。該產品基于Arm?v8.1-M
    的頭像 發表于 09-29 08:53 ?1.1w次閱讀
    <b class='flag-5'>安</b><b class='flag-5'>謀</b>科技發布“星辰”STAR-MC<b class='flag-5'>3</b>,提升MCU <b class='flag-5'>AI</b>處理能力

    2025端AI芯片爆發:存一體、非Transformer架構誰主浮沉?邊緣計算如何選型?

    各位技術大牛好!最近WAIC 2025上端AI芯片密集發布,徹底打破傳統困局。各位大佬在實際項目中都是如何選型的呢?
    發表于 07-28 14:40

    AI需求大爆發!科技發布新一代NPU IP,賦能AI終端應用

    ,汽車自動駕駛的本地決策,都依賴提升,這對端AI SoC的性能帶來挑戰,上游IP廠商的新品可以給SoC廠商帶來最新助力。 7月9日,在上海張江舉辦的端
    的頭像 發表于 07-11 01:16 ?8417次閱讀
    端<b class='flag-5'>側</b><b class='flag-5'>AI</b>需求大爆發!<b class='flag-5'>安</b><b class='flag-5'>謀</b>科技發布新一代NPU IP,賦能<b class='flag-5'>AI</b>終端應用

    首創開源架構,天璣AI開發套件讓端AI模型接入得心應手

    ,聯發科帶來了全面升級的天璣AI開發套件2.0,在模型庫規模、架構開放程度、前沿端AI技術支持和端
    發表于 04-13 19:52

    DeepSeek推動AI需求:800G光模塊的關鍵作用

    集群的部署過程中,帶寬瓶頸成為制約發揮的關鍵因素,而光模塊的速率躍升成為突破這一瓶頸的核心驅動力。 光模塊速率躍升 隨著
    發表于 03-25 12:00

    【一文看懂】什么是端?

    向您介紹全方面端:1.端的定義2.端
    的頭像 發表于 02-24 12:02 ?3159次閱讀
    【一文看懂】什么是端<b class='flag-5'>側</b><b class='flag-5'>算</b><b class='flag-5'>力</b>?

    科技“周易”NPU成功部署DeepSeek-R1

    應用體驗。 “周易”NPU處理器采用了專為大模型特性優化的架構設計,旨在提升端,滿足日益增長的AI
    的頭像 發表于 02-19 10:30 ?1027次閱讀

    軟硬協同優化,科技新一代“周易”NPU實現DeepSeek-R1端高效部署

    優化的架構設計,其beta版本在2024年底已面向早期用戶開放評估測試,并獲得了廣泛認可與積極反饋。 預計今年上半年,這款備受期待的 NPU 產品將正式亮相市場,屆時將為更多用戶帶來突破性的端
    發表于 02-14 10:52 ?307次閱讀
    軟硬協同優化,<b class='flag-5'>安</b><b class='flag-5'>謀</b>科技新一代“<b class='flag-5'>周易</b>”NPU實現DeepSeek-R1端<b class='flag-5'>側</b>高效部署