国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

AI框架的演進趨勢以及MindSpore的構想

電子設計 ? 來源:電子設計 ? 作者:電子設計 ? 2020-12-10 15:23 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

轉載自:知乎
作者:金雪鋒

MindSpore在3月底開源后,一直忙于功能完善和內外部的應用推廣,現在終于有點時間可以停下來結合MindSpore的實踐和團隊一起總結對AI框架的一些思考,希望對大家有所幫助,也有助于大家去了解MindSpore,更加歡迎大家一起探討。

計劃開一個專欄,有一系列的文章,初步主題規劃包括:

  1. AI框架的演進趨勢和MindSpore的構想
  2. AI框架的圖層IR的分析
  3. 動靜態圖統一的思考
  4. 端邊云的框架如何統一
  5. 圖算融合的設計思考
  6. 自動算子生成可行嗎?
  7. 如果自研一個AI編程語言,應該長什么樣?
  8. 如何成為分布式并行原生的AI框架?
  9. AI與科學計算怎么結合?
  10. AI框架怎么使能AI責任?

…….等等

內容比較多,全部寫完要很長時間,希望自己有足夠的耐心堅持下去。

本篇是一個總體的介紹,主要是分析AI框架的發展趨勢,介紹一下MindSpore的構想

1、未來AI框架的發展趨勢是什么

AI框架的發展個人認為可以大致分為3個階段:

第一階段的代表是torch、theano以及Caffe,奠定了基于Python、自動微分、計算圖等基本設計思路。

第二階段的代表是TensorFlow、PyTorch,一個通過分布式訓練、多樣的部署能力在工業界廣泛使用,另外一個是提供動態圖能力,在靈活性上吸引了大量的研究者和算法工程師

第三階段的方向是什么?目前看還沒有定型,我們看到Google也有多條技術路徑在探索,包括TF2.0,JAX、MLIR、Swift for TF等;有些在做動態圖和靜態圖的統一,有些在構建統一的IR基礎設施,還有些在探索新的表達方式等,總之還是百花齊放的狀態。

不管AI框架未來的發展方向是什么,AI框架的驅動力還是相對清晰,我們認為AI框架的驅動力主要是5個-“ABCDE”:

  • Application+Bigdata:AI框架的Application就是AI的模型和算法,Bigdata就是AI模型需要的數據
  • Chip:AI的芯片,代表AI的算法發展
  • Developer:AI的算法研究者和算法工程師
  • Enterprise:AI部署和AI責任

下面,我們想通過對AI框架的驅動因素的分析來討論一下AI框架的發展方向。

從應用和數據角度看AI框架的挑戰

  • 模型和數據的規模和復雜度持續提升

今年5月,OpenAI發布GPT-3模型,千億參數量,數據集(處理前)45T,訓練一次的成本號稱接近500萬美金,超大模型不僅僅是算法和算力成本的挑戰,同時對AI框架的挑戰也是巨大,主要體現在三點,性能墻(內存、通信、計算利用率)、效率墻以及精度墻:

  1. 性能墻:大模型下,GPU和NPU的單卡(內存一般只有32G)肯定裝不下整個模型,傳統的數據并行是不夠的,未來內存復用、混合并行(數據并行/模型并行/pipeline并行)等技術的使用將會是常態,同時,混合并行的切分策略尋優是很困難的,不同的切分產生的通信量差異巨大,計算利用率也很不一樣,比如pipeline并行往往在計算利用率存在較大的挑戰,算子切分的并行在通信量的挑戰會很大,這些都需要AI框架來支持;最后在大規模并行訓練系統中,當性能要求越來越高時,數據預處理也會成為一個瓶頸,比如我們在ResNet50性能調優時發現,當單Step跑到17~18ms的時候,host數據處理的時間就跟不上了。
  2. 效率墻:混合并行策略如果讓算法工程師來手工確定的,這個門檻就會很高,既要懂算法,又要懂系統,怎么做到自動并行是關鍵。
  3. 精度墻:大規模模型訓練天生就是一個大Batchsize的訓練,怎么更好的收斂,達到精度要求,都是一個大的挑戰。

除了上面講的三點外,超大規模的訓練還面臨其他的挑戰,比如大規模集群的可用性、尾部時延、動態調度等等。

  • 框架的負載從單一的深度學習模型向通用的張量可微計算演進

目前主要看到三個方向:

1)DNN與傳統機器學習結合,比如深度概率學習、圖神經網絡等,這一塊基本上業界的AI框架都已經支持。

2)AI與科學計算結合,看到業界在探索三個方向,一是AI建模替代傳統的計算模型,這個方向剛剛起步,進展還不是很多;二是AI求解,模型還是傳統的科學計算模型,但是使用神經網絡的方法來求解,這個方向已經有一定的進展,目前看到不少基礎的科學計算方程已經有對應的AI求解方法,比如PINNs、PINN-Net等,當然現在挑戰還很大,特別是在精度收斂方面,如果要在AI框架上AI求解科學計算模型,最大的挑戰主要在前端表達和高性能的高階微分;三是使用框架來加速方程的求解,就是科學計算的模型和方法都不變,但是與深度學習使用同一個框架來求解,其實就是把框架看成面向張量計算的分布式框架。

3)計算圖形相關的,類似Taichi這樣的語言和框架,提供可微物理引擎、可微渲染引擎等

從AI的芯片發展趨勢看AI框架的挑戰

AI芯片主要是兩種形態,一種是基于SIMT的GPU,另外一種是類SIMD的NPU,隨著NVIDIA A100的發布,我們看到兩種芯片架構在相互借鑒,相互融合:

  1. 大算力還是要靠SIMD(SIMT的靈活性雖然強,但是芯片的面積/功耗挑戰太大),Tensor Core的規模越來越大;
  2. 片內片間高速互聯;
  3. 多硅片,大內存封裝,x倍體積(特別是推理芯片)。

AI芯片的持續演進對AI框架也提出了許多關鍵的挑戰:

  1. 優化與硬件耦合度提升,圖算編譯一體化:圖層融合優化已經趨于收斂,需要和算子層聯動優化,子圖級和算子級的界限打破,基于Graph tuning的整體優化是目前的熱點;
  2. 多樣的執行方式:圖下沉模式和單算子調用模式混合,不同的情況下,可能采用不同的方式;
  3. 可編程性挑戰變大:由于有了大量的SIMD加速指令,不在是單純的SIMT編程模型,異構編程的挑戰變大

從算法工程師和開發者的角度看AI框架的趨勢

  • 新的AI編程語言嘗試突破Python的限制

目前看到有代表性主要是Julia和Swift for TensorFlow

Julia的歷史較早,目前在科學計算領域已經有不錯的應用基礎,當前結合這些領域的積累,逐步進入AI和深度學習領域,宣稱的特點是動態語言的特征,靜態語言的性能,和Python比,比較有特色的地方包括:

  1. MATLAB的張量原生表達
  2. 多態的能力+動態類型推導/特化

3. IR的反射機制

所謂的IR反射機制是指,Julia的IR可以讓開發者做二次加工,以Julia的機器學習庫Flux+Zygote為例:

Flux是一個Julia上的擴展庫,定義基本的算子,如conv,pooling,bn等等,方便開發者基于Flux去定義機器學習模型;

Zygote基于Julia提供的IR反射機制實現了源到源的自動微分,在這個過程中,是不要改變Julia本身的。

與Julia相比,Swift for TensorFlow則完全是另外一套思路,他試圖從工業級開發的角度來找到差異化,包括靜態類型、高性能、與端側結合的易部署等。

從目前看盡管Julia和Swift都有些特色,但是短期內還很難撼動Python在AI領域的地位。

  • AI編譯器成為框架的競爭焦點

AI編譯器目前看到有三個方向在發力,第一類是致力于動靜態圖統一的AI JIT能力,比如TorchScript、JAX等;第二類是偏向于面向芯片的優化,如XLA、TVM;第三類是想做AI編譯器的基礎設施,MLIR希望是提供MetaIR,成為構建AI編譯器的基礎,Relay/TVM則是想把編譯器接口開放出去支撐第三方框架。不過我們看到這三個方向都還存在比較大的挑戰。

AI JIT:Python的靈活性和動態性太強,動態shape好搞定,但是動態Type就難了,更不用說Python里面有大量非常靈活的數據結構的用法,一個動態圖想無縫的轉到靜態圖的確不是一件很容易的事情。

編譯加速:目前主要還是基于Pattern的算子融合和基于模板的算子生成技術,這里的瓶頸在于算子生成技術,因為算子融合的組合條件太多,基于模板無法做到完全枚舉,要提升整個編譯加速的泛化能力,下一個需要攻克的技術就是不需要模板的自動算子生成技術。

AI編譯器的基礎設施:MLIR在設計理念上確實是先進和宏大的,MLIR目標通過Dialect的擴展來支持各種領域編譯器,包括AI編譯器(圖層和算子層)。從進展看,MLIR在TF Lite的應用最快,主要是用作模型轉換工具。我們需要思考的是,MLIR帶來的好處究竟是什么?我想MLIR本身并不會打來框架性能和易用性的提升,主要還是重用和歸一,如LLVM的基礎結構CFG+BB、大量的優化等,問題是這些重用是否有利于AI圖層和算子層的編譯,個人的觀點,對于算子層來說MLIR+LLVM肯定是適用的,對于圖層就未必,LLVM雖然統一了許多編程語言的編譯器,但是優勢領域還是集中在靜態編譯領域,在JIT和VM領域,LLVM的優勢并不明顯,CFG+BB這樣的基礎架構未必適合需要自動微分/JIT這樣的AI圖層編譯器。

從AI的部署看AI框架的挑戰

從AI部署看,我們看到三個趨勢:

  1. 大模型在端側的部署,特別是語言型的模型
  2. 端云協同的場景逐步開始應用,這里主要有兩類,一類是云側訓練,端側做在線finetuning的增量學習,第二類是聯邦學習。
  3. AI無處不在,在IoT那些資源受限的設備上進行AI模型的部署。

目前看AI框架主要是兩個挑戰:

  1. AI框架在云側和端側能否做到架構上的統一,這里的統一主要是指IR格式,只有這樣才能做到云側訓練出來的模型,在端側可以平滑的進行增量學習,并方便地進行聯邦學習。
  2. AI框架能否做到可大可小,比如小到K級的底噪,能夠內置到IoT的設備里。

從AI的責任看AI框架的挑戰

AI的責任涉及的范圍非常廣,包括安全、隱私、公平、透明、可解釋。

作為AI業務的承載,AI框架需要具備使能AI責任的能力,目前AI框架需要解決的幾個挑戰:

1、對于AI責任的各個方面,缺乏通用的分析方法和度量體系,缺乏場景感知的自動化度量方法。

2、AI模型魯棒性、隱私保護技術、密態AI在實際場景下對模型性能影響較大。

3、AI的可解釋性還缺乏理論和算法支撐,難以給出人類友好的推理結果解釋。

2、MindSpore的構想

MindSpore作為一個新興的框架,大家經常問的一個問題是他的差異化在哪里?

結合前面分析的AI框架的驅動力和挑戰,我們希望MindSpore在5個方向上引領AI框架的演進:

  • Beyond AI:從深度學習框架演進到通用張量可微計算框架

MindSpore會提供一個更通用的AI編譯器,為支持更多的應用類型提供可能性。

  • 分布式并行原生(Scale out):從手工并行演進到自動并行

MindSpore在支持大規模訓練方面除了性能和擴展性好外,更重要的是想降低這一塊的門檻,讓分布式訓練變得更加簡單。

  • 圖算深度融合(Scale up):從圖算分離優化演進到圖算聯合優化

MindSpore提供圖算聯合優化、自動算子生成、深度圖優化等關鍵技術,充分發揮AI芯片的算力。

  • 全場景AI:從端云分離架構演進到端云統一架構

MindSpore的云側框架和端側框架做到統一架構,方便云端訓練/端側finetuing或者端云協同的聯邦學習

  • 企業級可信能力:從消費級AI演進到企業級AI

MindSpore會內置對抗性訓練、差分隱私、密態AI、聯邦學習以及可解釋AI等能力。

當然,軟件架構都是持續演進的,很少有技術能夠做到獨門絕技,MindSpore也希望和業界其他框架在正確的方向上一起進步。

同時,MindSpore社區也對外發布了10大課題,邀請開發者一起參與創新。具體參見鏈接:https://github.com/mindspore-ai/community/tree/master/working-groups/research

最后,簡單介紹一下MindSpore的高層設計

MindSpore主要分為四層:

  1. MindSpore Extend:這個是MindSpore的擴展包,現在的數量還比較少,希望未來有更多的開發者來一起貢獻和構建
  2. MindSpore的表達層:MindExpress是基于Python的前端表達,未來我們也計劃陸續提供C/C++Java等不同的前端;MindSpore也在考慮自研編程語言前端-倉頡,目前還處于預研階段;同時,我們內部也在做與Julia這些第三方前端的對接工作,引入更多的第三方生態。
  3. MindSpore的編譯優化層:MindCompiler是我們圖層的核心編譯器,主要基于端云統一的MindIR實現三大功能,包括硬件無關的優化(類型推導/自動微分/表達式化簡等)、硬件相關優化(自動并行、內存優化、圖算融合、流水線執行等)、部署推理相關的優化(量化/剪枝等);MindAKG是MindSpore的自動算子生成編譯器,目前還在持續完善中。
  4. MindSpore全場景運行時:這里含云側、端側以及更小的IoT。

同時MindSpore也提供了面向AI責任的MindArmour,以及面向數據處理/可視化/可解釋的MindData。

MindSpore是一個新生的開源項目,今年3月底剛開源,本文介紹的構想更偏向MindSpore的規劃,其中有不少功能還沒有完善,許多功能還不好用,甚至還有些功能處于前期研究階段,希望開發者們能一起參與MindSpore社區,多提問題和意見,共建MindSpore社區。

MindSpore官網:https://www.mindspore.cn/

MindSpore論壇https://bbs.huaweicloud.com/forum/forum-1076-1.html

代碼倉地址:

Gitee-https://gitee.com/mindspore/mindspore

GitHub-https://github.com/mindspore-ai/mindspore

官方QQ群: 871543426

推薦專欄文章

更多嵌入式AI算法部署等請關注極術嵌入式AI專欄

審核編輯:符乾江
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 嵌入式系統
    +關注

    關注

    41

    文章

    3747

    瀏覽量

    133639
  • 人工智能
    +關注

    關注

    1817

    文章

    50098

    瀏覽量

    265395
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    華為推動電信云加速向AI基礎設施演進

    AI Native新范式。Linux基金會、CNCF、ETSI、TM Forum等組織已相繼開展相關研究與標準制定,持續完善技術框架與產業生態,為AI規模化應用奠定堅實基礎。
    的頭像 發表于 02-27 09:43 ?201次閱讀

    Arm解析未來AI領域創新技術發展趨勢

    終端及邊緣人工智能 (AI) 環境的無縫互聯。基于這一趨勢,Arm 發布了 20 項技術預測,這些技術將引領今年的創新浪潮。上周我們已經針對芯片創新,為大家介紹了四大關鍵趨勢,本期我們將著眼
    的頭像 發表于 01-22 14:16 ?626次閱讀

    負熱膨脹材料的發展與未來:ULTEA? 背后的技術演進

    ,正是這一技術演進的典型成果。本文將追溯負熱膨脹材料的發展脈絡,探討 ULTEA? 的技術創新之處,以及這類材料的未來發展趨勢
    的頭像 發表于 01-21 16:31 ?1147次閱讀
    負熱膨脹材料的發展與未來:ULTEA? 背后的技術<b class='flag-5'>演進</b>

    恩智浦推出全新eIQ Agentic AI框架

    恩智浦半導體宣布推出全新eIQ Agentic AI框架,進一步鞏固其在安全實時邊緣AI領域的領導地位。該工具支持在邊緣設備上直接實現自主智能體功能,助力資深與新手設備開發人員簡化并加速智能體
    的頭像 發表于 01-13 11:15 ?1311次閱讀

    Turkcell攜手華為推出面向AI WAN演進的白皮書

    提升網絡效率,加速變現。此前已經完成了基于AI的綠色節能與RDMA廣域無損等有關AI WAN的驗證,邁出AI WAN演進的關鍵一步。未來,Turkcell將聚焦超寬帶、智算、安全韌性、
    的頭像 發表于 12-17 16:37 ?618次閱讀

    趨勢 | AI 在制程控制中的演進:從基礎 SPC 到智能體 AI 系統

    半導體行業正經歷一場由AI主導的制程控制革命!從沿用多年的傳統統計方法,到如今復雜的智能體協同系統,每一步演進都在改寫行業的效率與控制規則。要知道,在統計制程控制(SPC)、先進制程控制(APC
    的頭像 發表于 12-16 10:24 ?716次閱讀
    芯<b class='flag-5'>趨勢</b> | <b class='flag-5'>AI</b> 在制程控制中的<b class='flag-5'>演進</b>:從基礎 SPC 到智能體 <b class='flag-5'>AI</b> 系統

    從洞察到趨勢:Canva可畫上線 Canva AI并發布 2026 年設計趨勢

    分享會,發布《Canva可畫中國視覺表達洞察》,面向中國市場正式上線 Canva AI,并同步推出《2026 設計趨勢》。活動以洞察、產品和趨勢三條主線,呈現中國用戶在內容創作方式上的變化,
    的頭像 發表于 12-15 17:10 ?582次閱讀
    從洞察到<b class='flag-5'>趨勢</b>:Canva可畫上線 Canva <b class='flag-5'>AI</b>并發布 2026 年設計<b class='flag-5'>趨勢</b>

    從模擬到AI集成:圖像采集卡的技術演進與未來三大趨勢

    軌跡不僅折射出工業自動化與智能感知技術的進步,更預示著未來機器“看懂”世界的全新可能。本文將梳理圖像采集卡從模擬時代到AI集成的技術演進脈絡,并深入剖析其未來三大
    的頭像 發表于 12-15 16:30 ?981次閱讀
    從模擬到<b class='flag-5'>AI</b>集成:圖像采集卡的技術<b class='flag-5'>演進</b>與未來三大<b class='flag-5'>趨勢</b>

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI的科學應用

    主要步驟: ①溯因②假說③實驗 1、科學推理的類型 ①演繹②歸納 2、自動化科學發現框架 AI-笛卡兒-----自動化科學發現框架,利用數據和知識來生成和評估候選的科學假說。 4項規則:三、直覺
    發表于 09-17 11:45

    AI芯片:科技探索與AGI愿景》—— 勾勒計算未來的戰略羅盤

    “AGI曙光”的關鍵路標與潛在挑戰,讓讀者對技術發展的脈絡有了全局性認知。 (圖2:AGI技術演進概念路線圖) 這本書并非只為工程師而寫。它更適合科技政策的制定者、戰略投資者以及所有對未來充滿
    發表于 09-17 09:32

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+內容總覽

    ,其中第一章是概論,主要介紹大模型浪潮下AI芯片的需求與挑戰。第二章和第三章分別介紹實現深度學習AI芯片的創新方法和架構。以及一些新型的算法和思路。第四章是全面介紹半導體芯產業的前沿技術,包括新型晶體管
    發表于 09-05 15:10

    軟通動力受邀出席昇思MindSpore聯席會

    聯席會議,與華為及眾多高校、科研機構、產業伙伴齊聚一堂,圍繞 AI 開源框架的技術演進路徑與生態協作戰略展開深度探討。
    的頭像 發表于 08-01 15:13 ?1346次閱讀

    【書籍評測活動NO.64】AI芯片,從過去走向未來:《AI芯片:科技探索與AGI愿景》

    科學家”的構想富有顛覆性,通過自動化科學發現框架AI能自主生成假說、設計實驗、分析結果,將傳統 “小作坊式” 科研升級為 “批量生產式” 創新。 書中展望,這類系統有望催生諾貝爾獎級別的成果,讓科學
    發表于 07-28 13:54

    Nordic收購 Neuton.AI 關于產品技術的分析

    Nordic Semiconductor 于 2025 年收購了 Neuton.AI,這是一家專注于超小型機器學習(TinyML)解決方案的公司。 Neuton 開發了一種獨特的神經網絡框架,能夠
    發表于 06-28 14:18

    AI演進的核心哲學:使用通用方法,然后Scale Up!

    作者:算力魔方創始人/英特爾創新大使劉力 一,AI演進的核心哲學:通用方法 + 計算能力? Richard S. Sutton在《The Bitter Lesson》一文中提到,“回顧AI研究歷史
    的頭像 發表于 04-09 14:31 ?847次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>演進</b>的核心哲學:使用通用方法,然后Scale Up!