国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

摩爾線程GPU原生FP8計算助力AI訓練

摩爾線程 ? 來源:摩爾線程 ? 2025-03-17 17:05 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

近日,摩爾線程正式開源MT-MegatronLM與MT-TransformerEngine兩大AI框架。通過深度融合FP8混合訓練策略和高性能算子庫,這兩大框架在國產全功能GPU上實現了高效的混合并行訓練和推理,顯著提升了訓練效率與穩定性。摩爾線程是國內率先原生支持FP8計算精度的國產GPU企業,此次開源不僅為AI訓練和推理提供了全新的國產化解決方案,更對推動國產GPU在AI大模型領域的應用具有重要意義。

▼MT-MegatronLM開源地址:

https://github.com/MooreThreads/MT-MegatronLM

▼MT-TransformerEngine開源地址:

https://github.com/MooreThreads/MT-TransformerEngine

框架介紹

MT-MegatronLM是面向全功能GPU的開源混合并行訓練框架,支持dense模型、多模態模型及MoE(混合專家)模型的高效訓練。該框架利用全功能GPU支持FP8混合精度策略、高性能算子庫muDNN與集合通信庫MCCL,可以顯著提升國產全功能GPU集群的算力利用率。

MT-TransformerEngine主要用于Transformer模型的高效訓練與推理優化,通過算子融合、并行加速策略等技術,充分釋放摩爾線程全功能GPU高密度計算的潛力和memory bound算子的效率。

技術突破與優勢

兩大框架的技術突破集中體現在硬件適配與算法創新的深度協同:

▽混合并行訓練:支持Dense、多模態及MoE模型的混合并行訓練,可靈活應對不同模型架構的復雜運算場景;

▽FP8混合訓練策略:結合摩爾線程GPU原生支持的FP8混合精度訓練策略,能夠有效提升訓練效率;

▽高性能算子庫:通過高性能算子庫muDNN與通信庫MCCL的深度集成,系統性優化了計算密集型任務與多卡協同的通信開銷;同時結合摩爾線程開源Simumax庫,可自動進行并行策略搜索,并針對不同模型和加速環境spec最大化并行訓練性能;

▽異常訓練處理:框架內置的rewind異常恢復機制,可自動回滾至最近穩定節點繼續訓練,大幅提升大規模訓練的穩定性;

▽完整的兼容性:兩個框架兼容GPU主流生態,既保障了現有生態的平滑遷移,也為開發者構建自有的AI技術棧提供了底層支撐。

▼摩爾線程Simumax開源地址:

https://github.com/MooreThreads/SimuMax

實際應用效果

在實際應用中,這兩個框架的充分結合已經取得了顯著的成果。這些成果不僅驗證了框架的技術成熟度,也為國產GPU生態的規模化應用奠定了堅實基礎。

▽高效訓練:在全功能GPU集群上,Llama3 8B模型的訓練任務,可以利用FP8在loss幾乎無損的情況下MFU達到90%以上;(如下圖所示)

4a65906c-fff3-11ef-9310-92fbcf53809c.png

圖注:利用摩爾線程FP8混合精度加速技術在loss無損的情況下得到28%的加速

▽復現DeepSeek 滿血版訓練:摩爾線程已深度集成并開源對DeepSeek并行算法DualPipe的高效支持,MT-DualPipe可以完整接入MT-Megatron框架和MT-TransformerEngine框架,成功實現DeepSeek V3訓練流程的完整復現,支持MLA、MTP及多種專家平衡策略;

▽性能大幅優化:通過多種Transformer算子融合技術,顯著提升了內存帶寬利用率,有效緩解memory bound瓶頸,進一步釋放國產GPU的硬件潛力。

持續優化與生態共建

為加速國產GPU生態發展與建設,摩爾線程將持續優化MT-MegatronLM與MT-TransformerEngine框架,并引入一系列創新功能:

▽Dual Pipe/ZeroBubble并行策略:進一步降低氣泡率,提升并行訓練效率;

▽多種FP8優化策略:獨創的FP8優化策略,提高訓練的性能和穩定性;

▽異步checkpoint策略:提高訓練過程中的容錯能力和效率;

▽優化后的重計算策略:減少計算和顯存開銷,提高訓練速度;

▽容錯訓練策略:獨創的容錯訓練算法,增強訓練過程中的容錯能力;

▽集成摩爾線程FlashMLA和DeepGemm庫:進一步釋放摩爾線程GPU的算力和FP8計算能力,提升計算性能和效率。

摩爾線程始終致力于推動開源生態的發展,通過技術開放與生態共建,加速國產全功能GPU在AI計算領域的規模化應用,為更多用戶提供更智能、高效的解決方案。

▼ 關于摩爾線程

摩爾線程成立于2020年10月,以全功能GPU為核心,致力于向全球提供加速計算的基礎設施和一站式解決方案,為各行各業的數智化轉型提供強大的AI計算支持。

我們的目標是成為具備國際競爭力的GPU領軍企業,為融合人工智能和數字孿生的數智世界打造先進的加速計算平臺。我們的愿景是為美好世界加速。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • gpu
    gpu
    +關注

    關注

    28

    文章

    5177

    瀏覽量

    135127
  • AI
    AI
    +關注

    關注

    91

    文章

    39489

    瀏覽量

    300688
  • 開源
    +關注

    關注

    3

    文章

    4173

    瀏覽量

    45933
  • 摩爾線程
    +關注

    關注

    2

    文章

    276

    瀏覽量

    6405

原文標題:開源MT-MegatronLM和MT-TransformerEngine|摩爾線程GPU原生FP8計算助力AI訓練

文章出處:【微信號:moorethreads,微信公眾號:摩爾線程】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    摩爾線程MTT S5000率先完成對GLM-5的適配

    的算子覆蓋與強大的生態兼容能力,摩爾線程成功打通了模型推理全鏈路,并深度釋放MTT S5000的原生FP8加速能力,在確保模型精度的同時顯著降低了顯存占用,實現了GLM-5的高性能推理
    的頭像 發表于 02-12 10:34 ?378次閱讀
    <b class='flag-5'>摩爾</b><b class='flag-5'>線程</b>MTT S5000率先完成對GLM-5的適配

    Day-0支持|摩爾線程MTT S5000率先完成對GLM-5的適配

    的算子覆蓋與強大的生態兼容能力,摩爾線程成功打通了模型推理全鏈路,并深度釋放MTT S5000的原生FP8加速能力,在確保模型精度的同時顯著降低了顯存占用,實現了GLM-5的高性能推理
    發表于 02-12 09:15 ?169次閱讀
    Day-0支持|<b class='flag-5'>摩爾</b><b class='flag-5'>線程</b>MTT S5000率先完成對GLM-5的適配

    摩爾線程正式開源TileLang-MUSA項目

    近日,摩爾線程正式開源TileLang-MUSA項目,實現對TileLang編程語言的完整支持。該項目已成功在摩爾線程多代全功能GPU上完成
    的頭像 發表于 02-11 16:57 ?969次閱讀

    全棧國產AI Coding上線:摩爾線程+硅基流動+智譜,強強聯合!

    摩爾線程今日正式推出AI Coding Plan 智能編程服務。作為首個基于國產全功能 GPU 算力底座構建的智能開發解決方案,該服務以 MTT S5000 強勁的全精度
    的頭像 發表于 02-03 17:07 ?1268次閱讀
    全棧國產<b class='flag-5'>AI</b> Coding上線:<b class='flag-5'>摩爾</b><b class='flag-5'>線程</b>+硅基流動+智譜,強強聯合!

    摩爾線程公布全功能GPU架構路線圖:以“花港”新架構與萬卡訓練集群,開啟自主算力新時代

    2025年12月20日,北京——摩爾線程首屆MUSA開發者大會(簡稱:MDC 2025)在北京中關村國際創新中心正式開幕。作為國內首個聚焦全功能GPU的開發者技術盛會,大會系統展示了摩爾
    發表于 12-20 12:51 ?1075次閱讀
    <b class='flag-5'>摩爾</b><b class='flag-5'>線程</b>公布全功能<b class='flag-5'>GPU</b>架構路線圖:以“花港”新架構與萬卡<b class='flag-5'>訓練</b>集群,開啟自主算力新時代

    摩爾線程新一代GPU架構即將揭曉

    12月19日至20日,摩爾線程首屆MUSA開發者大會(MUSA Developer Conference,簡稱MDC 2025)將在北京中關村國際創新中心拉開帷幕。作為國內首個聚焦全功能GPU
    的頭像 發表于 12-13 15:14 ?2017次閱讀

    摩爾線程亮相GOTC 2025全球開源技術峰會

    摩爾線程高級副總裁楊上山在主論壇發表《摩爾線程全功能GPU原生支持開源生態》的主題演講,系統闡
    的頭像 發表于 11-04 10:43 ?2129次閱讀

    摩爾線程吳慶詳解 MUSA 軟件棧:以技術創新釋放 KUAE 集群潛能,引領 GPU 計算新高度?

    的分享。GPU 計算軟件開發總監吳慶登上講臺,發表了題為《摩爾線程 MUSA 軟件棧助力 KUAE 集群釋放無限潛能》的演講。他從專業視角出
    的頭像 發表于 07-28 13:47 ?5977次閱讀
    <b class='flag-5'>摩爾</b><b class='flag-5'>線程</b>吳慶詳解 MUSA 軟件棧:以技術創新釋放 KUAE 集群潛能,引領 <b class='flag-5'>GPU</b> <b class='flag-5'>計算</b>新高度?

    摩爾線程亮相WAIC 2025:以“AI工廠”理念驅動算力進化,全棧AI應用賦能千行百業

    模型的“超級工廠”。此次參會不僅彰顯了摩爾線程AI基礎設施領域的系統性創新,更通過多行業案例展現了國產GPU技術的廣泛應用前景。 ? ? 首提“A
    的頭像 發表于 07-28 11:34 ?2028次閱讀
    <b class='flag-5'>摩爾</b><b class='flag-5'>線程</b>亮相WAIC 2025:以“<b class='flag-5'>AI</b>工廠”理念驅動算力進化,全棧<b class='flag-5'>AI</b>應用賦能千行百業

    摩爾線程AI工廠”:五大核心技術支撐,打造大模型訓練超級工廠

    演講中表示,為應對生成式AI爆發式增長下的大模型訓練效率瓶頸,摩爾線程將通過系統級工程創新,構建新一代AI
    的頭像 發表于 07-28 11:28 ?4484次閱讀
    <b class='flag-5'>摩爾</b><b class='flag-5'>線程</b>“<b class='flag-5'>AI</b>工廠”:五大核心技術支撐,打造大模型<b class='flag-5'>訓練</b>超級工廠

    摩爾線程AI工廠”:以系統級創新定義新一代AI基礎設施

    演講中表示,為應對生成式AI爆發式增長下的大模型訓練效率瓶頸,摩爾線程將通過系統級工程創新,構建新一代AI
    發表于 07-28 10:34 ?2745次閱讀
    <b class='flag-5'>摩爾</b><b class='flag-5'>線程</b>“<b class='flag-5'>AI</b>工廠”:以系統級創新定義新一代<b class='flag-5'>AI</b>基礎設施

    摩爾線程AI算力平臺AutoDL達成深度合作

    近日,摩爾線程與國內領先的AI算力平臺AutoDL宣布達成深度合作,雙方聯合推出面向個人開發者的“摩爾線程專區”,首次將國產
    的頭像 發表于 05-23 16:10 ?1655次閱讀

    摩爾線程發布Torch-MUSA v2.0.0版本 支持原生FP8和PyTorch 2.5.0

    , 支持原生FP8數據類型,支持PyTorch 2.5.0 ,并通過多項針對MUSA計算平臺的性能優化,進一步提升了對AI模型和大規模數據處理的支持能力。
    的頭像 發表于 05-11 16:41 ?1566次閱讀

    摩爾線程全面支持DeepSeek開源周成果

    DeepSeek開源周正式收官,作為國內率先原生支持FP8計算精度的國產GPU企業,摩爾線程迅速
    的頭像 發表于 03-04 10:06 ?1007次閱讀

    摩爾線程完成DeepSeek開源庫FlashMLA和DeepGEMM適配

    自DeepSeek啟動“開源周”以來,已陸續開源三個代碼庫。摩爾線程基于全新MUSA Compute Capability 3.1計算架構,可提供原生
    的頭像 發表于 02-27 14:40 ?1407次閱讀