伦伦影院久久影视,天天操天天干天天射,ririsao久久精品一区 ,一本大道香蕉大久在红桃,999久久久免费精品国产色夜,色悠悠久久综合88,亚洲国产精品久久无套麻豆,亚洲香蕉毛片久久网站,一本一道久久综合狠狠老

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

摩爾線程正式開源MuJoCo Warp MUSA

摩爾線程 ? 來源:摩爾線程 ? 2026-04-01 10:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

3月30日,摩爾線程正式開源MuJoCo Warp MUSA。這是具身智能領域首個基于MUSA架構的全功能GPU加速物理仿真后端,補齊了國產算力在強化學習仿真訓練底層生態中的關鍵一環。

長期以來,大規模強化學習仿真訓練高度依賴單一國際算力架構。尤其在機器人運控訓練場景中,物理仿真、并行環境調度與大規模訓練任務對底層算力平臺和軟件棧提出了極高要求,國產算力在這一領域長期缺乏可用、完整的基礎支撐。

MuJoCo Warp MUSA的開源,標志著國產全功能GPU在強化學習仿真訓練領域實現了從無到有的突破。通過打通云側大規模訓練與端側自研SoC芯片部署路徑,摩爾線程率先為機器人仿真領域提供了可落地、可驗證的全棧國產算力參考方案。該方案通過全鏈路并行加速與高效分布式擴展,在足式機器人運控訓練任務中實現了相較CPU最高40倍的訓練加速。

MuJoCo Warp MUSA:

為MuJoCo引入MUSA原生支持

MuJoCo(Multi-Joint dynamics with Contact)是由神經科學家Emo Todorov開發、現由DeepMind維護的高精度物理引擎。憑借對多關節機器人、摩擦、碰撞、肌肉與電機驅動等復雜物理交互的穩定模擬能力,MuJoCo已成為學術界與工業界廣泛使用的物理仿真平臺之一,OpenAI Gym、dm_control等標準模擬平臺均已集成MuJoCo作為物理仿真后端。

早期開源的MuJoCo主要基于CPU運行,在復雜接觸場景和海量強化學習樣本生成任務中,性能瓶頸較為明顯。為提升效率,MuJoCo團隊與國際主流GPU廠商合作,基于Warp編程語言推出了GPU加速版本MuJoCo Warp。

此次,摩爾線程為MuJoCo Warp增加了對MUSA架構的原生支持,使MuJoCo物理引擎能夠直接調用摩爾線程全功能GPU,加速機器人物理仿真與強化學習訓練任務。

b8ae9f98-2c28-11f1-90a1-92fbcf53809c.png

圖注:MuJoCo Warp MUSA機器人仿真訓練的階段性過程Viser回放。

關鍵測試結果

*更多測試結果可參見摩爾線程開發者公眾號

▼基礎單元測試:MuJoCo Warp MUSA與MuJoCo Warp CPU版本完成嚴格一致性對齊,單個仿真步長計算結果的絕對誤差控制在 1e-5 以內,并通過 Viewer 可視化驗證,對比結果如下:

b904d1a6-2c28-11f1-90a1-92fbcf53809c.gif

視頻:Humanoid GPU-CPU 對比測試,配置參數如下。

nbody:17

solver:NEWTON

iterations:10

integrator:EULER

b9716708-2c28-11f1-90a1-92fbcf53809c.gif

視頻:LeRobot GPU-CPU 對比測試,配置參數如下。

nbody:10

solver:NEWTON

iterations:10

integrator:EULER

▼四足機器狗訓練:在宇樹Go2四足機器狗平地運控任務中,MTT S5000單卡處理4096個仿真環境僅需7~8 秒,相較多核CPU的280~300秒,實現最高約40倍加速,單卡1小時完成收斂,大幅縮短了訓練周期。

b9d7854c-2c28-11f1-90a1-92fbcf53809c.png

圖注:Go2機器狗平地環境運控,關鍵訓練配置參數如下。

num environment:4096

solver:newton with PCG 10 iterations

ccd_iterations:50

num_steps_per_env:24

decimation:4

ba300eba-2c28-11f1-90a1-92fbcf53809c.png

▼兩足人形機器人訓練:在宇樹G1人形機器人動作跟蹤任務中,MTT S5000單卡約4.8天完成模仿學習收斂,驗證了MuJoCo Warp MUSA在高難度人形機器人任務中的穩定性。

ba84e386-2c28-11f1-90a1-92fbcf53809c.gif

圖注:G1人形機器人動作跟蹤(Motion Tracking)訓練實驗。

bb05f0b6-2c28-11f1-90a1-92fbcf53809c.png

▼分布式GPU加速測試:在數據并行策略下,MuJoCo Warp MUSA支持多卡近線性擴展,8卡訓練收斂加速達8倍以上,32卡最快約3.6小時完成訓練。

bb5c475e-2c28-11f1-90a1-92fbcf53809c.png

圖注:G1人形機器人動作跟蹤訓練,MTT S5000單卡與8卡訓練結果對比。

bbb86a84-2c28-11f1-90a1-92fbcf53809c.png

圖注:分布式加速性能。表中“時間”為單步仿真耗時,“倍數”為訓練收斂加速比。如上表所示,采用數據并行(Data Parallelism)策略:每張GPU運行4096個env環境,一共同時計算8×4096 = 32,768個env,進行分布式并行仿真,收斂速度隨GPU數量增加接近線性提升,而單次迭代耗時基本不變。

Sim2Real真機驗證:四足機器狗與兩足人形機器人均已完成真機驗證,訓練策略可穩定遷移至真實機器人,展現出良好的動作跟蹤精度、動態平衡能力與現實部署可行性。

bc0ead7c-2c28-11f1-90a1-92fbcf53809c.gif

圖注:兩足人形機器人真機驗證,高精度跟蹤舞蹈動作軌跡。

從訓練到部署:

自研SoC芯片協同,打通云邊端

MuJoCo Warp MUSA的意義不僅在于訓練加速,更在于進一步打通從仿真訓練到真實部署的關鍵鏈路。

在真機部署階段,機器人本體采用摩爾線程自研的長江SoC芯片作為端側控制核心。該芯片不僅可以滿足基礎運控策略的實時執行需求,也可支持語音 TTS、ASR、各類 CV 模型以及端側大模型部署。

通過“云側大規模訓練加速 + 端側高效執行部署”的協同,摩爾線程初步構建起了從仿真訓練到真機部署的完整閉環支持,也為具身智能終端提供了全棧的國產算力支撐。

bc83a992-2c28-11f1-90a1-92fbcf53809c.png

圖注:正在進行策略部署調試中的機器狗,端側控制采用摩爾線程長江SoC芯片。

bcdd9452-2c28-11f1-90a1-92fbcf53809c.gif

圖注:使用摩爾線程長江SoC芯片對機器狗進行端側控制的真機運行效果。

開源共建:

持續完善國產具身智能基礎設施

MuJoCo Warp MUSA 的開源,是摩爾線程在機器人仿真方向邁出的關鍵一步,也為國產具身智能生態補上了重要的底層能力。

通過提供自主可控的物理仿真加速方案,摩爾線程希望為開發者與科研機構提供了更具可行性的國產技術底座,加速推動機器人從虛擬訓練走向真實應用。

后續,摩爾線程將持續優化MUSA軟件棧,并計劃將當前成果進一步整合重構為通用的機器人仿真訓練平臺Lambda Lab,面向具身智能開發者持續推進開源共建。

MTT KUAE 開放試用申請:

https://metapark.mthreads.com/kuaetry

MuJoCo Warp MUSA開源地址:

https://github.com/MooreThreads/mujoco_warp_musa

*以上測試數據、視頻及圖片均來源于摩爾線程具身智能實驗室。

關于摩爾線程

摩爾線程以全功能GPU為核心,致力于向全球提供加速計算的基礎設施和一站式解決方案,為各行各業的數智化轉型提供強大的AI計算支持。

我們的目標是成為具備國際競爭力的GPU領軍企業,為融合人工智能和數字孿生的數智世界打造先進的加速計算平臺。我們的愿景是為美好世界加速。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • gpu
    gpu
    +關注

    關注

    28

    文章

    5243

    瀏覽量

    135943
  • 算力
    +關注

    關注

    2

    文章

    1612

    瀏覽量

    16816
  • 摩爾線程
    +關注

    關注

    2

    文章

    283

    瀏覽量

    6594

原文標題:摩爾線程開源MuJoCo Warp MUSA:實現國產全功能GPU在強化學習仿真訓練領域突破

文章出處:【微信號:moorethreads,微信公眾號:摩爾線程】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    摩爾線程MTT S5000全面適配Qwen3.5三款新模型

    開源Qwen3.5-397B-A17B之后,阿里再次宣布開源千問3.5最新三款中等規模模型:Qwen3.5-35B-A3B、Qwen3.5-122B-A10B、Qwen3.5-27B。摩爾
    的頭像 發表于 02-26 16:23 ?626次閱讀

    摩爾線程快速完成對Qwen3.5模型全面適配

    2月17日,摩爾線程宣布已在旗艦級AI訓推一體全功能GPU MTT S5000上完成對阿里最新大模型Qwen3.5的全方位適配。此次支持充分展示了摩爾線程
    發表于 02-18 08:32 ?1102次閱讀

    Day-0支持|摩爾線程完成MiniMax M2.5模型極速適配

    2月14日,摩爾線程在其旗艦級AI訓推一體全功能GPU MTT S5000上,成功實現了對MiniMax新一代大模型MiniMax M2.5的Day-0極速適配。 在此次適配工作中,摩爾線程
    發表于 02-15 08:01 ?1549次閱讀

    摩爾線程正式開源TileLang-MUSA項目

    近日,摩爾線程正式開源TileLang-MUSA項目,實現對TileLang編程語言的完整支持。該項目已成功在摩爾
    的頭像 發表于 02-11 16:57 ?1602次閱讀

    格靈深瞳亮相摩爾線程首屆MUSA開發者大會

    12月20-21日,摩爾線程首屆MUSA開發者大會(MDC 2025)在北京中關村國際創新中心舉辦。在分論壇上,格靈深瞳研發副總裁、AI Infra負責人閆梓禎分享主題演講《視覺智能應用高效落地秘籍
    的頭像 發表于 12-26 14:52 ?480次閱讀

    摩爾線程在MDC 2025重磅發布全棧創新成果

    12月20日,在首屆MUSA開發者大會上,摩爾線程創始人、董事長兼CEO張建中發表主題演講,系統展示了以自主MUSA統一架構為核心的全棧創新成果,全面展現公司在技術和生態上的關鍵突破與
    的頭像 發表于 12-22 18:04 ?1540次閱讀

    國產GPU技術與生態雙重突破,摩爾線程舉辦首屆MUSA開發者大會

    2025年12月20日,摩爾線程首屆MUSA開發者大會(MDC 2025)于北京中關村國際創新中心正式開幕。本次大會以自主計算創新與開發者生態共建為核心議題,吸引2000多名來自產學研的專業人士
    發表于 12-20 12:45 ?2109次閱讀
    國產GPU技術與生態雙重突破,<b class='flag-5'>摩爾</b><b class='flag-5'>線程</b>舉辦首屆<b class='flag-5'>MUSA</b>開發者大會

    摩爾線程新一代GPU架構即將揭曉

    12月19日至20日,摩爾線程首屆MUSA開發者大會(MUSA Developer Conference,簡稱MDC 2025)將在北京中關村國際創新中心拉開帷幕。作為國內首個聚焦全功
    的頭像 發表于 12-13 15:14 ?2152次閱讀

    摩爾線程發布Torch-MUSA v2.7.0版本

    近日,摩爾線程正式發布PyTorch深度學習框架的MUSA擴展庫——Torch-MUSA v2.7.0,新版本在功能集成、性能優化與硬件支持方面實現進一步突破。Torch-
    的頭像 發表于 12-04 09:05 ?1238次閱讀

    摩爾線程亮相GOTC 2025全球開源技術峰會

    。摩爾線程高級副總裁楊上山在主論壇發表《摩爾線程全功能GPU原生支持開源生態》的主題演講,系統闡述了摩爾
    的頭像 發表于 11-04 10:43 ?2242次閱讀

    摩爾線程發布Torch-MUSA v2.1.1版本

    近日,摩爾線程發布其面向PyTorch深度學習框架的MUSA擴展庫——Torch-MUSA v2.1.1。該版本在v2.1.0的基礎上,進一步擴展了對大規模深度學習模型訓練與推理的支持
    的頭像 發表于 09-10 11:02 ?1159次閱讀

    摩爾線程吳慶詳解 MUSA 軟件棧:以技術創新釋放 KUAE 集群潛能,引領 GPU 計算新高度?

    的分享。GPU 計算軟件開發總監吳慶登上講臺,發表了題為《摩爾線程 MUSA 軟件棧助力 KUAE 集群釋放無限潛能》的演講。他從專業視角出發,為在場聽眾深入剖析了 MUSA 軟件棧在
    的頭像 發表于 07-28 13:47 ?6300次閱讀
    <b class='flag-5'>摩爾</b><b class='flag-5'>線程</b>吳慶詳解 <b class='flag-5'>MUSA</b> 軟件棧:以技術創新釋放 KUAE 集群潛能,引領 GPU 計算新高度?

    摩爾線程率先支持騰訊混元-A13B模型

    近日,騰訊正式開源基于專家混合(MoE)架構的大語言模型混元-A13B。同日,摩爾線程團隊憑借技術前瞻性,率先完成該模型在全功能GPU的深度適配與高效支持。這一成果充分彰顯了MUSA
    的頭像 發表于 07-04 14:10 ?974次閱讀

    摩爾線程發布Torch-MUSA v2.0.0版本 支持原生FP8和PyTorch 2.5.0

    近日,摩爾線程正式發布Torch-MUSA v2.0.0版本,這是其面向PyTorch深度學習框架的MUSA擴展庫的重要升級。新版本基于MUSA
    的頭像 發表于 05-11 16:41 ?1826次閱讀

    摩爾線程GPU率先支持Qwen3全系列模型

    近日,阿里云正式發布Qwen3系列的8款開源混合推理模型。摩爾線程團隊在模型發布當天,率先完成了Qwen3全系列模型在全功能GPU上的高效支持。這一成果充分展現了MUSA架構及全功能G
    的頭像 發表于 05-07 15:24 ?1103次閱讀