宇樹科技作為國內(nèi)人形機(jī)器人、四足機(jī)器人領(lǐng)域的頭部企業(yè),其開源生態(tài)覆蓋數(shù)據(jù)集、AI模型、開發(fā)框架、仿真工具、硬件SDK、ROS包等全鏈路資源,既面向?qū)W術(shù)研究,也深度適配工業(yè)級(jí)嵌入式開發(fā)需求。下面先系統(tǒng)梳理其開源資料體系,再針對嵌入式開發(fā)者給出精準(zhǔn)的資源利用策略。
官方鏈接:
https://www.unitree.com/cn/opensource


一、宇樹科技開源資料體系:按功能分類解析
宇樹的開源資料高度聚焦“機(jī)器人開發(fā)全流程”,從底層硬件控制到上層AI算法、從仿真驗(yàn)證到實(shí)物部署,形成了完整閉環(huán)。可分為6大類,核心信息如下:
1. embodied AI數(shù)據(jù)集與預(yù)訓(xùn)練模型:機(jī)器人“感知-決策”基礎(chǔ)數(shù)據(jù)
面向機(jī)器人操作任務(wù)的AI模型訓(xùn)練,提供高質(zhì)量標(biāo)注數(shù)據(jù)和成熟模型,降低算法研發(fā)門檻。
?核心數(shù)據(jù)集:
?G1靈巧手操作數(shù)據(jù)集、G1夾爪操作數(shù)據(jù)集、Z1雙臂操作數(shù)據(jù)集:覆蓋“單指/多指抓取、雙臂協(xié)同”等高頻工業(yè)場景,包含力控、視覺、關(guān)節(jié)角度等多模態(tài)數(shù)據(jù)。
?預(yù)訓(xùn)練模型:
?主流模仿學(xué)習(xí)(IL)模型:如DP(Data-efficient Policy)、ACT(Action Chunking with Transformers),已適配宇樹硬件,可直接用于“從人類演示中學(xué)習(xí)操作技能”。
2.機(jī)器人開發(fā)框架:封裝核心算法,支持全流程落地
針對特定開發(fā)目標(biāo)(模仿學(xué)習(xí)、強(qiáng)化學(xué)習(xí))提供模塊化框架,嵌入式開發(fā)者可直接基于框架二次開發(fā),無需從零搭建基礎(chǔ)邏輯。
|
框架名稱
|
核心功能
|
支持硬件
|
開發(fā)價(jià)值
|
|
unitree_IL_lerobot
|
基于LeRobot的模仿學(xué)習(xí)框架,覆蓋“數(shù)據(jù)收集→算法開發(fā)→模型訓(xùn)練→實(shí)物部署”全流程
|
人形機(jī)器人G1、機(jī)械臂Z1、靈巧手Dex3
|
嵌入式開發(fā)者可快速實(shí)現(xiàn)“AI驅(qū)動(dòng)的機(jī)器人操作”,無需關(guān)注算法底層細(xì)節(jié),僅需適配硬件接口
|
|
unitree_rl_gym
|
強(qiáng)化學(xué)習(xí)(RL)實(shí)現(xiàn)倉庫,封裝經(jīng)典RL算法
|
四足機(jī)器人Go2、人形機(jī)器人H1/H1_2、G1
|
用于開發(fā)“自主決策類任務(wù)”(如機(jī)器人避障、動(dòng)態(tài)平衡),支持仿真與實(shí)物端統(tǒng)一調(diào)用
|
3.仿真工具:降低嵌入式開發(fā)“實(shí)物試錯(cuò)成本”
嵌入式開發(fā)中“實(shí)物調(diào)試風(fēng)險(xiǎn)高、周期長”,宇樹提供2類仿真工具,支持“先仿真驗(yàn)證,再實(shí)物部署”。
?unitree_mujoco:
?基于宇樹SDK2和Mujoco物理引擎開發(fā),可無縫集成用unitree_sdk2/unitree_ros2/unitree_sdk2_python寫的控制程序。
?核心價(jià)值:嵌入式開發(fā)者可先在仿真中驗(yàn)證“關(guān)節(jié)控制、運(yùn)動(dòng)規(guī)劃”邏輯,避免因代碼bug損壞硬件(如電機(jī)堵轉(zhuǎn)、機(jī)械臂碰撞)。
?unitree_ros(ROS1)/ unitree_ros2(ROS2):
?包含所有宇樹機(jī)器人的URDF模型(可獲取質(zhì)量、轉(zhuǎn)動(dòng)慣量、關(guān)節(jié)限位等關(guān)鍵硬件參數(shù)),并提供unitree_controller(控制器)、unitree_gazebo(Gazebo仿真包)。
?核心價(jià)值:適配ROS生態(tài),支持用Gazebo快速搭建“多機(jī)器人協(xié)同、傳感器融合”的仿真場景,嵌入式開發(fā)者可基于此做“分布式控制”驗(yàn)證。
4.硬件控制SDK:嵌入式開發(fā)的“底層入口”
SDK是嵌入式開發(fā)者與宇樹機(jī)器人硬件交互的核心工具,按“機(jī)器人類型”和“開發(fā)語言”細(xì)分,覆蓋從“單關(guān)節(jié)控制”到“整機(jī)運(yùn)動(dòng)”的全層級(jí)需求。
(1)多機(jī)器人通用SDK
|
SDK名稱
|
支持硬件
|
開發(fā)語言
|
核心功能
|
嵌入式場景適配
|
|
unitree_legged_sdk
|
四足機(jī)器人Aliengo、A1、Go1
|
|
提供“底層關(guān)節(jié)控制接口”(單關(guān)節(jié)角度/力矩控制)和“高層運(yùn)動(dòng)接口”(指定速度/步態(tài)控制)
|
適用于對實(shí)時(shí)性要求高的場景(如四足機(jī)器人動(dòng)態(tài)平衡),可直接對接嵌入式實(shí)時(shí)系統(tǒng)(如RT-Thread、VxWorks)
|
|
unitree_sdk2
|
四足機(jī)器人Go2/B2、人形機(jī)器人H1
|
C++
|
功能定位與unitree_legged_sdk一致,硬件適配升級(jí)
|
支持新一代機(jī)器人的“高算力硬件”(如H1的軀干計(jì)算單元),接口更簡潔,實(shí)時(shí)性優(yōu)化
|
|
unitree_sdk2_python
|
Go2/B2/H1/G1
|
Python
|
unitree_sdk2的Python封裝
|
適合嵌入式開發(fā)者快速做“原型驗(yàn)證”(如用Python寫簡單的步態(tài)測試腳本),再用C++重構(gòu)底層邏輯
|
(2)機(jī)械臂專用SDK
?z1_controller:Z1機(jī)械臂的“驅(qū)動(dòng)橋梁”,必須單獨(dú)運(yùn)行才能調(diào)用z1_sdk,負(fù)責(zé)硬件通信協(xié)議解析。
?z1_sdk:Z1機(jī)械臂控制核心SDK,提供C++/Python接口:
?底層模式:直接控制每個(gè)關(guān)節(jié)的角度、速度、力矩;
?高層模式:實(shí)現(xiàn)“點(diǎn)到點(diǎn)運(yùn)動(dòng)”(如指定機(jī)械臂末端坐標(biāo))。
?z1_joystick:B1機(jī)器狗搭載Z1時(shí)的“遙控器控制例程”,支持自定義遙控器適配(如替換為工業(yè)遙控器)。
(3)傳感器SDK
針對宇樹自研傳感器,提供二次開發(fā)接口,降低嵌入式“傳感器-機(jī)器人”集成難度:
?電機(jī)SDK:封裝電機(jī)通信協(xié)議,避免嵌入式開發(fā)者手動(dòng)解析CAN/LIN總線數(shù)據(jù),直接調(diào)用“電機(jī)啟停、轉(zhuǎn)速控制”接口。
?4D Lidar SDK:L1/L2激光雷達(dá)的二次開發(fā)SDK,支持獲取點(diǎn)云、IMU數(shù)據(jù)。
?4D Lidar L1 Open Source SLAM:基于Point-LIO算法,僅用L1的點(diǎn)云和內(nèi)置IMU即可完成SLAM(同步定位與地圖構(gòu)建),嵌入式開發(fā)者可直接集成到“機(jī)器人自主導(dǎo)航”模塊。
(4)相機(jī)SDK
?Go1 Camera SDK routines:Go2機(jī)器人相機(jī)的開發(fā)例程,支持獲取RGB、深度圖像,可用于“視覺引導(dǎo)抓取”等場景。
5.遙操作示例:嵌入式“人機(jī)交互”開發(fā)參考
提供2類主流設(shè)備的遙操作方案,嵌入式開發(fā)者可直接復(fù)用“硬件通信邏輯”和“運(yùn)動(dòng)映射算法”:
?Kinect Camera Teleoperation:基于Azure Kinect深度相機(jī)的H1人形機(jī)器人雙臂遙操作程序,實(shí)現(xiàn)“人類動(dòng)作→機(jī)器人動(dòng)作”的實(shí)時(shí)映射。
?Apple Vision Pro Teleoperation:基于AVP(Apple Vision Pro)的H1_2遙操作倉庫,適配VR設(shè)備的空間定位數(shù)據(jù),適合開發(fā)“沉浸式遙操作”(如遠(yuǎn)程工業(yè)裝配)。
6.學(xué)習(xí)與教學(xué)資源:嵌入式入門進(jìn)階工具
?unitree_guide:配合教材《四足機(jī)器人控制算法——建模、控制與實(shí)踐》的開源項(xiàng)目,包含:
?機(jī)器人關(guān)節(jié)電機(jī)控制方法、四足機(jī)器人力控算法;
?同時(shí)配置“仿真環(huán)境”和“實(shí)物開發(fā)環(huán)境”,1-2條命令即可切換。
?核心價(jià)值:嵌入式開發(fā)者可從“基礎(chǔ)控制算法”入手,理解“電機(jī)模型→力控邏輯→步態(tài)規(guī)劃”的底層關(guān)聯(lián),避免直接開發(fā)時(shí)“知其然不知其所以然”。

二、嵌入式開發(fā)者如何精準(zhǔn)利用這些開源資料?
嵌入式開發(fā)的核心需求是“底層硬件控制、實(shí)時(shí)性優(yōu)化、硬件-算法協(xié)同、低成本試錯(cuò)”,需根據(jù)具體開發(fā)場景匹配資源,以下分6類場景給出策略:
場景1:底層電機(jī)/關(guān)節(jié)控制(核心需求:實(shí)時(shí)性、硬件適配)
?推薦資源:unitree_legged_sdk(C++)、unitree_sdk2(C++)、電機(jī)SDK、z1_sdk(底層模式)。
?使用方法:
a.先通過unitree_guide的仿真環(huán)境,理解“電機(jī)力矩控制、關(guān)節(jié)限位保護(hù)”的邏輯(避免實(shí)物調(diào)試時(shí)電機(jī)過載);
b.用C++基于SDK開發(fā)底層驅(qū)動(dòng):直接調(diào)用SDK的“關(guān)節(jié)控制接口”,對接嵌入式硬件的CAN總線(宇樹機(jī)器人電機(jī)多采用CAN通信);
c.重點(diǎn)關(guān)注SDK中的“實(shí)時(shí)性參數(shù)”(如控制周期、數(shù)據(jù)傳輸波特率),適配嵌入式系統(tǒng)的調(diào)度優(yōu)先級(jí)(如在Linux中用RT_PREEMPT補(bǔ)丁優(yōu)化實(shí)時(shí)性)。
場景2:機(jī)器人整機(jī)運(yùn)動(dòng)控制(如四足步態(tài)、人形行走)
?推薦資源:unitree_guide、unitree_sdk2(高層模式)、unitree_mujoco。
?使用方法:
a.從unitree_guide學(xué)習(xí)“四足機(jī)器人力控步態(tài)”的數(shù)學(xué)模型(如足端軌跡規(guī)劃、身體姿態(tài)調(diào)整);
b.在unitree_mujoco中仿真驗(yàn)證“步態(tài)參數(shù)”(如步長、步頻),觀察機(jī)器人是否穩(wěn)定;
c.用unitree_sdk2的高層接口(如“指定速度控制”)將仿真驗(yàn)證后的步態(tài)移植到實(shí)物,僅需修改“硬件偏移參數(shù)”(如不同機(jī)器人的關(guān)節(jié)零位差異)。
場景3:AI +機(jī)器人融合(如視覺抓取、自主避障)
?推薦資源:embodied AI數(shù)據(jù)集、unitree_IL_lerobot、unitree_rl_gym、4D Lidar SLAM、Go1 Camera SDK。
?使用方法:
a.若做“模仿學(xué)習(xí)”(如讓G1手模仿人類抓取):用unitree_IL_lerobot的“數(shù)據(jù)收集模塊”采集人類演示數(shù)據(jù),結(jié)合官方數(shù)據(jù)集訓(xùn)練模型,再通過SDK部署到機(jī)器人;
b.若做“自主導(dǎo)航”:直接集成4D Lidar L1的SLAM倉庫,獲取機(jī)器人位姿,再用unitree_sdk2控制機(jī)器人避障(SLAM輸出的地圖+ SDK的運(yùn)動(dòng)控制結(jié)合);
c.嵌入式優(yōu)化點(diǎn):將AI模型(如ACT)通過TensorRT量化,部署到機(jī)器人的嵌入式算力單元(如H1的NVIDIA Jetson),降低延遲。
場景4:傳感器集成(激光雷達(dá)、相機(jī)與機(jī)器人協(xié)同)
?推薦資源:4D Lidar SDK、Go1 Camera SDK、unitree_ros2。
?使用方法:
a.用傳感器SDK獲取原始數(shù)據(jù)(如L1的點(diǎn)云、Go1相機(jī)的RGB圖),通過unitree_ros2的“話題發(fā)布”功能,將數(shù)據(jù)同步到機(jī)器人的控制節(jié)點(diǎn);
b.嵌入式層需處理“傳感器時(shí)間同步”(如用ROS2的時(shí)間戳機(jī)制,對齊點(diǎn)云、IMU、關(guān)節(jié)數(shù)據(jù)),避免因數(shù)據(jù)延遲導(dǎo)致“控制失準(zhǔn)”(如視覺抓取時(shí)相機(jī)與機(jī)械臂不同步)。
場景5:遙操作功能開發(fā)(如工業(yè)遠(yuǎn)程控制)
?推薦資源:Kinect Camera Teleoperation、Apple Vision Pro Teleoperation、z1_joystick。
?使用方法:
a.復(fù)用示例中的“設(shè)備通信邏輯”(如Azure Kinect的深度數(shù)據(jù)解析、AVP的空間定位數(shù)據(jù)接收);
b.自定義“運(yùn)動(dòng)映射規(guī)則”(如將人類手臂的角度映射到H1的雙臂關(guān)節(jié),需根據(jù)嵌入式硬件的算力調(diào)整映射延遲);
c.基于z1_joystick的例程,適配工業(yè)遙控器(如替換為無線手柄),增加“緊急停止”硬件接口(嵌入式安全開發(fā)核心需求)。
場景6:快速原型驗(yàn)證與學(xué)習(xí)進(jìn)階
?推薦資源:unitree_sdk2_python、unitree_ros(Gazebo)、unitree_guide。
?使用方法:
a.用Python(unitree_sdk2_python)快速寫測試腳本(如控制G1手開合、H1單腿抬起),驗(yàn)證硬件通信是否正常;
b.用unitree_ros的Gazebo環(huán)境,搭建“多機(jī)器人協(xié)同”仿真(如Go2配合Z1搬運(yùn)物體),驗(yàn)證分布式控制邏輯;
c.新手從unitree_guide配合教材入手,先掌握“機(jī)器人建模→控制算法→SDK調(diào)用”的全鏈路,再深入某一方向(如電機(jī)控制、AI部署)。
三、總結(jié):嵌入式開發(fā)的“宇樹開源資源使用邏輯”
宇樹的開源資料不是孤立的,而是“從學(xué)習(xí)→仿真→開發(fā)→部署”的遞進(jìn)關(guān)系:
1.入門層:用unitree_guide+仿真環(huán)境打基礎(chǔ),理解控制原理;
2.原型層:用Python SDK(unitree_sdk2_python)快速驗(yàn)證硬件與算法邏輯;
3.開發(fā)層:用C++ SDK(unitree_sdk2、z1_sdk)做底層開發(fā),優(yōu)化實(shí)時(shí)性;
4.集成層:用框架(unitree_IL_lerobot)+傳感器SDK(Lidar/Camera)做上層功能集成;
5.驗(yàn)證層:用unitree_mujoco/ROS Gazebo做全場景驗(yàn)證,再落地實(shí)物。
嵌入式開發(fā)者無需“面面俱到”,只需根據(jù)自身需求(如專注電機(jī)控制、還是AI部署)錨定核心資源,逐步深入,即可高效利用宇樹的開源生態(tài)降低開發(fā)成本。

-
嵌入式
+關(guān)注
關(guān)注
5204文章
20561瀏覽量
335941 -
人形機(jī)器人
+關(guān)注
關(guān)注
7文章
1013瀏覽量
18525 -
宇樹科技
+關(guān)注
關(guān)注
1文章
57瀏覽量
892
發(fā)布評(píng)論請先 登錄
嵌入式開發(fā)入門指南:從零開始學(xué)習(xí)嵌入式
給初學(xué)嵌入式開發(fā)者的建議
嵌入式開發(fā) 學(xué)習(xí)指導(dǎo) 精選資料分享
基于ARM的嵌入式開發(fā)
嵌入式開發(fā)
嵌入式技術(shù)已經(jīng)無處不在 嵌入式開發(fā)前景如何
學(xué)嵌入式開發(fā)入門_學(xué)嵌入式開發(fā)需要看哪些書籍
如何成為一名合格的嵌入式開發(fā)者?現(xiàn)在了解還不晚!
嵌入式開發(fā)者必備的基礎(chǔ)硬件知識(shí)
AI開發(fā)平臺(tái)如何幫助嵌入式開發(fā)者加速應(yīng)用產(chǎn)品化落地
嵌入式開發(fā)的產(chǎn)品有哪些_嵌入式開發(fā)的流程
嵌入式開發(fā)資料免費(fèi)分享
python做嵌入式開發(fā)_Python和嵌入式的區(qū)別是什么?可以做嵌入式開發(fā)嗎?
AI來襲!嵌入式開發(fā)者該如何應(yīng)對轉(zhuǎn)型?
宇樹科技(Unitree)開源資料全解析與嵌入式開發(fā)者應(yīng)用指南(入局具身智能)
評(píng)論