国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

使用myAGV、Jetson Nano主板和3D攝像頭,實現了RTAB-Map的三維建圖功能!

大象機器人科技 ? 來源:大象機器人科技 ? 作者:大象機器人科技 ? 2024-08-28 10:22 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

引言
在現代機器人技術中,高精度的環境感知與建圖是實現自主導航的關鍵。本文將展示如何使用myAGV Jetson Nano移動平臺搭載Jetson Nano BO1主板,結合RTAB-Map和3D相機,實現更加立體和細致的環境建圖。myAGV Jetson Nano具備SLAM雷達導航功能,Jetson Nano提供了強大的計算能力,適合處理復雜的SLAM任務。通過引入3D攝像頭,我們能夠將攝像頭采集的深度信息融入到地圖中,使其不僅具有平面數據,還包含了豐富的立體信息。在本文中,我們將詳細介紹這一過程中使用的技術,以及解決實施中遇到的問題。

背景與需求分析
在機器人自主導航中,精確的環境感知和地圖構建至關重要。傳統的二維SLAM技術雖然能夠實現實時定位和建圖,但在復雜的三維空間中,往往無法充分描述環境的立體結構。

為了解決這一問題,我們選擇了myAGV Jetson Nano,該產品具備高性能的SLAM雷達導航能力和強大的計算處理能力,非常適合復雜環境下的自主任務。然而,二維SLAM在描述立體空間時仍顯不足。因此,我們引入了3D攝像頭,通過捕捉環境的深度信息,生成更加立體和細致的三維地圖,提升機器人的環境感知能力。

為了實現這一目標,我們采用了RTAB-Map作為建圖工具,它能夠處理RGB-D數據并支持實時的三維建圖與定位。通過將RTAB-Map與3D攝像頭結合在這款產品上使用,我們希望在復雜環境中實現高精度的三維SLAM建圖,滿足實際應用的需求。

產品
myAGV Jetson Nano
myAGV Jetson Nano 2023采用NVIDIA? Jetson Nano B01 4GB核心主板,搭配大象機器人專為機器人定制的Ubuntu Mate 20.04 操作系統,流暢易用;myAGV 2023具備2D建圖與導航、3D建圖與導航、圖形化編程、可視化軟件、ROS仿真、手柄鍵盤控制等多鐘功能,是科研教育、個人創客的首選。

wKgaombOiFyACNN3AAVWAqMYlVM966.png

Astra Pro2
Astra Pro2深度相機是基于3D 結構光成像技術獲取物體的深度圖像,同時利用彩色相機采集物體的彩色圖像,適用于0.6m-6m 距離進行3D物品和空間掃描的智能產品,可實現測量距離內的物體深度數據測量。作為Astra系列的迭代升級產品,Astra Pro 2配置MX6000自研深度感知芯片,最高支持1280x1024深度圖像,自帶多分辨率下深度圖像與彩色圖像空間對齊功能,可廣泛應用于機器人避障、低精度3D測量、體感交互等場景。具備RGB-D功能,能夠捕捉彩色圖像和深度信息,用于生成三維地圖。

wKgZombOiJ2AUghNAAHDx2Tdy6M453.png

所有所需要的依賴的功能包,在myAGV所安裝的額ubuntu 20.04系統中已經按照好,我們可以直接使用ROS當中的rtabmap以及astra pro2的功能包。

rtabmap 實現
myagv 已經打包好了一些基本的功能我們直接使用,在這個過程中分析一下他們的功能。

啟動程序
首先得啟動里程記和雷達。

roslaunch myagv_odometry myagv_active.launch

myagv_active.launch啟動文件負責初始化和啟動與機器人運動估計和傳感器數據獲取相關的核心組件。



   
    
   
   
   
   
   
   
       
   
     
     
     
     
     
     
     
     
-->
   
 
   

myagv_odometry_node:啟動里程計節點,用于計算機器人在環境中的位置和姿態。

robot_description參數:加載機器人的URDF文件(統一機器人描述格式),描述機器人的物理結構。

joint_state_publisher和robot_state_publisher:發布機器人的關節狀態和機器人的整體狀態信息。

static_transform_publisher:定義固定的坐標變換,用于將機器人基座和傳感器(如相機、IMU)之間的相對位置和姿態聯系起來。

robot_pose_ekf:使用擴展卡爾曼濾波器(EKF)融合里程計、IMU等傳感器數據,提供更精確的機器人位姿估計。

ydlidar_ros_driver:啟動激光雷達(LiDAR)驅動節點,用于獲取環境的激光掃描數據。

然后是啟動astra pro2 深度相機

roslaunch orbbec_camera astra_pro2.launch

它設置了必要的ROS節點來處理相機的RGB-D數據流,包括初始化相機、設置圖像和深度處理的各種參數,并將相機數據發布到ROS主題,以供其他節點(如SLAM或物體檢測)使用。

里面已經默認設置好了一些必要的參數,如果需要修改的話請按照官方文檔提供的sdk進行修改:3D視覺AI開放平臺

例如一下參數:

/camera/color/camera_info : 彩色相機信息(CameraInfo)話題。
/camera/color/image_raw: 彩色數據流圖像話題。
/camera/depth/camera_info: 深度數據流圖像話題。
/camera/depth/image_raw: 紅外數據流圖像話題。
/camera/depth/points : 點云話題,僅當 enable_point_cloud 為 true 時才可用`.
/camera/depth_registered/points: 彩色點云話題,僅當 enable_colored_point_cloud 為 true 時才可用。
/camera/ir/camera_info: 紅外相機信息(CameraInfo)話題。
/camera/ir/image_raw: 紅外數據流圖像話題。

緊接著啟動rtabmap啟動文件建圖就可以開始建圖了。

roslaunch myagv_navigation rtabmap_mapping.launch

 
 
   
 

   
   
   
     
     
     
      
     
     
      
   

   
         
         
         
         
         

         
         
         

         

         
         
         
         
         
         
          
         
          
         
         
         
         
   
 
     
 
 

啟動組(group):

● 將RTAB-Map相關的節點分組,使得它們共享相同的命名空間(rtabmap),方便管理和數據處理。

RGB-D同步節點(rgbd_sync):

● 啟動一個用于同步RGB圖像和深度圖像的節點,將攝像頭的原始圖像數據轉換成RTAB-Map可以處理的格式。

RTAB-Map SLAM節點:

● 啟動RTAB-Map SLAM算法,配置SLAM相關的參數,如訂閱的傳感器數據、隊列大小、以及優化和ICP(迭代最近點算法)相關的參數。該節點負責實時處理傳感器數據,生成環境地圖并估計機器人的位姿。

RViz可視化:

● 啟動RViz,用于實時可視化RTAB-Map生成的地圖和機器人的位姿。

靜態變換發布(tf):

● 定義并發布激光雷達和機器人體框架之間的固定坐標變換,確保SLAM算法能夠正確地將傳感器數據對齊到相同的坐標系中。

接下來看看效果如何。

wKgZombOiXmADE8uACF7tVBsJA8239.png

效果也不是特別特別的流暢

wKgaombOiYCAPwQLAA94JZ5tRbQ565.png

問題
實現是實現了基本的建圖,但是從圖片中看,即使是Jetson Nano的主板,在性能上還是有所欠缺,在建圖的時候還是會有所卡頓。

所以有沒有辦法,來解決這個問題呢,能夠保證相對完整的建圖。

答案是當然有。

那就是ROS的多機通訊!

解決辦法
ROS多機通訊
ROS多機通信指的是在多個計算設備之間通過ROS網絡共享信息和任務的能力。這在處理復雜機器人應用時特別有用,比如當單個設備(如Jetson Nano)無法處理所有計算任務時,可以通過網絡將部分任務分擔給其他設備(如一臺性能更強的PC)。

簡而言之就是,Jetson Nano主板負責處理slam的一些計算,用一臺性能強的PC來處理深度相機得到圖形處理。

1. 配置網絡

● 確保PC和Jetson Nano在同一個網絡下,并可以互相通信。

● 設置每臺設備的ROS環境變量,主要是ROS_MASTER_URI和ROS_IP或ROS_HOSTNAME。

PC:
export ROS_MASTER_URI=http://:11311
export ROS_IP=

Jetson
export ROS_MASTER_URI=http://:11311
export ROS_IP=

2. 啟動核心節點

在PC端上啟動核心節點,這樣Jetson Nano可以通過多機通信與PC的ROS核心進行通信

3. 節點分布

● PC端(SLAM建圖):在PC上運行RTAB-Map節點,訂閱來自Jetson Nano的傳感器數據,并進行SLAM建圖。

● Jetson Nano端(圖形處理):Jetson Nano運行傳感器驅動節點(如深度相機),并發布圖像和深度數據。

● 同時,可以運行圖形處理節點,處理訂閱的SLAM結果或地圖數據。

4. 數據傳輸

通過ROS topics在PC和Jetson Nano之間傳遞數據。例如,Jetson Nano可以將相機的RGB-D數據發布到/camera/color/image_raw和/camera/depth/image_raw等主題,PC端的RTAB-Map節點則訂閱這些主題。

來看建圖的效果,是不是比之前的流暢了許多。

總結
在本次技術案例中,我們成功地使用這款產品結合Jetson Nano主板和3D攝像頭,實現了RTAB-Map的三維建圖功能。

然而,在實施過程中,我們遇到了性能瓶頸的問題,特別是在Jetson Nano主板上運行復雜的SLAM算法時,計算負荷較重,導致實時性和穩定性受到一定影響。為了解決這一問題,我們引入了多機通訊技術,將部分計算任務分配到另一臺計算機上進行處理,從而減輕了Jetson Nano的負擔。通過這一優化方案,不僅提高了系統的整體性能,還確保了SLAM建圖過程的流暢和高效。

審核編輯 黃宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 機器人
    +關注

    關注

    213

    文章

    31074

    瀏覽量

    222189
  • 主板
    +關注

    關注

    54

    文章

    2360

    瀏覽量

    76815
  • nano
    +關注

    關注

    1

    文章

    162

    瀏覽量

    32062
  • SLAM
    +關注

    關注

    24

    文章

    457

    瀏覽量

    33324
  • 大象機器人
    +關注

    關注

    0

    文章

    86

    瀏覽量

    376
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    ESP32-S3在初始化攝像頭時檢測到攝像頭模組型號不被支持

    (WROOM-32)不同,接錯引腳會直接導致探測失??!以下是OV2640/OV5640與ESP32-S3的標準接線表(兼容大部分開發板): 攝像頭引腳 ESP32-S3引腳 功能說明
    發表于 02-11 06:38

    【正點原子STM32N647開發板試用】--攝像頭屏顯

    本篇講述實現攝像頭畫面LCD屏幕顯示,即顯示屏與攝像頭功能整合在一起。 一.硬件原理與準備 1.LCD觸摸顯示屏 開發板配備有一塊4.3寸RGB LCD觸摸(電容)顯示屏,分辨率480*800。可以
    發表于 01-25 14:51

    【EASY EAI Nano-TB(RV1126B)開發板試用】桌面系統功能測試-驅動攝像頭-Mediapipe人體姿態檢測1

    Nano-TB(RV1126B)開發板的桌面系統配置、攝像頭連接驗證及OpenCV圖像采集流程的詳細說明,為開發者提供完整的入門實踐指南。該平臺憑借其強大的NPU算力(3TOPS)
    發表于 12-19 19:41

    自動駕駛既然有雙目攝像頭,為什么還要攝像頭?

    視覺系統中。 但在實地落地時,有些廠商并未止步于雙目,而是選擇攝像頭的方案。為什么有雙目,還要選擇
    的頭像 發表于 12-09 08:59 ?974次閱讀
    自動駕駛既然有雙目<b class='flag-5'>攝像頭</b><b class='flag-5'>了</b>,為什么還要<b class='flag-5'>三</b>目<b class='flag-5'>攝像頭</b>?

    一文讀懂 | 三維視覺領域國家級制造業單項冠軍——先臨三維的品牌布局

    ,推動高精度三維視覺技術的普及應用。2024年,先臨三維營業收入超12億元,業務遍及全球100+個國家和地區。 先臨三維的高精度三維視覺技術深度應用于高精度工業
    的頭像 發表于 11-11 14:55 ?692次閱讀
    一文讀懂 | <b class='flag-5'>三維</b>視覺領域國家級制造業單項冠軍——先臨<b class='flag-5'>三維</b>的品牌布局

    【CPKCOR-RA8D1】3.測試攝像頭及屏幕

    中。 2、配合攝像頭的原理,以及OV7725、FIFO的時序,可以總結出攝像頭菜雞數據的過程如下: (1)利用 SIO_C、SIO_D 引腳通過 SCCB 協議向 OV7725 的
    發表于 10-29 23:11

    奧比中光旗下新拓三維發布兩款3D掃描雙旗艦新品

    近日,奧比中光子公司新拓三維發布兩款3D掃描雙旗艦新品——微米級精度藍光三維掃描儀XTOM-MATRIX 12M,以及自動化檢測中心XTOM-STATION,以“高精度、高效率、自動化檢測”
    的頭像 發表于 10-16 15:03 ?724次閱讀

    iTOF技術,多樣化的3D視覺應用

    視覺傳感器對于機器信息獲取至關重要,正在從二(2D)發展到三維3D),在某些方面模仿并超越人類的視覺能力,從而推動創新應用。3D 視覺解
    發表于 09-05 07:24

    創世SD NAND貼片卡:智能攝像頭存儲難題的完美解決方案 #人工智能 #智能攝像頭 #攝像頭

    攝像頭
    深圳市雷龍發展有限公司
    發布于 :2025年08月05日 11:17:13

    【EASY EAI Orin Nano開發板試用體驗】--USB攝像頭使用

    【Ctrl+Shift+T】創建一個新窗口,在新窗口輸入以下命令mplayer -demuxer rawvideo -rawvideo w=1280:h=720:format=bgr24 ./Release/photo -loop 0 運行效果如下 至此,實現USB攝像頭
    發表于 07-13 18:21

    【Milk-V Duo S 開發板免費體驗】4 - OV5647 攝像頭攝像頭測試

    ]-621: 255: exit [main]-622: input your choice: 然后就可以進行功能測試。 下面就是用電腦顯示開發板采集的YUV文件: 結語 由于支持樹莓派的攝像頭,所以DuoS比先前的版本更
    發表于 07-08 21:26

    【Milk-V Duo S 開發板免費體驗】3- 嘗試免費3D打印開發板外殼

    散熱孔伸出來。 這個外殼的美中不足是不支持安裝攝像頭,由于它的散熱孔的位置稍微差一點,安裝攝像頭后就蓋不上了。對3D建模有經驗的朋友可以嘗試修改一下。 結語 這是我第一次使用
    發表于 07-08 20:54

    Made with KiCad(126):Antmicro OV5640 雙攝像頭子板

    AntMicro 公司的開源硬件,一個支持雙攝像頭(OV5640)的子板,與 AntMicro 的大部分基板兼容。 概覽 該項目包含一個攝像頭板的開放式硬件設計文件,該攝像頭板支持兩個
    發表于 05-12 18:13

    奧比中光助力創想三維登頂世界消費級3D掃描儀市場

    “全球第一!”近日,全球消費級3D掃描儀領導品牌創想三維(Creality)在年度戰略供應商大會上正式發布多款新品,刷新行業新成就;作為行業芯片級3D掃描技術領導者,奧比中光持續為其新品Otter
    的頭像 發表于 04-11 11:38 ?1531次閱讀

    使用海爾曼太通/HellermannTyton 3D CAD 模型進行快速高效的設計

    提供 3D 和 2D CAD 數據,可供免費下載。 直接嵌入三維設計環境的模型下載功能 在海爾曼太通官網上點擊【產品】選項,工程師現在可以查看和下載眾多產品的
    發表于 03-14 16:55