国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

創建點云數據的Birdseye視圖

新機器視覺 ? 來源:CSDN ? 作者:CSDN ? 2021-04-01 14:39 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

點云數據——The Point Cloud Data

點云數據應表示為具有N行和至少3列的numpy數組。每行對應于單個點,其在空間(x,y,z)中的位置使用至少3個值表示。

d0be3e4c-92a7-11eb-8b86-12bb97331649.png

如果點云數據來自LIDAR傳感器,那么它可能具有每個點的附加值,例如“反射率”,其是在該位置中障礙物反射多少激光光束的量度。在這種情況下,點云數據可能是Nx4陣列。

圖像與點云坐標——Image vs Point Cloud Coordinates

點云的軸與圖像中的軸具有完全不同的含義。下圖顯示了藍色的圖像軸和橙色的點云軸。

d0d158ba-92a7-11eb-8b86-12bb97331649.png

關于圖像需要注意的一些重要事項:

圖像中的坐標值始終為正。

原點位于左上角。

坐標是整數值。

有關點云坐標的注意事項:

點云中的坐標值可以是正數或負數。

坐標可以采用實數值。

正x軸表示向前。

正y軸表示左。

正z軸表示向上。

創建點云數據的Birdseye視圖

鳥瞰圖的相關軸
為了創建鳥眼視圖圖像,來自點云數據的相關軸將是x和y軸。

d0e948f8-92a7-11eb-8b86-12bb97331649.png

但是,正如我們從上圖所示,我們必須小心并考慮以下事項:
x和y軸意味著相反的事情。
x和y軸指向相反的方向。
您必須移動值,以便(0,0)是圖像中可能的最小值。

1.限制矩形看——Limiting Rectangle to Look at

僅關注點云的特定區域通常很有用。因此,我們希望創建一個僅保留我們感興趣的區域內的點的過濾器。

由于我們正在查看頂部的數據,并且我們有興趣將其轉換為圖像,因此我將使用與圖像軸更加一致的方向。下面,我指定我想要集中在相對于原點的值的范圍。原點左側的任何內容都將被視為負數,而右側的任何內容都將被視為正數。點云的x軸將被解釋為向前方向(這將是我們的鳥眼圖像的向上方向)。

下面的代碼將感興趣的矩形設置為在原點的兩側跨越10米,并在其前面20米處。

side_range=(-10, 10) # left-most to right-mostfwd_range=(0, 20) # back-most to forward-most

2.接下來,我們創建一個過濾器,僅保留實際位于我們指定的矩形內的點。

# EXTRACT THE POINTS FOR EACH AXISx_points = points[:, 0]y_points = points[:, 1]z_points = points[:, 2] # FILTER - To return only indices of points within desired cube# Three filters for: Front-to-back, side-to-side, and height ranges# Note left side is positive y axis in LIDAR coordinatesf_filt = np.logical_and((x_points > fwd_range[0]), (x_points < fwd_range[1]))s_filt = np.logical_and((y_points > -side_range[1]), (y_points < -side_range[0]))filter = np.logical_and(f_filt, s_filt)indices = np.argwhere(filter).flatten() # KEEPERSx_points = x_points[indices]y_points = y_points[indices]z_points = z_points[indices]

3.將點位置映射到像素位置——Mapping Point Positions to Pixel Positions

目前,我們有一堆帶有實數值的點。為了映射這些值,將這些值映射到整數位置值。我們可以天真地將所有x和y值整合到整數中,但我們最終可能會失去很多分辨率。例如,如果這些點的測量單位是以米為單位,則每個像素將表示點云中1x1米的矩形,我們將丟失任何小于此的細節。如果你有一個類似山景的點云,這可能沒問題。但是如果你想能夠捕捉更精細的細節并識別人類,汽車,甚至更小的東西,那么這種方法就沒有用了。 但是,可以稍微修改上述方法,以便我們獲得所需的分辨率級別。在對整數進行類型轉換之前,我們可以先擴展數據。例如,如果測量單位是米,我們想要5厘米的分辨率,我們可以做如下的事情:

res = 0.05# CONVERT TO PIXEL POSITION VALUES - Based on resolutionx_img = (-y_points / res).astype(np.int32) # x axis is -y in LIDARy_img = (-x_points / res).astype(np.int32) # y axis is -x in LIDAR

您會注意到x軸和y軸交換,方向反轉,以便我們現在可以開始處理圖像坐標。

更改坐標原點——Shifting to New Origin

x和y數據仍未準備好映射到圖像。我們可能仍然有負x和y值。所以我們需要將數據移位到(0,0)最小值。

# SHIFT PIXELS TO HAVE MINIMUM BE (0,0)# floor and ceil used to prevent anything being rounded to below 0 after shiftx_img -= int(np.floor(side_range[0] / res))y_img += int(np.ceil(fwd_range[1] / res))

現在數據值都為正值

>>> x_img.min()7>>> x_img.max()199>>> y_img.min()1>>> y_img.max()199

像素值——Pixel Values

我們已經使用點數據來指定圖像中的x和y位置。我們現在需要做的是指定我們想要用這些像素位置填充的值。一種可能性是用高度數據填充它。要做的兩件事 請記住: 像素值應為整數。 像素值應該是0-255范圍內的值。 我們可以從數據中獲取最小和最大高度值,并重新縮放該范圍以適應0-255的范圍。另一種方法,這里將使用的方法是設置我們想要集中的高度值范圍,并且高于或低于該范圍的任何內容都被剪切為最小值和最大值。這很有用,因為它允許我們從感興趣的區域獲得最大量的細節。

height_range = (-2, 0.5) # bottom-most to upper-most # CLIP HEIGHT VALUES - to between min and max heightspixel_values = np.clip(a = z_points, a_min=height_range[0], a_max=height_range[1])

在下面的代碼中,我們將范圍設置為原點下方2米,高于原點半米。接下來,我們將這些值重新縮放到0到255之間,并將類型轉換為整數。

def scale_to_255(a, min, max, dtype=np.uint8): """ Scales an array of values from specified min, max range to 0-255 Optionally specify the data type of the output (default is uint8) """ return (((a - min) / float(max - min)) * 255).astype(dtype) # RESCALE THE HEIGHT VALUES - to be between the range 0-255pixel_values = scale_to_255(pixel_values, min=height_range[0], max=height_range[1])

創建圖像陣列——Create the Image Array

現在我們準備實際創建圖像,我們只是初始化一個數組,其尺寸取決于我們在矩形中所需的值范圍和我們選擇的分辨率。然后我們使用我們轉換為像素位置的x和y點值來指定數組中的索引,并為這些索引分配我們選擇的值作為前一小節中的像素值。

# INITIALIZE EMPTY ARRAY - of the dimensions we wantx_max = 1+int((side_range[1] - side_range[0])/res)y_max = 1+int((fwd_range[1] - fwd_range[0])/res)im = np.zeros([y_max, x_max], dtype=np.uint8) # FILL PIXEL VALUES IN IMAGE ARRAYim[y_img, x_img] = pixel_values

預覽——Viewing

目前,圖像存儲為numpy數組。如果我們希望將其可視化,我們可以將其轉換為PIL圖像,并查看它。

# CONVERT FROM NUMPY ARRAY TO A PIL IMAGEfrom PIL import Imageim2 = Image.fromarray(im)im2.show()

我們作為人類并不善于分辨灰色陰影之間的差異,因此它可以幫助我們使用光譜顏色映射來讓我們更容易分辨出價值差異。我們可以在matplotlib中做到這一點。(實際無法正常顯示)

import matplotlib.pyplot as pltplt.imshow(im, cmap="spectral", vmin=0, vmax=255)plt.show()

d0f64850-92a7-11eb-8b86-12bb97331649.jpg

它實際上編碼與PIL繪制的圖像完全相同的信息量,因此機器學習學習算法例如仍然能夠區分高度差異,即使我們人類不能非常清楚地看到差異。

import cv2 #通過cv2顯示 cv2.imshow("im",im) cv2.waitKey() cv2.destroyAllWindows()

d1411b0a-92a7-11eb-8b86-12bb97331649.png

完整代碼——Complete Code

為方便起見,我將上面的所有代碼放在一個函數中,它將鳥瞰視圖作為一個numpy數組返回。然后,您可以選擇使用您喜歡的任何方法對其進行可視化,或者將numpy數組插入到機器學習算法中。

import numpy as np # ==============================================================================# SCALE_TO_255# ==============================================================================def scale_to_255(a, min, max, dtype=np.uint8): """ Scales an array of values from specified min, max range to 0-255 Optionally specify the data type of the output (default is uint8) """ return (((a - min) / float(max - min)) * 255).astype(dtype) # ==============================================================================# POINT_CLOUD_2_BIRDSEYE# ==============================================================================def point_cloud_2_birdseye(points, res=0.1, side_range=(-10., 10.), # left-most to right-most fwd_range = (-10., 10.), # back-most to forward-most height_range=(-2., 2.), # bottom-most to upper-most ): """ Creates an 2D birds eye view representation of the point cloud data. Args: points: (numpy array) N rows of points data Each point should be specified by at least 3 elements x,y,z res: (float) Desired resolution in metres to use. Each output pixel will represent an square region res x res in size. side_range: (tuple of two floats) (-left, right) in metres left and right limits of rectangle to look at. fwd_range: (tuple of two floats) (-behind, front) in metres back and front limits of rectangle to look at. height_range: (tuple of two floats) (min, max) heights (in metres) relative to the origin. All height values will be clipped to this min and max value, such that anything below min will be truncated to min, and the same for values above max. Returns: 2D numpy array representing an image of the birds eye view. """ # EXTRACT THE POINTS FOR EACH AXIS x_points = points[:, 0] y_points = points[:, 1] z_points = points[:, 2] # FILTER - To return only indices of points within desired cube # Three filters for: Front-to-back, side-to-side, and height ranges # Note left side is positive y axis in LIDAR coordinates f_filt = np.logical_and((x_points > fwd_range[0]), (x_points < fwd_range[1])) s_filt = np.logical_and((y_points > -side_range[1]), (y_points < -side_range[0])) filter = np.logical_and(f_filt, s_filt) indices = np.argwhere(filter).flatten() # KEEPERS x_points = x_points[indices] y_points = y_points[indices] z_points = z_points[indices] # CONVERT TO PIXEL POSITION VALUES - Based on resolution x_img = (-y_points / res).astype(np.int32) # x axis is -y in LIDAR y_img = (-x_points / res).astype(np.int32) # y axis is -x in LIDAR # SHIFT PIXELS TO HAVE MINIMUM BE (0,0) # floor & ceil used to prevent anything being rounded to below 0 after shift x_img -= int(np.floor(side_range[0] / res)) y_img += int(np.ceil(fwd_range[1] / res)) # CLIP HEIGHT VALUES - to between min and max heights pixel_values = np.clip(a=z_points, a_min=height_range[0], a_max=height_range[1]) # RESCALE THE HEIGHT VALUES - to be between the range 0-255 pixel_values = scale_to_255(pixel_values, min=height_range[0], max=height_range[1]) # INITIALIZE EMPTY ARRAY - of the dimensions we want x_max = 1 + int((side_range[1] - side_range[0]) / res) y_max = 1 + int((fwd_range[1] - fwd_range[0]) / res) im = np.zeros([y_max, x_max], dtype=np.uint8) # FILL PIXEL VALUES IN IMAGE ARRAY im[y_img, x_img] = pixel_values return im

責任編輯:lq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 傳感器
    +關注

    關注

    2576

    文章

    55041

    瀏覽量

    791382
  • 激光光束
    +關注

    關注

    0

    文章

    16

    瀏覽量

    7167
  • 點云
    +關注

    關注

    0

    文章

    59

    瀏覽量

    4079

原文標題:點云數據詳解——點云數據變為圖像

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    如何克服毫米波雷達稀疏問題?

    細致描繪物體輪廓的致密,毫米波雷達輸出的數據就顯得比較“吝嗇”,通常每幀圖像只能提供幾十個離散的探測。 這種
    的頭像 發表于 02-27 09:16 ?70次閱讀
    如何克服毫米波雷達<b class='flag-5'>點</b><b class='flag-5'>云</b>稀疏問題?

    自動駕駛模型是如何“看”懂信息的?

    [首發于智駕最前沿微信公眾號]在自動駕駛中,是一個非常重要的感知信號,如激光雷達(LiDAR)生成的,其實就是三維空間里一堆帶坐標、強度和時間戳的
    的頭像 發表于 11-29 10:25 ?1903次閱讀
    自動駕駛模型是如何“看”懂<b class='flag-5'>點</b><b class='flag-5'>云</b>信息的?

    知聲入選國家知識產權示范企業創建推薦單位

    近日,上海市知識產權局公示了《2025-2027年知識產權強國建設示范創建工作推薦結果》。知聲(上海)智能科技有限公司憑借其卓越的自主創新能力與知識產權,成功入選“國家知識產權示范企業創建推薦單位
    的頭像 發表于 11-04 10:28 ?639次閱讀

    AI 驅動三維逆向:降噪算法工具與機器學習建模能力的前沿應用

    在三維逆向工程領域,傳統方法在處理復雜數據和構建高精度模型時面臨諸多挑戰。隨著人工智能(AI)技術的發展,降噪算法工具與機器學習建模能力的應用,為三維逆向工程帶來了創新性解決方案,顯著提升
    的頭像 發表于 08-20 10:00 ?713次閱讀
    AI 驅動三維逆向:<b class='flag-5'>點</b><b class='flag-5'>云</b>降噪算法工具與機器學習建模能力的前沿應用

    HarmonyOS5服務技術分享--函數預加載文章整理

    ??嗨,親愛的開發者朋友們!??? 今天咱們來聊聊如何使用??端一體化方式開發函數??,尤其針對華為的預加載服務。整個過程會手把手帶你從零開始,涵蓋創建工程、編寫代碼、調試到部署,幫你輕松掌握
    發表于 05-22 20:33

    HarmonyOS5服務技術分享--Serverless抽獎模板部署

    活動。不用寫復雜代碼,跟著步驟走就能搞定,文末還有部署避坑指南哦~ 一、前期準備 1?? ??注冊賬號+創建項目?? 先到華為開發者平臺注冊賬號 創建新項目時記得勾選\"開發
    發表于 05-22 20:25

    HarmonyOS5服務技術分享--存儲指南

    Hi各位開發者伙伴們!今天咱們來聊一聊HarmonyOS存儲的實戰玩法,手把手教你實現文件上傳、下載、元數據操作等核心功能。無需官方文檔的嚴肅感,咱們用最接地氣的方式搞懂這些API怎么用!(文末附
    發表于 05-22 19:17

    HarmonyOS5服務技術分享--數據庫使用指南

    ? 華為數據庫(CloudDB)在HarmonyOS中的使用指南 ? ??嗨,開發者朋友們!?? 今天咱們來聊聊華為數據庫(CloudDB)在HarmonyOS應用中的集成和使用技
    發表于 05-22 18:29

    HarmonyOS5服務技術分享--ArkTS調用函數

    小白也能輕松上手!(文末有完整代碼模板哦) ? 前期準備 1?? 登錄華為AppGallery Connect控制臺 2?? 確保已創建函數項目(還沒有的話快去后臺創建一個吧) ? 核心四步走
    發表于 05-22 18:22

    HarmonyOS5服務技術分享--ArkTS開發Node環境

    Studio 3.0+,配置HarmonyOS SDK。 ??服務開通??:在AGC(AppGallery Connect)控制臺創建項目,開通函數服務,獲取agconnect-services.json
    發表于 05-22 17:21

    HarmonyOS5服務技術分享--函數創建配置指南

    大家好!今天咱們來一起探索如何在華為HarmonyOS的AGC函數服務中創建和配置函數,手把手教你用HTTP觸發器玩轉函數。無論你是剛入門還是想優化現有功能,這篇指南都會給你清晰的指引,咱們直接
    發表于 05-22 17:08

    自動駕駛中常提的“”是個啥?

    啥?對自動駕駛有何影響? 是個啥? (Point Cloud)是一種在三維空間中由大量離散組成的
    的頭像 發表于 05-21 09:04 ?1143次閱讀
    自動駕駛中常提的“<b class='flag-5'>點</b><b class='flag-5'>云</b>”是個啥?

    標貝科技“4D-BEV上億標注系統”入選國家數據局首批數據標注優秀案例

    ”主題,探討數據標注產業發展和高質量數據集建設路徑。同時,現場發布了全國首批數據標注優秀案例。由青島市大數據發展管理局推薦,標貝(青島)科技有限公司申報的“4D-BEV上億
    的頭像 發表于 04-30 14:38 ?733次閱讀
    標貝科技“4D-BEV上億<b class='flag-5'>點</b><b class='flag-5'>云</b>標注系統”入選國家<b class='flag-5'>數據</b>局首批<b class='flag-5'>數據</b>標注優秀案例

    VirtualLab Fusion應用:創建1D圖

    的用戶可以生成任意設置的一維繪圖。 窗口尺寸 字體尺寸 坐標范圍 基于選擇的縮放比例I 基于選擇的縮放比例II 軸刻度線數目 線的粗細和顏色 數據點符號 非插值視圖 復制視圖設置I 復制
    發表于 03-17 11:20

    【第二章 模型與設備連接】手把手教你玩轉新版正點原子

    D40模塊把數據傳輸到原子,方便監控傳感器的數據。模塊的使用和如何從傳感器數據傳到平臺本文不再啰嗦,重點講述原子
    發表于 03-12 09:27