国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

計算機視覺方向簡介之視覺慣性里程計

新機器視覺 ? 來源:計算機視覺life ? 作者:計算機視覺life ? 2021-04-07 16:57 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

VIO-SLAM

Visual-Inertial Odometry(VIO)即視覺慣性里程計,有時也叫視覺慣性系統(tǒng)(VINS,visual-inertial system),是融合相機和IMU數(shù)據(jù)實現(xiàn)SLAM的算法,根據(jù)融合框架的不同又分為松耦合和緊耦合。

056d0c30-9592-11eb-8b86-12bb97331649.jpg

其中VO(visual odometry)指僅視覺的里程計,T表示位置和姿態(tài)。松耦合中視覺運動估計和慣導運動估計系統(tǒng)是兩個獨立的模塊,將每個模塊的輸出結(jié)果進行融合。

058202ca-9592-11eb-8b86-12bb97331649.jpg

緊耦合則是使用兩個傳感器的原始數(shù)據(jù)共同估計一組變量,傳感器噪聲也是相互影響的。緊耦合算法比較復雜,但充分利用了傳感器數(shù)據(jù),可以實現(xiàn)更好的效果,是目前研究的重點。

相機和IMU的缺點及互補性

058adb98-9592-11eb-8b86-12bb97331649.jpg

相機和IMU融合有很好的互補性。首先通過將IMU 估計的位姿序列和相機估計的位姿序列對齊可以估計出相機軌跡的真實尺度,而且IMU 可以很好地預測出圖像幀的位姿以及上一時刻特征點在下幀圖像的位置,提高特征跟蹤算法匹配速度和應對快速旋轉(zhuǎn)的算法魯棒性,最后IMU 中加速度計提供的重力向量可以將估計的位置轉(zhuǎn)為實際導航需要的世界坐標系中。

隨著MEMS器件的快速發(fā)展,智能手機等移動終端可以便捷地獲取IMU數(shù)據(jù)和攝像頭拍攝數(shù)據(jù),融合IMU 和視覺信息的VINS 算法可以很大程度地提高單目SLAM 算法性能,是一種低成本高性能的導航方案,在機器人、AR/VR 領域得到了很大的關注。

算法流程

05dd9c98-9592-11eb-8b86-12bb97331649.jpg

整個流程圖可以分解為五部分:數(shù)據(jù)預處理、初始化、局部非線性優(yōu)化、回環(huán)檢測和全局優(yōu)化。

各個模塊的主要作用是:

圖像和IMU數(shù)據(jù)預處理:對于圖像,提取特征點,利用KLT金字塔進行光流跟蹤,為后面僅視覺初始化求解相機位姿做準備。對于IMU,將IMU數(shù)據(jù)進行預積分,得到當前時刻的位姿、速度、旋轉(zhuǎn)角,同時計算在后端優(yōu)化中將要用到的相鄰幀間的預積分增量,及預積分的協(xié)方差矩陣和雅可比矩陣。

初始化:初始化中,首先進行僅視覺的初始化,解算出相機的相對位姿;然后再與IMU預積分進行對齊求解初始化參數(shù)。

局部非線性優(yōu)化:對應流程圖中滑動窗口的視覺慣導非線性優(yōu)化,即將視覺約束、IMU約束放在一個大目標函數(shù)中進行優(yōu)化,這里的局部優(yōu)化也就是只優(yōu)化當前幀及之前的n幀的窗口中的變量,局部非線性優(yōu)化輸出較為精確的位姿。

回環(huán)檢測:回環(huán)檢測是將前面檢測的圖像關鍵幀保存起來,當再回到原來經(jīng)過的同一個地方,通過特征點的匹配關系,判斷是否已經(jīng)來過這里。前面提到的關鍵幀就是篩選出來的能夠記下但又避免冗余的相機幀(關鍵幀的選擇標準是當前幀和上一幀之間的位移超過一定閾值或匹配的特征點數(shù)小于一定閾值)。

全局優(yōu)化:全局優(yōu)化是在發(fā)生回環(huán)檢測時,利用相機約束和IMU約束,再加上回環(huán)檢測的約束,進行非線性優(yōu)化。全局優(yōu)化在局部優(yōu)化的基礎上進行,輸出更為精確的位姿。

算法核心

局部優(yōu)化會用到邊緣化,僅用局部優(yōu)化精度低,全局一致性差,但是速度快,IMU利用率高;僅用全局優(yōu)化精度高,全局一致性好,但是速度慢,IMU利用率低;兩者側(cè)重點不同,所以將兩者結(jié)合,可以優(yōu)勢互補。

因此小編設計實驗采用局部優(yōu)化和全局優(yōu)化融合的方法。

061ed280-9592-11eb-8b86-12bb97331649.jpg

局部優(yōu)化是滑動窗口內(nèi)相機幀的優(yōu)化,全局優(yōu)化是所有關鍵幀的優(yōu)化,兩者結(jié)合會產(chǎn)生邊緣幀沖突的問題,因為局部優(yōu)化會固定滑動窗口邊緣幀,而全局優(yōu)化發(fā)生回環(huán)檢測的時候則會固定回環(huán)起點的幀。這里的改進就是采用相對的位姿邊緣化,即邊緣化以后的點是相對于它上一時刻關鍵幀的位姿而不是全局的位姿,這樣局部優(yōu)化邊緣化相對位姿(關鍵幀),扔給全局優(yōu)化整體優(yōu)化。局部邊緣化和全局邊緣化的結(jié)合部分是關鍵幀。

相對邊緣化可以具體解釋為,相對邊緣化的參考坐標系不再是世界坐標系,而是與當前幀共視且距離最近的一個關鍵幀的相機系(設為第k0幀)。視覺約束可以表示為:

0662de8a-9592-11eb-8b86-12bb97331649.png

區(qū)別于絕對邊緣化的視覺約束

0689c1b2-9592-11eb-8b86-12bb97331649.png

實驗結(jié)果與總結(jié)

實驗一:無人機數(shù)據(jù)集上的實驗

數(shù)據(jù)集采用了歐盟機器人挑戰(zhàn)數(shù)據(jù)集(EuRoC)。EuRoC 數(shù)據(jù)集使用 Asctec Firefly 六旋翼飛行器在倉庫和房間采集數(shù)據(jù),數(shù)據(jù)集中包括以20Hz采集的相機圖像和200Hz的IMU數(shù)據(jù),以及運動真值。

實驗結(jié)果如下:

06a1ae44-9592-11eb-8b86-12bb97331649.jpg

實驗結(jié)果可見,融合優(yōu)化的軌跡和真實軌跡很接近,而僅使用局部優(yōu)化的定位結(jié)果誤差不斷累積。

實驗二:車載數(shù)據(jù)上的實驗

該車載數(shù)據(jù)是在北京市朝陽區(qū)某小區(qū)采集的,在數(shù)據(jù)采集階段,車輛以5km/h 到 30km/h 的速度行駛,一共行駛2271m。

實驗結(jié)果如下:

06c4430a-9592-11eb-8b86-12bb97331649.jpg

實驗結(jié)果可見,融合優(yōu)化后的定位結(jié)果明顯優(yōu)于僅使用局部優(yōu)化的定位結(jié)果,融合優(yōu)化中誤差得到及時修正。

參考文獻

J. Delmerico. A Benchmark Comparison of Monocular Visual-Inertial OdometryAlgorithms for Flying Robots. 2018. ICRA

T. Qin. VINS-Mono: A robust and versatile monocular visual-inertial state estimator. arXivpreprint arXiv: 1708.03852, 2017.

N. Trawny. Indirect KalmanFilter for 3D Attitude Estimation. 2005.

Sola. Quaternion kinematics for error-state kalmanfilter. 2017.

K. Eckenhoff. Decoupled, Consistent Node Removal and Edge sparsificationfor graph-based SLAM. 2016.

G. Sibley. Sliding window filter with application to planetary landing. 2010.

S. Leutenegger. Keyframe-Based Visual-Inertial SLAM Using Nonlinear Optimization. 2015.

H. Liu. ICE-BA: Incremental, consistenand efficient bundle adjustment for visual-inertial slam. 2018. CVPR.

H. Liu. Robust keyframe-based dense SLAM with an RGB-D camera. 2017.

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 傳感器
    +關注

    關注

    2576

    文章

    55041

    瀏覽量

    791284
  • 噪聲
    +關注

    關注

    13

    文章

    1156

    瀏覽量

    49228
  • MEMS器件
    +關注

    關注

    2

    文章

    55

    瀏覽量

    13318
  • 緊耦合
    +關注

    關注

    0

    文章

    4

    瀏覽量

    1020

原文標題:計算機視覺方向簡介 | 視覺慣性里程計(VIO)

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    上海計算機視覺企業(yè)行學術(shù)沙龍走進西井科技

    12月5日,由中國圖象圖形學學會青年工作委員會(下簡稱“青工委”)、上海市計算機學會計算機視覺專委會(下簡稱“專委會”)聯(lián)合主辦,上海西井科技股份有限公司、江蘇路街道商會承辦的“上海計算機
    的頭像 發(fā)表于 12-16 15:39 ?579次閱讀

    使用代理式AI激活傳統(tǒng)計算機視覺系統(tǒng)的三種方法

    當前的計算機視覺系統(tǒng)擅長于識別物理空間與流程中的事件,卻難以詮釋場景細節(jié)及其意義,也無法推理后續(xù)可能發(fā)生的情況。
    的頭像 發(fā)表于 12-01 09:44 ?638次閱讀

    AGV視覺導航:智能物流的“智慧眼”

    獲取移動物體在空間中所處的位置、方向和其他環(huán)境信息,并用一定的算法對所獲信息進行處理,建立環(huán)境模型,進而尋找一條最優(yōu)或近似最優(yōu)的無碰路徑,實現(xiàn)安全移動,到達目的地。 AGV物流倉儲 視覺導航的核心是通過攝像頭采集環(huán)境圖像,結(jié)合計算
    的頭像 發(fā)表于 11-04 15:54 ?561次閱讀
    AGV<b class='flag-5'>視覺</b>導航:智能物流的“智慧<b class='flag-5'>之</b>眼”

    【CIE全國RISC-V創(chuàng)新應用大賽】+基于MUSE Pi Pro的3d激光里程計實現(xiàn)

    __?:雷達內(nèi)置IMU模塊 ?__電源模塊__?:12V/5A穩(wěn)定電源供應系統(tǒng) 軟件組成 ?__操作系統(tǒng)__?:基于RISC-V的嵌入式Linux系統(tǒng) ?__核心算法__?:Point-LIO激光-慣性里程計算
    發(fā)表于 10-24 17:02

    STM32計算機視覺開發(fā)套件:B-CAMS-IMX攝像頭模塊技術(shù)解析

    CMOS RGB圖像傳感器、ISM330DLC慣性運動單元和VL53L5CX ToF傳感器。B-CAMS-IMX可用于任何具有MIPI CSI-2? 接口(帶22引腳FFC連接器)的STM32開發(fā)板,輕松在STM32微控制器和微處理器上實現(xiàn)全功能計算機
    的頭像 發(fā)表于 10-20 09:46 ?1264次閱讀
    STM32<b class='flag-5'>計算機</b><b class='flag-5'>視覺</b>開發(fā)套件:B-CAMS-IMX攝像頭模塊技術(shù)解析

    什么是機器視覺及其功能?

    機器視覺本質(zhì)上是一個系統(tǒng)(例如一臺計算機)查看的能力。系統(tǒng)通過該能力分析圖像,然后作出決策或進行分類。
    的頭像 發(fā)表于 09-10 17:23 ?753次閱讀
    什么是機器<b class='flag-5'>視覺</b>及其功能?

    易控智駕榮獲計算機視覺頂會CVPR 2025認可

    近日,2025年國際計算機視覺與模式識別頂級會議(IEEE/CVF Conference on Computer Vision and Pattern Recognition,CVPR 2025)在美國田納西州納什維爾召開。
    的頭像 發(fā)表于 07-29 16:54 ?1210次閱讀

    一文帶你了解什么是機器視覺網(wǎng)卡

    機器視覺網(wǎng)卡通常指的是在機器視覺系統(tǒng)中用于連接工業(yè)相機到計算機的以太網(wǎng)卡。它的核心作用是實現(xiàn)高速、穩(wěn)定、低延遲的圖像數(shù)據(jù)傳輸。以下是關于機器視覺網(wǎng)卡的關鍵信息:1.核心功能:高速圖像傳
    的頭像 發(fā)表于 07-09 16:18 ?657次閱讀
    一文帶你了解什么是機器<b class='flag-5'>視覺</b>網(wǎng)卡

    工業(yè)相機圖像采集卡:機器視覺的核心樞紐

    工業(yè)相機圖像采集卡是用于連接工業(yè)相機與計算機的關鍵硬件設備,主要負責將相機輸出的圖像信號轉(zhuǎn)換為計算機可處理的數(shù)字信號,并實現(xiàn)高速、穩(wěn)定的數(shù)據(jù)傳輸。它在工業(yè)自動化、機器視覺、醫(yī)學影像、科學研究等領域
    的頭像 發(fā)表于 05-21 12:13 ?854次閱讀
    工業(yè)相機圖像采集卡:機器<b class='flag-5'>視覺</b>的核心樞紐

    利用邊緣計算和工業(yè)計算機實現(xiàn)智能視頻分析

    IVA的好處、實際部署應用程序以及工業(yè)計算機如何實現(xiàn)這些解決方案。一、什么是智能視頻分析(IVA)?智能視頻分析(IVA)集成了復雜的計算機視覺,通常與卷積神經(jīng)網(wǎng)
    的頭像 發(fā)表于 05-16 14:37 ?833次閱讀
    利用邊緣<b class='flag-5'>計算</b>和工業(yè)<b class='flag-5'>計算機</b>實現(xiàn)智能視頻分析

    基于LockAI視覺識別模塊:C++圖像的基本運算

    在圖像處理中,理解圖像的基本操作是掌握計算機視覺技術(shù)的關鍵。本文章將介紹基于LockAI視覺識別模塊下OpenCV中圖像的基本運算方法,包括像素操作、邏輯運算和差值運算,并通過一個綜合示例展示其實際應用。
    的頭像 發(fā)表于 05-06 16:20 ?708次閱讀
    基于LockAI<b class='flag-5'>視覺</b>識別模塊:C++圖像的基本運算

    【「# ROS 2智能機器人開發(fā)實踐」閱讀體驗】視覺實現(xiàn)的基礎算法的應用

    結(jié)合IMU(慣性測量單元)進行多傳感器融合。 三、總結(jié)與展望 技術(shù)融合趨勢 機器人視覺與SLAM的結(jié)合(如視覺慣性里程計VIO)是當前研
    發(fā)表于 05-03 19:41

    一種新型激光雷達慣性視覺里程計系統(tǒng)介紹

    針對具有挑戰(zhàn)性的光照條件和惡劣環(huán)境,本文提出了LIR-LIVO,這是一種輕量級且穩(wěn)健的激光雷達-慣性-視覺里程計系統(tǒng)。通過采用諸如利用深度與激光雷達點云關聯(lián)實現(xiàn)特征的均勻深度分布等先進技術(shù),以及利用
    的頭像 發(fā)表于 04-28 11:18 ?1088次閱讀
    一種新型激光雷達<b class='flag-5'>慣性</b><b class='flag-5'>視覺</b><b class='flag-5'>里程計</b>系統(tǒng)介紹

    英飛凌邊緣AI平臺通過Ultralytics YOLO模型增加對計算機視覺的支持

    計算機視覺的支持,擴大了當前對音頻、雷達和其他時間序列信號數(shù)據(jù)的支持范圍。在增加這項支持后,該平臺將能夠用于開發(fā)低功耗、低內(nèi)存的邊緣AI視覺模型。這將給諸多應用領域的機器學習開發(fā)人員帶來極大的便利,例如工廠可以借此實現(xiàn)對零件的
    的頭像 發(fā)表于 03-11 15:11 ?813次閱讀
    英飛凌邊緣AI平臺通過Ultralytics YOLO模型增加對<b class='flag-5'>計算機</b><b class='flag-5'>視覺</b>的支持