EpsAvlc:
這個事情的回答需要基于你的動機。
如果你想改進已有的算法以獲得在數(shù)據(jù)集上的視覺里程計定位精度上的提升,那么我的判斷是比較難。
如果你是在實際場景中發(fā)現(xiàn)已有的框架(例如ORB-SLAM)的定位精度不能達到論文中,或者你預想的精度,那么這個事情是可以根據(jù)實際場景討論的。
排名6, 11, 12, 14, 15的方案是基于視覺的,或者至少融合了視覺。其漂移誤差大都低于1%。這是什么概念?我本科時參加的機器人競賽里,經(jīng)過仔細標定的輪式里程計,精度也不過1%。當然,視覺里程計的最終漂移誤差一般都是回環(huán)后再算的,直接使用的話根據(jù)前端的調(diào)教程度,大概可以看做1%左右。不過無論怎樣,對于增量式的定位方案,1%的誤差應(yīng)該都可以算是差強人意了。想要再有提升還是挺困難的,要么就加入許多Trick(過擬合數(shù)據(jù)集),但是感覺意義不大。
如果是在一些復雜場景下需要提升定位精度,那么還是有許多事情可以做的。像之前答主提到的,用語義分割,將動態(tài)物體上的特征點濾去,以提升BA精度。我認為有一些場景,是目前已有的框架力所不能逮的:
1.Long-term場景。如何保證夏天建的室外地圖,在冬天也能用?這涉及到季節(jié)不變的路標的設(shè)計與提取。語義分割天然就有l(wèi)ong-term特性,將語義分割考慮進去是一個較好的方法。
2.高度動態(tài)的場景。比如走在去菜市場的路上,來往人群很多。人是可以精確定位的,但是SLAM可能就要抓瞎了。
3.紋理缺失的場景。這算是室內(nèi)SLAM時經(jīng)常需要面對的事情了。
這三個問題,其實都有許多工作已經(jīng)在做了。谷歌學術(shù)上搜索相關(guān)關(guān)鍵字就有。
就像綜述《Past, Present, and Future of SimultaneousLocalization And Mapping: Towards theRobust-Perception Age》標題所述,目前魯棒才是SLAM的關(guān)鍵命題。發(fā)布于 06-27
鄭純?nèi)唬?/p>
可以做一些深度學習輔助提取路標的工作,比如:如果已經(jīng)知道圖像中某個物體屬于一個既定的類別,然后再提角點,就會比針對全圖提角點魯棒性高很多。
劉宴誠:
具體細節(jié)太多了,ORBSLAM2這個框架基本上所有的代碼都在圍繞如何提高特征點的質(zhì)量。其實想想特征點法提高定位精度無非就是如何保證特征點匹配的準確以及特征點選取的準確,可問題就出在無法保證百分百絕對精確,所以通過很多騷操作把這個事情做到極致,就可以提高定位精度了。
編輯:jq
-
SLAM
+關(guān)注
關(guān)注
24文章
457瀏覽量
33325 -
數(shù)據(jù)集
+關(guān)注
關(guān)注
4文章
1236瀏覽量
26193 -
深度學習
+關(guān)注
關(guān)注
73文章
5599瀏覽量
124398
原文標題:視覺SLAM怎么去提高定位精度?
文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
落錘沖擊試驗機的自動定位裝置設(shè)計與精度驗證
FPGA和GPU加速的視覺SLAM系統(tǒng)中特征檢測器研究
友思特應(yīng)用 | 基于高精度雙目散斑 3D 相機的放射治療視覺定位應(yīng)用
自動駕駛中如何將稀疏地圖與視覺SLAM相結(jié)合?
全新輕量級ViSTA-SLAM系統(tǒng)介紹
CCD視覺激光打標機應(yīng)用與激光選擇指南
同步帶的傳動定位精度及案例分析
一種適用于動態(tài)環(huán)境的自適應(yīng)先驗場景-對象SLAM框架
自動駕駛汽車在隧道、山區(qū)如何精準定位?
一種適用于動態(tài)環(huán)境的實時RGB-D SLAM系統(tǒng)
三維高斯?jié)姙R大規(guī)模視覺SLAM系統(tǒng)解析
【「# ROS 2智能機器人開發(fā)實踐」閱讀體驗】視覺實現(xiàn)的基礎(chǔ)算法的應(yīng)用
【「# ROS 2智能機器人開發(fā)實踐」閱讀體驗】+ROS2應(yīng)用案例
一種基于點、線和消失點特征的單目SLAM系統(tǒng)設(shè)計
教你們視覺SLAM如何去提高定位精度
評論