国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

雙目視覺(jué)簡(jiǎn)介及算法一般流程

新機(jī)器視覺(jué) ? 來(lái)源:新機(jī)器視覺(jué) ? 作者:新機(jī)器視覺(jué) ? 2020-10-23 09:51 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1.1. 雙目視覺(jué)簡(jiǎn)介

雙目視覺(jué)廣泛應(yīng)用在機(jī)器人導(dǎo)航,精密工業(yè)測(cè)量、物體識(shí)別、虛擬現(xiàn)實(shí)、場(chǎng)景重建,勘測(cè)領(lǐng)域。

什么是雙目視覺(jué)?

雙目視覺(jué)是模擬人類視覺(jué)原理,使用計(jì)算機(jī)被動(dòng)感知距離的方法。從兩個(gè)或者多個(gè)點(diǎn)觀察一個(gè)物體,獲取在不同視角下的圖像,根據(jù)圖像之間像素的匹配關(guān)系,通過(guò)三角測(cè)量原理計(jì)算出像素之間的偏移來(lái)獲取物體的三維信息。

得到了物體的景深信息,就可以計(jì)算出物體與相機(jī)之間的實(shí)際距離,物體3維大小,兩點(diǎn)之間實(shí)際距離。目前也有很多研究機(jī)構(gòu)進(jìn)行3維物體識(shí)別,來(lái)解決2D算法無(wú)法處理遮擋,姿態(tài)變化的問(wèn)題,提高物體的識(shí)別率。

1.2. 算法一般流程

圖1 雙目視覺(jué)算法流程

1.2.1. 離線標(biāo)定

標(biāo)定的目的是獲取相機(jī)的內(nèi)參(焦距,圖像中心,畸變系數(shù)等)和外參(R(旋轉(zhuǎn))矩陣T(平移)矩陣,用于對(duì)其兩個(gè)相機(jī))。目前比較常用的方法為張正友的棋盤(pán)格標(biāo)定方法,Opencv和Matlab上均有實(shí)現(xiàn)。但是一般為了獲取更高的標(biāo)定精度,采用工業(yè)級(jí)的(60*60格子)玻璃面板效果會(huì)更好。并且有人也建議使用Matlab,因?yàn)榫劝梢暬Ч麜?huì)更好一些,并且Matlab的結(jié)果保存為xml,Opencv也可以直接讀入,但是步驟相對(duì)于Opencv的麻煩了一些。這是Matlab標(biāo)定工具箱的連接:http://www.vision.caltech.edu/bouguetj/calib_doc/

步驟為:

(1)左攝像頭標(biāo)定,獲取內(nèi)外參數(shù)。

(2)右參數(shù)攝像頭標(biāo)定獲取外參。

(3)雙目標(biāo)定,獲取相機(jī)之間的平移旋轉(zhuǎn)關(guān)系。


圖2 Matlab雙目視覺(jué)標(biāo)定

1.2.2. 雙目矯正

矯正的目的是得到的參考圖與目標(biāo)圖之間,只存在X方向上的差異。提高視差計(jì)算的準(zhǔn)確性。

矯正分為兩個(gè)步驟

l畸變矯正


圖3 畸變矯正

l將相機(jī)轉(zhuǎn)化為標(biāo)準(zhǔn)形式


圖4 轉(zhuǎn)換為標(biāo)準(zhǔn)形式

因?yàn)槌C正部分,會(huì)對(duì)圖像所有點(diǎn)的位置進(jìn)行重新計(jì)算,因而算法處理的分辨率越大耗時(shí)越大,而且一般需要實(shí)時(shí)處理兩張圖像。而且這種算法并行化強(qiáng)標(biāo)準(zhǔn)化程度較高,建議使用IVE進(jìn)行硬化,類似Opencv中的加速模式,先得到映射Map,再并行化使用映射Map重新得到像素位置。Opencv中的矯正函數(shù)為cvStereoRectify。

1.2.3. 雙目匹配

雙目匹配是雙目深度估計(jì)的核心部分,發(fā)展了很多年,也有非常多的算法,主要目的是計(jì)算參考圖與目標(biāo)圖之間像素的相對(duì)匹配關(guān)系,主要分為局部和非局部的算法。一般有下面幾個(gè)步驟。

l匹配誤差計(jì)算

l誤差集成

l視差圖計(jì)算/優(yōu)化

l視差圖矯正

一般局部算法,使用固定大小或者非固定大小窗口,計(jì)算與之所在一行的最優(yōu)匹配位置。如下圖為最簡(jiǎn)單的局部方式,求一行最佳對(duì)應(yīng)點(diǎn)位置,左右視圖X坐標(biāo)位置差異為視差圖。為了增加噪聲,光照的魯棒性可以使用固定窗口進(jìn)行匹配,也可以對(duì)圖像使用LBP變換之后再進(jìn)行匹配。一般的匹配損失計(jì)算函數(shù)有:SAD,SSD,NCC等。一般采用最大視差也可以限制最大搜索范圍,也可以使用積分圖和Box Filter進(jìn)行加速計(jì)算。目前效果較好的局部匹配算法為基于Guided Filter的使用Box Filter和積分圖的雙目匹配算法,局部算法易于并行化,計(jì)算速度快,但是對(duì)于紋理較少的區(qū)域效果不佳,一般對(duì)圖像分割,將圖像分為紋理豐富和紋理稀疏的區(qū)域,調(diào)整匹配窗大小,紋理稀疏使用小窗口,來(lái)提高匹配效果。


圖5 基于線性搜索的視差計(jì)算

非局部的匹配算法,將搜索視差的任務(wù)看做最小化一個(gè)確定的基于全部雙目匹配對(duì)的損失函數(shù),求該損失函數(shù)的最小值即可得到最佳的視差關(guān)系,著重解決圖像中不確定區(qū)域的匹配問(wèn)題,主要有動(dòng)態(tài)規(guī)劃(Dynamic Programming),信任傳播(Blief Propagation),圖割算法(Graph Cut)。目前效果最好的也是圖割算法,Opencv中提供的圖割算法匹配耗時(shí)很大。

圖割算法主要是為了解決動(dòng)態(tài)規(guī)劃算法不能融合水平和豎直方向連續(xù)性約束的問(wèn)題,將匹配問(wèn)題看成是利用這些約束在圖像中尋求最小割問(wèn)題。


圖6 基于圖割(左),動(dòng)態(tài)規(guī)劃(中),相關(guān)性計(jì)算(右)的效果。

因?yàn)榭紤]到全局能量最小化,非局部算法一般耗時(shí)較大,不太好使用硬件加速。但是對(duì)于遮擋,紋理稀疏的情況解決的較好。

得到了匹配點(diǎn)之后,一般通過(guò)左右視線一致性的方式,檢測(cè)和確定具有高置信度的匹配點(diǎn)。很類似前后向光流匹配的思想,只有通過(guò)左右視線一致性檢驗(yàn)的點(diǎn)才認(rèn)為是穩(wěn)定匹配點(diǎn)。這樣也可以找出因?yàn)檎趽酰肼?,誤匹配得到的點(diǎn)。

那么我們?nèi)绾蔚玫揭暡詈蜕疃刃畔⒛兀?/p>


圖7 視差深度獲取示意

關(guān)于視差圖的后處理,一般采用中值濾波的方法,對(duì)當(dāng)前點(diǎn)的灰度值使用鄰域像素的中值來(lái)代替,這種方法可以很好去除椒鹽噪聲。可以去除因?yàn)樵肼暬蛘呷跫y理匹配失敗的孤立點(diǎn)。

原文標(biāo)題:雙目視覺(jué)及算法流程

文章出處:【微信公眾號(hào):新機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 計(jì)算機(jī)
    +關(guān)注

    關(guān)注

    19

    文章

    7807

    瀏覽量

    93202
  • 攝像頭
    +關(guān)注

    關(guān)注

    61

    文章

    5091

    瀏覽量

    103121
  • 機(jī)器視覺(jué)
    +關(guān)注

    關(guān)注

    165

    文章

    4798

    瀏覽量

    126068

原文標(biāo)題:雙目視覺(jué)及算法流程

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    雙目立體視覺(jué)相機(jī)產(chǎn)品介紹

    本產(chǎn)品是款主打高精度感知、采用5V穩(wěn)定供電的雙目立體視覺(jué)相機(jī),核心由兩個(gè)經(jīng)過(guò)精密同步調(diào)試與專業(yè)校準(zhǔn)的獨(dú)立相機(jī)模塊組成,固定基線嚴(yán)格設(shè)定為60mm,專為各類場(chǎng)景下的三維空間感知與精準(zhǔn)距離測(cè)量需求量
    的頭像 發(fā)表于 02-28 15:08 ?133次閱讀
    <b class='flag-5'>雙目</b>立體<b class='flag-5'>視覺(jué)</b>相機(jī)產(chǎn)品介紹

    基于SD3589高精度雙目立體視覺(jué)相機(jī):助力三維感知與智能化應(yīng)用

    RTK-SCAM-60是款高精度雙目立體視覺(jué)相機(jī),主打多接口兼容特性,專為全場(chǎng)景自動(dòng)化產(chǎn)線適配設(shè)計(jì),可廣泛應(yīng)用于工業(yè)檢測(cè)、智能分揀、尺寸測(cè)量等自動(dòng)化場(chǎng)景。產(chǎn)品采用5V供電,由兩個(gè)經(jīng)過(guò)精密同步校準(zhǔn)
    的頭像 發(fā)表于 01-05 15:29 ?333次閱讀
    基于SD3589高精度<b class='flag-5'>雙目</b>立體<b class='flag-5'>視覺(jué)</b>相機(jī):助力三維感知與智能化應(yīng)用

    雙目視覺(jué)是如何實(shí)現(xiàn)深度估計(jì)的?

    [首發(fā)于智駕最前沿微信公眾號(hào)]自動(dòng)駕駛的純視覺(jué)方案中,單目攝像頭因無(wú)法直接感知深度,在環(huán)境理解上存在根本局限,雙目視覺(jué)技術(shù)在此需求下應(yīng)運(yùn)而生。它通過(guò)模擬人眼,利用雙攝像頭的視差來(lái)推算距離,將二維圖像
    的頭像 發(fā)表于 12-31 09:45 ?502次閱讀
    <b class='flag-5'>雙目視覺(jué)</b>是如何實(shí)現(xiàn)深度估計(jì)的?

    單片機(jī)如何進(jìn)行加解密鑰操作,一般使用哪種形式,具體流程是什么樣子的?

    目前單片機(jī)如何進(jìn)行加解密鑰操作,一般使用哪種形式,具體流程是什么樣子的?
    發(fā)表于 12-04 06:09

    請(qǐng)問(wèn)瞬時(shí)功耗一般怎么測(cè)?

    瞬時(shí)功耗一般怎么測(cè)?
    發(fā)表于 12-02 07:07

    FCC認(rèn)證周期一般多久?

    和電磁環(huán)境造成有害干擾。二、不同類型FCC認(rèn)證的周期區(qū)別FCCSDoC(Supplier’sDeclarationofConformity,自我聲明)適用對(duì)象:一般
    的頭像 發(fā)表于 11-03 17:35 ?11次閱讀
    FCC認(rèn)證周期<b class='flag-5'>一般</b>多久?

    FCC認(rèn)證周期一般多久

    FCC認(rèn)證周期取決于產(chǎn)品類型、測(cè)試復(fù)雜度以及認(rèn)證方式(自我聲明或由授權(quán)機(jī)構(gòu)辦理)。一般來(lái)說(shuō),從樣品測(cè)試到獲得證書(shū)的時(shí)間大致在2~8周之間。以下是詳細(xì)說(shuō)明:、FCC認(rèn)證簡(jiǎn)介FCC認(rèn)證是美國(guó)聯(lián)邦通信
    的頭像 發(fā)表于 11-03 17:14 ?901次閱讀
    FCC認(rèn)證周期<b class='flag-5'>一般</b>多久

    友思特應(yīng)用 | 基于高精度雙目散斑 3D 相機(jī)的放射治療視覺(jué)定位應(yīng)用

    面臨挑戰(zhàn)。本文將深入探討基于高精度雙目散斑3D相機(jī)的視覺(jué)定位系統(tǒng)如何革新放療定位流程,提升治療的安全性與有效性。
    的頭像 發(fā)表于 10-30 11:05 ?407次閱讀
    友思特應(yīng)用 | 基于高精度<b class='flag-5'>雙目</b>散斑 3D 相機(jī)的放射治療<b class='flag-5'>視覺(jué)</b>定位應(yīng)用

    國(guó)密系列算法簡(jiǎn)介及SM4算法原理介紹

    、 國(guó)密系列算法簡(jiǎn)介 國(guó)家商用密碼算法(簡(jiǎn)稱國(guó)密/商密算法),是由我國(guó)國(guó)家密碼管理局制定并公布的密碼
    發(fā)表于 10-24 08:25

    電能質(zhì)量在線監(jiān)測(cè)裝置硬件故障檢測(cè)的一般流程是什么?

    電能質(zhì)量在線監(jiān)測(cè)裝置硬件故障檢測(cè)的一般流程遵循 “安全優(yōu)先、先易后難、先外后內(nèi)、排除法 + 驗(yàn)證法” 的核心邏輯,從 “故障現(xiàn)象確認(rèn)” 到 “故障定位” 再到 “維修驗(yàn)證”,形成閉環(huán)操作,確保高效、準(zhǔn)確排查故障,同時(shí)避免二次損壞或安全風(fēng)險(xiǎn)。
    的頭像 發(fā)表于 09-19 18:00 ?898次閱讀

    基于凌智視覺(jué)識(shí)別模塊的基于單目視覺(jué)的目標(biāo)物測(cè)量裝置

    1.視覺(jué)測(cè)量整體方案本視覺(jué)測(cè)量系統(tǒng)采用單目視覺(jué)技術(shù)實(shí)現(xiàn)目標(biāo)物距離
    的頭像 發(fā)表于 07-31 15:35 ?977次閱讀
    基于凌智<b class='flag-5'>視覺(jué)</b>識(shí)別模塊的基于單<b class='flag-5'>目視覺(jué)</b>的目標(biāo)物測(cè)量裝置

    雙目視覺(jué)在智能駕駛領(lǐng)域的應(yīng)用

    圍繞“雙目智駕應(yīng)用”,我們將推出系列文章深入解析雙目視覺(jué)如何跨越技術(shù)鴻溝,在中國(guó)智駕的沃土上生根發(fā)芽,探索其賦能未來(lái)出行的無(wú)限可能。
    的頭像 發(fā)表于 07-09 16:21 ?1298次閱讀

    打破室外全域工作“盲區(qū)”!廣和通雙目視覺(jué)算法將成就云深處科技機(jī)器狗“慧眼”

    雙目視覺(jué)模塊RV-BOT為云深處科技四足機(jī)器人打通室外工作鏈路。通過(guò)深度融合廣和通自主研發(fā)的雙目視覺(jué)算法,RV-BOT將顯著提升了室外場(chǎng)景中的定位精度,為國(guó)產(chǎn)足式機(jī)器人的自主導(dǎo)航與智能化應(yīng)用開(kāi)辟了新路徑。 ? ? 四足機(jī)器人在偵
    發(fā)表于 05-15 14:26 ?1636次閱讀
    打破室外全域工作“盲區(qū)”!廣和通<b class='flag-5'>雙目視覺(jué)</b><b class='flag-5'>算法</b>將成就云深處科技機(jī)器狗“慧眼”

    奧比中光發(fā)布新雙目3D相機(jī)Gemini 435Le

    近日,奧比中光在美國(guó)底特律舉辦的Automate 2025展會(huì)上發(fā)布Gemini 435Le,獲得眾多機(jī)器人專業(yè)人士的關(guān)注。作為最新代工業(yè)級(jí)雙目視覺(jué)解決方案,Gemini 435Le雙目3D相機(jī)在前作基礎(chǔ)上針對(duì)智能機(jī)器人的工業(yè)
    的頭像 發(fā)表于 05-14 17:15 ?1102次閱讀

    【「# ROS 2智能機(jī)器人開(kāi)發(fā)實(shí)踐」閱讀體驗(yàn)】視覺(jué)實(shí)現(xiàn)的基礎(chǔ)算法的應(yīng)用

    相機(jī)標(biāo)定是視覺(jué)系統(tǒng)的基石,直接影響后續(xù)圖像處理的精度。書(shū)中詳細(xì)介紹了單目和雙目相機(jī)的標(biāo)定流程,包括標(biāo)定板的使用、參數(shù)優(yōu)化以及標(biāo)定文件的應(yīng)用。 實(shí)際應(yīng)用中,標(biāo)定誤差可能導(dǎo)致機(jī)器人定位偏差,因此標(biāo)定過(guò)程
    發(fā)表于 05-03 19:41