国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

首個(gè)無(wú)監(jiān)督3D點(diǎn)云物體實(shí)例分割算法

CVer ? 來(lái)源:CVer ? 作者:CVer ? 2022-11-09 15:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在物體部件分割和室內(nèi)、室外物體分割任務(wù)上的效果圖(無(wú)需任何人工標(biāo)注):

f6cf184e-5f7f-11ed-8abf-dac502259ad0.gif

1. Introduction

三維點(diǎn)云物體分割是三維場(chǎng)景理解的關(guān)鍵問(wèn)題之一,也是自動(dòng)駕駛、智能機(jī)器人等應(yīng)用的基礎(chǔ)。然而,目前的主流方法都是基于監(jiān)督學(xué)習(xí),需要大量人工標(biāo)注的數(shù)據(jù),而對(duì)點(diǎn)云數(shù)據(jù)進(jìn)行人工標(biāo)注是十分耗費(fèi)時(shí)間和人力的。

2. Motivation

本文旨在尋求一種無(wú)監(jiān)督的3D物體分割方法。我們發(fā)現(xiàn),運(yùn)動(dòng)信息有望幫助我們實(shí)現(xiàn)這一目標(biāo)。如下圖1所示,在左圖中的藍(lán)色/橙色圓圈內(nèi),一輛汽車(chē)上的所有點(diǎn)一起向前運(yùn)動(dòng),而場(chǎng)景中其他的點(diǎn)則保持靜止。那么理論上,我們可以基于每個(gè)點(diǎn)的運(yùn)動(dòng),將場(chǎng)景中屬于汽車(chē)的點(diǎn)和其他點(diǎn)分割開(kāi),實(shí)現(xiàn)右圖中的效果。

f9ec989e-5f7f-11ed-8abf-dac502259ad0.png

Figure 1. 利用運(yùn)動(dòng)信息分割物體的motivation

利用運(yùn)動(dòng)信息分割3D物體的想法已經(jīng)在一些現(xiàn)有的工作中得到了探索。例如,[1] 和 [2] 利用傳統(tǒng)的稀疏子空間聚類(lèi)的方法從點(diǎn)云序列中分割運(yùn)動(dòng)的物體;SLIM [3] 提出了第一個(gè)基于學(xué)習(xí)的方法來(lái)分割運(yùn)動(dòng)的前景和靜止的背景。然而,現(xiàn)有的方法都在以下的一個(gè)或多個(gè)方面存在局限性:

1)只適用于特定場(chǎng)景,不具備通用性;

2)只能實(shí)現(xiàn)運(yùn)動(dòng)的前景和靜止的背景之間的二類(lèi)分割,無(wú)法進(jìn)一步區(qū)分前景中的多個(gè)物體;

3)(幾乎所有的現(xiàn)有方法都存在的局限)必須要多幀的點(diǎn)云序列作為輸入,而且只能分割出其中在運(yùn)動(dòng)的物體。但是理論上,我們利用運(yùn)動(dòng)信息學(xué)會(huì)辨別某些物體之后,當(dāng)這些物體以靜止的狀態(tài)出現(xiàn)在單幀點(diǎn)云中,我們應(yīng)該依然能辨別它們。

針對(duì)上述問(wèn)題,我們希望設(shè)計(jì)一種通用的、能分割多個(gè)物體的無(wú)監(jiān)督3D物體分割方法:這種方法在完全無(wú)標(biāo)注的點(diǎn)云序列上進(jìn)行訓(xùn)練,從運(yùn)動(dòng)信息中學(xué)習(xí)3D物體分割;經(jīng)過(guò)訓(xùn)練后,能夠直接在單幀點(diǎn)云上進(jìn)行物體分割。為此,本文提出了無(wú)監(jiān)督的3D物體分割方法OGC (Object Geometry Consistency)。本文的主要貢獻(xiàn)包括以下三點(diǎn):

1)我們提出了第一個(gè)通用的無(wú)監(jiān)督3D物體分割框架OGC,訓(xùn)練過(guò)程中無(wú)需任何人工標(biāo)注,從點(diǎn)云序列包含的運(yùn)動(dòng)信息中學(xué)習(xí);經(jīng)過(guò)訓(xùn)練后能直接在單幀點(diǎn)云上進(jìn)行物體分割。

2)作為OGC框架的核心,我們以物體在運(yùn)動(dòng)中保持幾何形狀一致作為約束條件,設(shè)計(jì)了一組損失函數(shù),能夠有效地利用運(yùn)動(dòng)信息為物體分割提供監(jiān)督信號(hào)。

3)我們?cè)谖矬w部件分割和室內(nèi)、室外物體分割任務(wù)上都取得了非常好的效果。

3. Method

3.1 Overview

如下圖2所示,我們的框架包括三個(gè)部分:

1)一個(gè)物體分割網(wǎng)絡(luò)(橙色部分),從單幀點(diǎn)云估計(jì)物體分割mask;

2)一個(gè)自監(jiān)督的場(chǎng)景流估計(jì)網(wǎng)絡(luò)(綠色部分),估計(jì)兩幀點(diǎn)云之間的運(yùn)動(dòng)(場(chǎng)景流);

3)一組損失函數(shù)(藍(lán)色部分),利用2)估計(jì)出的運(yùn)動(dòng)為1)輸出的物體分割mask提供監(jiān)督信號(hào)。

在訓(xùn)練過(guò)程中,需要三個(gè)部分聯(lián)合工作;在訓(xùn)練后,只需保留1)的物體分割網(wǎng)絡(luò),即可用于分割單幀點(diǎn)云。

fa348ee2-5f7f-11ed-8abf-dac502259ad0.png

Figure 2 OGC示意圖

對(duì)于OGC框架中的物體分割網(wǎng)絡(luò)和場(chǎng)景流估計(jì)網(wǎng)絡(luò),我們可以直接利用現(xiàn)有的網(wǎng)絡(luò)結(jié)構(gòu),如下圖3所示。具體來(lái)說(shuō):

1)物體分割網(wǎng)絡(luò):我們采用PointNet++ [4] 從輸入的單幀點(diǎn)云fa5ccda8-5f7f-11ed-8abf-dac502259ad0.png提取特征,然后用Transformer [5] 解碼器直接從提取的點(diǎn)云特征估計(jì)出所有物體的分割mask,表示為fa697558-5f7f-11ed-8abf-dac502259ad0.png。整個(gè)網(wǎng)絡(luò)結(jié)構(gòu)可以視作最近在2D圖像上非常成功的物體分割方法MaskFormer [6] 向3D點(diǎn)云的拓展。

2)場(chǎng)景流估計(jì)網(wǎng)絡(luò):我們直接采用了最近非常成功的FlowStep3D [5],接收兩幀點(diǎn)云fa75626e-5f7f-11ed-8abf-dac502259ad0.png作為輸入,估計(jì)fa7f66ce-5f7f-11ed-8abf-dac502259ad0.png中的點(diǎn)的運(yùn)動(dòng)(場(chǎng)景流)fa8df752-5f7f-11ed-8abf-dac502259ad0.png

fa99cea6-5f7f-11ed-8abf-dac502259ad0.png

Figure 3 OGC結(jié)構(gòu)圖

3.2 OGC Losses

OGC框架的關(guān)鍵,就在于如何利用運(yùn)動(dòng)信息為物體分割提供監(jiān)督信號(hào)。為此,我們?cè)O(shè)計(jì)了以下?lián)p失函數(shù):

1)Dynamic loss:現(xiàn)實(shí)世界中大部分物體的運(yùn)動(dòng)都可以用剛體變換來(lái)描述。因此在這項(xiàng)損失函數(shù)中,我們要求對(duì)每個(gè)估計(jì)出的物體分割mask,其中所包含的點(diǎn)的運(yùn)動(dòng)必須服從同一個(gè)剛體變換:

faaaefec-5f7f-11ed-8abf-dac502259ad0.png

上式中fab8feca-5f7f-11ed-8abf-dac502259ad0.png表示每個(gè)物體分割mask上擬合出的剛體變換。如果一個(gè)mask實(shí)際上包含了兩個(gè)運(yùn)動(dòng)方向不同的物體,這兩個(gè)物體上點(diǎn)的運(yùn)動(dòng)必然不可能服從同一個(gè)剛體變換。此時(shí)用這兩個(gè)物體上的點(diǎn)強(qiáng)行擬合出的剛體變換與這些點(diǎn)的實(shí)際運(yùn)動(dòng)并不一致,這個(gè)mask就會(huì)被損失函數(shù)懲罰??梢钥吹?,dynamic loss能幫助我們區(qū)分運(yùn)動(dòng)方向不同的物體。但是,如果實(shí)際上屬于同一個(gè)物體的點(diǎn)被分割成兩塊,即“過(guò)度分割”,dynamic loss并不能懲罰這種情況。

2)Smoothness loss:物體上的點(diǎn)在空間中一般都是連接在一起的,否則物體就會(huì)斷裂。基于這一事實(shí),我們提出了對(duì)物體分割mask的平滑性先驗(yàn),要求一個(gè)局部區(qū)域內(nèi)相互鄰近的點(diǎn)被分配到同一個(gè)物體:

fac9ec62-5f7f-11ed-8abf-dac502259ad0.png

上式中H表示某個(gè)點(diǎn)的領(lǐng)域內(nèi)包含的點(diǎn)的數(shù)量??梢钥吹絛ynamic loss和smoothness loss起到了相互對(duì)抗的效果:前者根據(jù)運(yùn)動(dòng)方向的不同將點(diǎn)區(qū)分開(kāi);后者則根據(jù)空間中的近鄰關(guān)系將鄰近的點(diǎn)聚合,以抵消潛在的“過(guò)度分割”問(wèn)題。這兩項(xiàng)損失函數(shù)聯(lián)合起來(lái),為分割場(chǎng)景中的運(yùn)動(dòng)物體提供了充足的監(jiān)督信號(hào)。

3)Invariance loss:我們希望將學(xué)習(xí)到的運(yùn)動(dòng)物體分割充分地泛化到外形相近的靜態(tài)物體。為此,我們要求物體分割網(wǎng)絡(luò)在面對(duì)處于不同位姿的同一物體時(shí),能夠無(wú)差別地辨別(分割)該物體。具體來(lái)說(shuō),我們對(duì)同一場(chǎng)景施加兩個(gè)不同的空間變換(旋轉(zhuǎn),平移和縮放)fad95bac-5f7f-11ed-8abf-dac502259ad0.pngfae8e752-5f7f-11ed-8abf-dac502259ad0.png,使得場(chǎng)景中物體的位姿都發(fā)生變化,然后我們要求場(chǎng)景的分割結(jié)果保持不變:

faf5ebe6-5f7f-11ed-8abf-dac502259ad0.png

Invariance loss能有效地將從運(yùn)動(dòng)物體學(xué)習(xí)到的分割策略泛化到不同位姿的靜態(tài)物體。

3.3 Iterative Optimization

當(dāng)我們從運(yùn)動(dòng)信息中學(xué)會(huì)了分割物體,理論上我們可以用估計(jì)出的物體分割來(lái)提升對(duì)運(yùn)動(dòng)(場(chǎng)景流)的估計(jì)質(zhì)量,隨后從更準(zhǔn)確的運(yùn)動(dòng)信息中更好地學(xué)習(xí)分割物體。為實(shí)現(xiàn)這一目標(biāo),我們提出了如下圖4所示的“物體分割-運(yùn)動(dòng)估計(jì)”迭代優(yōu)化算法:初始階段,我們通過(guò)FlowStep3D網(wǎng)絡(luò)估計(jì)運(yùn)動(dòng)。在每一輪中,我們首先從當(dāng)前估計(jì)出的運(yùn)動(dòng)信息學(xué)習(xí)物體分割;隨后用我們的Object-aware ICP算法,基于估計(jì)出的物體分割來(lái)提升對(duì)運(yùn)動(dòng)的估計(jì)質(zhì)量,將改善后的運(yùn)動(dòng)估計(jì)送入下一輪。

fb096806-5f7f-11ed-8abf-dac502259ad0.png

Figure 4 “物體分割-運(yùn)動(dòng)估計(jì)”迭代優(yōu)化算法示意圖

在迭代過(guò)程中用到的Object-aware ICP算法,可以看作傳統(tǒng)的ICP算法向多物體場(chǎng)景的拓展,算法的具體細(xì)節(jié)可以參考原文附錄A.2。

4. Experiments

Evaluation on Synthetic Datasets

我們首先在SAPIEN數(shù)據(jù)集和我們?cè)谧约汉铣傻腛GC-DR / OGC-DRSV數(shù)據(jù)集上評(píng)估了OGC對(duì)物體部件分割和室內(nèi)物體分割任務(wù)的效果。從下面兩個(gè)表格可以看到,在高質(zhì)量的合成數(shù)據(jù)集上,OGC不僅領(lǐng)先于傳統(tǒng)的無(wú)監(jiān)督運(yùn)動(dòng)分割和聚類(lèi)方法,還達(dá)到了接近甚至超越全監(jiān)督方法的效果。

fb31ac30-5f7f-11ed-8abf-dac502259ad0.png

Figure 5 不同方法在SAPIEN數(shù)據(jù)集上的定量結(jié)果對(duì)比

fb56d6b8-5f7f-11ed-8abf-dac502259ad0.png

Figure 6不同方法在OGC-DR/OGC-DRSV數(shù)據(jù)集上的定量結(jié)果對(duì)比

Evaluation on Real-World Outdoor Datasets

接下來(lái),我們?cè)u(píng)估OGC在極具挑戰(zhàn)性的室外物體分割任務(wù)上的表現(xiàn)。首先,我們?cè)贙ITTI Scene Flow(KITTI-SF)數(shù)據(jù)集上進(jìn)行評(píng)估。KITTI-SF包含200對(duì)點(diǎn)云用于訓(xùn)練,200單幀點(diǎn)云用于測(cè)試。實(shí)驗(yàn)結(jié)果如下表所示:我們的方法達(dá)到了與全監(jiān)督方法接近的優(yōu)異性能。

fb984698-5f7f-11ed-8abf-dac502259ad0.png

Figure 7不同方法在KITTI-SF數(shù)據(jù)集上的定量結(jié)果對(duì)比

在實(shí)際應(yīng)用中,有時(shí)無(wú)法收集到包含運(yùn)動(dòng)的序列數(shù)據(jù),但我們可以將相似場(chǎng)景中訓(xùn)練出的OGC模型泛化過(guò)來(lái)。這里,我們將上述KITTI-SF數(shù)據(jù)集上訓(xùn)練好的OGC模型拿來(lái),直接用于分割KITTI Detection(KITTI-Det)和SemanticKITTI數(shù)據(jù)集中的單幀點(diǎn)云。注意:KITTI-Det和SemanticKITTI中的點(diǎn)云都是通過(guò)雷達(dá)采集的,比KITTI-SF中雙目相機(jī)采集的點(diǎn)云稀疏很多,且KITTI-SF(3769幀)和SemanticKITTI(23201幀)的數(shù)據(jù)規(guī)模都遠(yuǎn)遠(yuǎn)大于KITTI-SF。實(shí)驗(yàn)結(jié)果如下面兩張表所示:我們?cè)贙ITTI-SF上訓(xùn)練的OGC模型能直接泛化到稀疏的雷達(dá)點(diǎn)云數(shù)據(jù),并取得與全監(jiān)督方法接近的效果。

fbc16bfe-5f7f-11ed-8abf-dac502259ad0.png

Figure 8在KITTI-Det數(shù)據(jù)集上的定量結(jié)果對(duì)比(*表示模型在KITTI-SF上訓(xùn)練)

fbe3fcf0-5f7f-11ed-8abf-dac502259ad0.png

Figure 9在SemanticKITTI數(shù)據(jù)集上的定量結(jié)果對(duì)比(*表示模型在KITTI-SF上訓(xùn)練)

Ablation Studies

我們?cè)赟APIEN數(shù)據(jù)集上對(duì)OGC框架的核心技術(shù)進(jìn)行了消融實(shí)驗(yàn):

1)損失函數(shù)設(shè)計(jì):從下方圖表可以看到,OGC的三個(gè)損失函數(shù)結(jié)合使用能帶來(lái)最好的效果。如果移除dynamic loss,所有點(diǎn)會(huì)被分到同一物體;如果移除smoothness loss,會(huì)出現(xiàn)“過(guò)度分割”的問(wèn)題。

2)迭代優(yōu)化算法:可以看到,隨著迭代輪數(shù)增多,更高質(zhì)量的運(yùn)動(dòng)估計(jì)確實(shí)帶來(lái)了更好的物體分割表現(xiàn)。

fc08f8ca-5f7f-11ed-8abf-dac502259ad0.png

Figure 10 在SAPIEN數(shù)據(jù)集上的消融實(shí)驗(yàn)(圖-左和表-上:損失函數(shù)設(shè)計(jì);表下:迭代優(yōu)化算法)

5. Summary

最后總結(jié)一下,我們提出了第一個(gè)點(diǎn)云上的無(wú)監(jiān)督3D物體分割框架。這個(gè)框架的核心是一組基于物體幾何形狀一致性的損失函數(shù),利用運(yùn)動(dòng)信息有效地監(jiān)督物體分割。我們的方法在完全無(wú)標(biāo)注的點(diǎn)云序列上訓(xùn)練,訓(xùn)練后可以直接用于分割單幀點(diǎn)云,在多種任務(wù)場(chǎng)景下都展示出了非常好的效果。未來(lái)OGC還可以進(jìn)一步拓展:

1)當(dāng)有少量標(biāo)注數(shù)據(jù)時(shí),如何將無(wú)監(jiān)督的OGC模型與這些標(biāo)注數(shù)據(jù)結(jié)合取得更好的性能;

2)當(dāng)有多幀作為輸入時(shí),如何利用多幀信息更好地分割。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4417

    瀏覽量

    67511
  • 智能機(jī)器人
    +關(guān)注

    關(guān)注

    17

    文章

    920

    瀏覽量

    85800
  • 分割算法
    +關(guān)注

    關(guān)注

    0

    文章

    10

    瀏覽量

    7319

原文標(biāo)題:NeurIPS 2022 | 香港理工提出OGC:首個(gè)無(wú)監(jiān)督3D點(diǎn)云物體實(shí)例分割算法

文章出處:【微信號(hào):CVer,微信公眾號(hào):CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    光子精密3D工業(yè)相機(jī)高效質(zhì)檢連接器pin針

    光子精密GL-8000系列3D線激光輪廓測(cè)量?jī)x,專(zhuān)為精密工件三維檢測(cè)而生,從算法、硬件到系統(tǒng)集成,全面解除PIN針檢測(cè)痛點(diǎn)
    的頭像 發(fā)表于 01-29 15:51 ?123次閱讀
    光子精密<b class='flag-5'>3D</b>工業(yè)相機(jī)高效質(zhì)檢連接器pin針

    常見(jiàn)3D打印材料介紹及應(yīng)用場(chǎng)景分析

    3D打印材料種類(lèi)豐富,不同材料性能差異明顯。本文介紹PLA、ABS、PETG等常見(jiàn)3D打印材料的特點(diǎn)與應(yīng)用場(chǎng)景,幫助讀者了解3D打印用什么材料更合適,為選材提供基礎(chǔ)參考。
    的頭像 發(fā)表于 12-29 14:52 ?618次閱讀
    常見(jiàn)<b class='flag-5'>3D</b>打印材料介紹及應(yīng)用場(chǎng)景分析

    DIPO框架實(shí)現(xiàn)應(yīng)用于具身智能仿真的3D鉸鏈物體生成新范式

    在具身智能從理解環(huán)境向與環(huán)境交互進(jìn)化的當(dāng)下,構(gòu)建真實(shí)且可交互的仿真環(huán)境是重要路徑。單一剛體生成已難滿足需求,機(jī)器人需要面對(duì)的是柜門(mén)、抽屜、微波爐等大量具有物理約束的鉸鏈物體。受限于復(fù)雜的運(yùn)動(dòng)學(xué)結(jié)構(gòu),高質(zhì)量3D鉸鏈物體資產(chǎn)極為稀缺
    的頭像 發(fā)表于 12-03 09:18 ?400次閱讀
    DIPO框架實(shí)現(xiàn)應(yīng)用于具身智能仿真的<b class='flag-5'>3D</b>鉸鏈<b class='flag-5'>物體</b>生成新范式

    iSUN3D即將推出單組分彈性樹(shù)脂3D打印解決方案!

    iSUN3D將在Formnext 2025發(fā)布單組分彈性樹(shù)脂3D打印方案,覆蓋設(shè)計(jì)到交付全流程,解決柔彈性制造成本與效率痛點(diǎn),現(xiàn)場(chǎng)可體驗(yàn)高速打印與限量禮品。
    的頭像 發(fā)表于 11-17 11:45 ?657次閱讀
    iSUN<b class='flag-5'>3D</b>即將推出單組分彈性樹(shù)脂<b class='flag-5'>3D</b>打印解決方案!

    京東11.11直播技術(shù)全面升級(jí),立影3D技術(shù)、JoyAI大模型重構(gòu)沉浸式購(gòu)物體驗(yàn)

    隨著京東 11.11 大促的火熱進(jìn)行,京東直播再度升級(jí)技術(shù)布局,以 “立影 3D 技術(shù)”“JoyAI大模型”等創(chuàng)新技術(shù),打破傳統(tǒng)直播邊界,為用戶帶來(lái)更具沉浸感、趣味性的購(gòu)物體驗(yàn),引領(lǐng)直播電商技術(shù)創(chuàng)新
    的頭像 發(fā)表于 10-27 14:58 ?625次閱讀

    【CIE全國(guó)RISC-V創(chuàng)新應(yīng)用大賽】+基于MUSE Pi Pro的3d激光里程計(jì)實(shí)現(xiàn)

    基于Point-LIO算法的系統(tǒng)設(shè)計(jì)、實(shí)現(xiàn)方法和優(yōu)化策略。 1. 系統(tǒng)概述 項(xiàng)目目標(biāo) 利用MUSE Pi Pro開(kāi)發(fā)板和速騰聚創(chuàng)Airy 96線激光雷達(dá)傳感器,基于Point-LIO算法開(kāi)發(fā)高性能的3D
    發(fā)表于 10-24 17:02

    玩轉(zhuǎn) KiCad 3D模型的使用

    “ ?本文將帶您學(xué)習(xí)如何將 3D 模型與封裝關(guān)聯(lián)、文件嵌入,講解 3D 查看器中的光線追蹤,以及如何使用 CLI 生成 PCBA 的 3D 模型。? ” ? 在日常的 PCB 設(shè)計(jì)中,我們大部分
    的頭像 發(fā)表于 09-16 19:21 ?1.2w次閱讀
    玩轉(zhuǎn) KiCad <b class='flag-5'>3D</b>模型的使用

    iTOF技術(shù),多樣化的3D視覺(jué)應(yīng)用

    動(dòng)態(tài)模糊,確保高耐光性,同時(shí)輸出2D(紅外)和3D(深度)數(shù)據(jù)。 ◆ Testing Principles ※ 測(cè)量脈沖光的飛行時(shí)間,以檢測(cè) TOF 相機(jī)與被測(cè)物體之間的距離。 ◆ ToF 產(chǎn)品
    發(fā)表于 09-05 07:24

    AD 3D封裝庫(kù)資料

    ?AD ?PCB 3D封裝
    發(fā)表于 08-27 16:24 ?7次下載

    Zivid3D相機(jī)安裝使用教程

    Zivid3D相機(jī)小巧便攜,重量輕,分辨率高,速度快,適合高反光透明物體。本文介紹Zivid 3D相機(jī)的操作流程,幫助用戶掌握其功能。從硬件連接、軟件安裝到參數(shù)設(shè)置,重點(diǎn)涵蓋點(diǎn)
    的頭像 發(fā)表于 08-26 15:34 ?659次閱讀
    Zivid<b class='flag-5'>3D</b>相機(jī)安裝使用教程

    3D AD庫(kù)文件

    3D庫(kù)文件
    發(fā)表于 05-28 13:57 ?6次下載

    使用MATLAB進(jìn)行無(wú)監(jiān)督學(xué)習(xí)

    無(wú)監(jiān)督學(xué)習(xí)是一種根據(jù)未標(biāo)注數(shù)據(jù)進(jìn)行推斷的機(jī)器學(xué)習(xí)方法。無(wú)監(jiān)督學(xué)習(xí)旨在識(shí)別數(shù)據(jù)中隱藏的模式和關(guān)系,無(wú)需任何監(jiān)督或關(guān)于結(jié)果的先驗(yàn)知識(shí)。
    的頭像 發(fā)表于 05-16 14:48 ?1438次閱讀
    使用MATLAB進(jìn)行<b class='flag-5'>無(wú)</b><b class='flag-5'>監(jiān)督</b>學(xué)習(xí)

    告別漫長(zhǎng)等待! 3D測(cè)量竟然可以如此的絲滑

    原理介紹海伯森3D閃測(cè)傳感器HPS-DBL系列采用超高速投影方式向測(cè)量對(duì)象上投射出不同波長(zhǎng)的特殊圖案,并采集物體表面的圖案信息,配合海伯森HPS-NB3200高性能視覺(jué)控制器和內(nèi)置AI解碼算法對(duì)數(shù)
    的頭像 發(fā)表于 05-12 18:01 ?679次閱讀
    告別漫長(zhǎng)等待! <b class='flag-5'>3D</b>測(cè)量竟然可以如此的絲滑

    3D閃存的制造工藝與挑戰(zhàn)

    3D閃存有著更大容量、更低成本和更高性能的優(yōu)勢(shì),本文介紹了3D閃存的制造工藝與挑戰(zhàn)。
    的頭像 發(fā)表于 04-08 14:38 ?2430次閱讀
    <b class='flag-5'>3D</b>閃存的制造工藝與挑戰(zhàn)

    一種以圖像為中心的3D感知模型BIP3D

    在具身智能系統(tǒng)中,3D感知算法是一個(gè)關(guān)鍵組件,它在端側(cè)幫助可以幫助智能體理解環(huán)境信息,在云端可以用來(lái)輔助生成3D場(chǎng)景和3D標(biāo)簽,具備重要的研究?jī)r(jià)值?,F(xiàn)有主流
    的頭像 發(fā)表于 03-17 13:44 ?1238次閱讀
    一種以圖像為中心的<b class='flag-5'>3D</b>感知模型BIP<b class='flag-5'>3D</b>