国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

一種360°全景定制的Transformer框架

倩倩 ? 來源:極市平臺 ? 作者:廖康@知乎 ? 2022-08-31 11:06 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導讀

現有的基于CNN 的全景深度估計方法側重于消除全景失真,由于CNN中固定的接收場,無法有效地感知全景結構。本文提出了一種360°全景定制的Transformer框架,可以很容易地遷移到全景視覺其他dense prediction任務上,比如全景圖像語義分割,無需改變任何網絡結構便能取得SOTA性能。

342a6de0-28b9-11ed-ba43-dac502259ad0.jpg

論文鏈接:

https://arxiv.org/pdf/2203.09283.pdf

代碼鏈接:

https://github.com/zhijieshen-bjtu/PanoFormer

文案:申志杰,廖康

343bf8a8-28b9-11ed-ba43-dac502259ad0.jpg

PanoFormer簡介圖

1. 研究背景及動機

單目全景深度估計(monocular omnidirectional depth estimation, MODE)是三維場景理解中的一個子領域,其任務設定為給定一張360°全景RGB圖像,通過網絡建模推理得到對應的360°深度圖,相較于立體視覺而言具有更好的便利性。

MODE使用更為常見的等距柱狀投影(ERP)全景圖作為輸入。這與正常的2D perspective圖像存在較大差異:ERP全景圖的360°視角增益是以畸變為代價,因此導致整幅圖像存在規律性的扭曲(畸變程度由圖片水平軸線向垂直邊逐漸增大)。受限于CNN有限的感受野和固定的采樣位置,這種畸變特性使得MODE具有獨立于傳統單目深度估計任務之外的挑戰性。

當然,此前的一些工作提出基于CUBE和ERP投影的雙分支融合結構來增強網絡對于大畸變區域的特征提取和建模能力,但需要注意的是,CUBE格式的全景圖在投影過程中會有25%像素的丟失,這直接導致CUBE分支深度圖的模糊。如此兩個分支的有限結果決定了其性能上限。為了解決像素損失這一問題,后續有工作提出基于旋轉CUBE設計雙分支結構,一定程度上緩和了這一矛盾。

隨著Transformer網絡框架的興起,其獨特的long-range建模能力為解決大畸變問題提供了一個新的思路。但“拿來主義”真能行得通嗎?

2. 應用挑戰

首先,我們回顧一下傳統的視覺Transformer在處理圖像時的步驟并分析一下其在ERP圖像上的應用挑戰:

劃分patch

在以ERP格式作為輸入的前提下會有兩種劃分patch的方法:(1)直接等間距劃分patch;(2)將球面全景圖投影成重疊的perspective視口自然地作為patch。首先,直接劃分patch的方法會顯著破壞大畸變區域的結構,而perspective視口可以將跨度非常大的物體投影回一個patch。這樣對比來看似乎后者更有趣且合理。

Patch->Embedding->Token

視覺Transformer中做位置嵌入是通過線性層壓縮特征維度實現的,那這種特征維度的壓縮對于深度估計這一類像素級回歸任務來說會不會造成信息的丟失,從而導致性能的下降?

位置嵌入

此前的一些工作指出,在視覺領域位置嵌入能夠貢獻的力量似乎并沒有很大,且比較雞肋,很多工作甚至直接摒棄了位置嵌入模塊,他們認為網絡中所引入的卷積結構會暗含位置信息。但考慮步驟1,如果我們采用perspective視口patch的劃分方式,其真實的空間位置已經發生了改變,因此一個合適的位置嵌入策略在MODE中是迫切需要的。那么如何設計一個合理的位置嵌入方式呢?

Self-attention

自注意力模塊通過壓縮后的特征生成q, k, v依次查詢計算全局注意力,如果我們的embedding設計成像素級,將會帶來很大的計算復雜度,如何解決?

為了解決這些問題我們提出了一種360°全景定制的Transformer框架。

3. 方法

344a7464-28b9-11ed-ba43-dac502259ad0.jpg

Spherical Token Locating Model (STLM)

劃分patch

如前所述,我們劃分patch可以盡可能地通過投影的方式劃分patch而不是直接在ERP圖上劃分。投影我們選擇CUBE格式的perspective視口。那么問題是,我們如何選擇CUBE patch的切點?以及如何確定patch的大小?不考慮計算復雜度,我們可以將每個像素點都作為一次切點,這樣信息會盡可能地全部保留。至于大小,我們在前面討論了CUBE投影的弊端之一是像素丟失,在這里我們還要討論一種弊端:對于CUBE投影面,理想情況下僅有CUBE的中心點(即切點)不存在畸變,除此之外,其他位置會呈現出由切點向四周逐漸增大的畸變趨勢。考慮一種極端的情況,當CUBE的大小收縮到極致,即每個CUBE面僅由中心切點及其周圍的八個點組成,CUBE面近似貼近球面,畸變影響降至最小。我們將此時的CUBE面稱為Tangent patch。

Embedding

從盡可能提高性能的角度出發,我們可以通過等價映射將每個像素點映射成一個Token。區別于傳統Transformer中將每個Patch嵌入為每個Token,我們直接將每個Tangent Patch上的采樣點當作Token。直觀的理解,我們的patch和token都是手工劃分的,patch在我們的網絡中多為一種抽象的概念,我們直接的操作對象是Token(采樣點),即每個切點及其周圍的八個點。

位置嵌入

Tangent Patch是相對于球面而言,為了定義其空間位置屬性,我們將手工劃分的patch反投影到ERP圖上。注意在球面全景圖上每個patch由切點及其周圍的八個投影點組成,而在ERP圖上這種空間對應關系發生了改變,由于畸變的存在,他們在ERP上幾乎不再相鄰。這種位置投影對應關系恰恰提供了我們Transformer里面所需要的位置嵌入。

34580d36-28b9-11ed-ba43-dac502259ad0.jpg

Panoramic Structure-guided Transformer (PST) block

計算注意力

首先如果我們像傳統Transformer那樣計算注意力,其計算開銷非常大,但得益于我們patch劃分方式和位置嵌入策略,我們似乎找到了其最相關的位置對應關系,即切點token及與其最相關的8個token。那么我們可以僅僅通過計算切點token(或中心token)與這8個token的注意力即可。但問題如果這樣做,我們會犯了一個非常大的錯誤,即把token的位置鎖死了,使得我們的網絡架構喪失了傳統Transformer固有的靈活性。為了解決這一問題,我們提出了token flow的概念,即通過學習一個偏移來彌補其結構上靈活性的喪失。意外之喜是,這種流式的概念可以使網絡更好地建模全景結構這一重要的深度線索。

最后,我們基于設計的PST block構建最終的PanoFormer網絡框架:

346f3fba-28b9-11ed-ba43-dac502259ad0.jpg

PanoFormer網絡架構圖

4. 新指標

為了突出模型對于大畸變區域的建模能力,我們通過選取6個CUBE投影面的上下兩個面來設計Pole-RMSE指標。(注意此指標的應用的一個前提條件是全景相機水平放置,目前的流行的數據集大都遵循這一假設。)

考慮到ERP全景圖的特性,左右可以實現無縫拼接,我們提出LRCE指標來反映模型的長距離建模能力。

詳細計算過程請參考論文。

5. 實驗結果

我們在四個主流的MODE數據集上對我們的模型進行了評估,結果顯示我們的模型取得了更有競爭力的結果。但由于Stanford2D3D以及Matterport3D數據集的固有缺陷導致我們沒有辦法在這兩個數據集上評測我們的新指標(P-RMSE),因此我們在這兩個數據集上只報道了MRE和MAE的指標性能,這兩個指標的計算參照SliceNet(CVPR'21)所開源的代碼執行。此外,關于數據集的一些討論詳情見gihub代碼鏈接。

值得一提的是,PanoFormer可以很容易地遷移到全景視覺其他dense prediction任務上,比如全景圖像語義分割,無需改變任何網絡結構便能取得SOTA性能。

34877724-28b9-11ed-ba43-dac502259ad0.jpg

客觀指標

34a098da-28b9-11ed-ba43-dac502259ad0.jpg

主觀對比

34b0608a-28b9-11ed-ba43-dac502259ad0.jpg

全景語義分割客觀指標

6. 局限性

關于更高分辨率的擴展計算復雜度可能是我們工作的一個待提升的點。這可以通過在encoder階段增加下采樣層,在decoder階段增加插值操作得到緩解。此外,如果仔細觀察可以發現attention計算部分存在比較多重復計算的情況,這可能是優化我們網絡的一個方向。

希望我們的工作可以為該領域帶來啟發。

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 框架
    +關注

    關注

    0

    文章

    404

    瀏覽量

    18444
  • 數據集
    +關注

    關注

    4

    文章

    1236

    瀏覽量

    26208
  • Transformer
    +關注

    關注

    0

    文章

    156

    瀏覽量

    6939

原文標題:首個360°全景定制的單目深度估計Transformer-PanoFormer(ECCV 2022)

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    Transformer如何讓自動駕駛大模型獲得思考能力?

    在談及自動駕駛時,Transformer直是非常關鍵的技術,為何Transformer在自動駕駛行業直被提及?
    的頭像 發表于 02-01 09:15 ?4207次閱讀

    一種無OS的MCU實用軟件框架

    介紹一種無OS的MCU實用軟件框架,包括任務輪詢管理,命令管理器、低功耗管理、環形緩沖區等實用模塊。系統中廣泛利用自定義段技術減少各個模塊間的耦合關系,大大提供程序的可維護性。 主要功能 支持模塊
    發表于 01-08 06:58

    Transformer如何讓自動駕駛變得更聰明?

    ]自動駕駛中常提的Transformer本質上是一種神經網絡結構,最早在自然語言處理里火起來。與卷積神經網絡(CNN)或循環神經網絡(RNN)不同,Transformer能夠自動審視所有輸入信息,并動態判斷哪些部分更為關鍵,同時
    的頭像 發表于 11-19 18:17 ?2293次閱讀

    為什么360°鏡頭容易“踩坑”?

    視場角來更直觀地描述其視野范圍。如何選擇與避坑?明確你的FOV需求:全視野(360°x180°):鏡頭正上方的半球形全景。這是最常見的360°鏡頭,能次性覆蓋機器
    的頭像 發表于 11-18 11:29 ?545次閱讀
    為什么<b class='flag-5'>360</b>°鏡頭容易“踩坑”?

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+第二章 實現深度學習AI芯片的創新方法與架構

    徹底改變了自然語義處理的研究和應用。它引入了自注意機制和位置編碼,能夠有效的捕捉輸入序列中的關聯信息,實現更好的上下文理解和建模。 Transformer 模型由個編碼器和個解碼器組成,是
    發表于 09-12 17:30

    12 路 1080P 滿負載!米爾 RK3576 補全車載 360° 全景影像視野

    對車載 360° 全景影像來說,“看得全” 是基礎,“看得清、看得快” 才是核心 —— 而這切的關鍵,在于硬件能否扛住多路高清視頻流的實時處理壓力。米爾電子基于瑞芯微 RK3576 打造的開發板
    發表于 09-11 17:16

    一種適用于動態環境的自適應先驗場景-對象SLAM框架

    由于傳統視覺SLAM在動態場景中容易會出現嚴重的定位漂移,本文提出了一種新穎的基于場景-對象的可靠性評估框架,該框架通過當前幀質量指標以及相對于可靠參考幀的場景變化,全面評估SLAM的穩定性。
    的頭像 發表于 08-19 14:17 ?886次閱讀
    <b class='flag-5'>一種</b>適用于動態環境的自適應先驗場景-對象SLAM<b class='flag-5'>框架</b>

    一種抗輻射加固檢錯糾錯電路的設計

    電子發燒友網站提供《一種抗輻射加固檢錯糾錯電路的設計.pdf》資料免費下載
    發表于 08-11 15:38 ?0次下載

    米爾RK3576核心板,讓360環視技術開發更簡單

    了專為視覺感知技術設計的RK3576核心板。這核心板兼顧性能、靈活性和易用性,旨在幫助開發人員快速實現360環視方案。 米爾RK3576核心板資源框圖 ? 支持4路攝像頭,輕松實現全景拼接
    發表于 08-06 18:13

    Transformer架構概述

    由于Transformer模型的出現和快速發展,深度學習領域正在經歷場翻天覆地的變化。這些突破性的架構不僅重新定義了自然語言處理(NLP)的標準,而且拓寬了視野,徹底改變了AI的許多方面。
    的頭像 發表于 06-10 14:24 ?1302次閱讀
    <b class='flag-5'>Transformer</b>架構概述

    重量級玩家入局,全景相機越來越卷?

    ? 電子發燒友網報道(文/黃晶晶)日前消息稱,大疆首款全景相機DJI Osmo 360進入發布倒計時,方面大疆的產品版圖拓寬,另方面當前全景
    的頭像 發表于 06-08 07:57 ?6580次閱讀
    這<b class='flag-5'>一</b>重量級玩家入局,<b class='flag-5'>全景</b>相機越來越卷?

    一種新型寬帶鞭狀套筒天線

    電子發燒友網站提供《一種新型寬帶鞭狀套筒天線.pdf》資料免費下載
    發表于 05-28 14:05 ?0次下載

    一種實時多線程VSLAM框架vS-Graphs介紹

    針對現有VSLAM系統語義表達不足、地圖可解釋性差的問題,本文提出vS-Graphs,一種實時多線程VSLAM框架。該方案顯著提升了重建地圖的語義豐富度、可解釋性及定位精度。實驗表明
    的頭像 發表于 04-19 14:07 ?1016次閱讀
    <b class='flag-5'>一種</b>實時多線程VSLAM<b class='flag-5'>框架</b>vS-Graphs介紹

    DuxCam G2S全景相機,提供360°全景測繪解決方案

    。配合6目定制魚眼鏡頭緊密排布設計,多鏡頭視差相對競品降低35%,顯著提升全景圖像的空間致性。 3. 智能圖像處理管線 內置專業攝影機同系列ISP芯片,智能圖像處理管線,支持7200萬像素滿分辨率下
    發表于 04-07 16:26

    一種多模態駕駛場景生成框架UMGen介紹

    端到端自動駕駛技術的快速發展對閉環仿真器提出了迫切需求,而生成式模型為其提供了一種有效的技術架構。然而,現有的駕駛場景生成方法大多側重于圖像模態,忽略了其他關鍵模態的建模,如地圖信息、智能交通參與者等,從而限制了其在真實駕駛場景中的適用性。
    的頭像 發表于 03-24 15:57 ?1700次閱讀
    <b class='flag-5'>一種</b>多模態駕駛場景生成<b class='flag-5'>框架</b>UMGen介紹