国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

使用合成數據處理自動駕駛新視角感知

NVIDIA英偉達企業解決方案 ? 來源:未知 ? 2023-11-24 19:25 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

雖然,從小型客車到多軸半掛卡車,自動駕駛汽車 (AV) 有各種尺寸和大小,但部署在這些車輛上的感知算法都要經過訓練,以處理諸如避障或行人檢測等類似場景。

用于開發和驗證這些算法的數據集通常從某一款車型中收集,例如配備攝像頭、雷達、激光雷達和超聲波傳感器的某款小轎車。

使用某類傳感器配置的車隊數據訓練的感知算法可以在同類傳感器配置的車型上穩定運行。但當相同的算法被部署到使用了不同傳感器配置的車輛上時,感知性能會降低,因為現在是從新的視角來感知的。

分析感知精度的損失,需要測量深度神經網絡 (DNN) 對新傳感器位置的敏感度。通過靈敏度分析,可以從多個角度重新訓練感知算法,從而有針對性地提高魯棒性。

但是,靈敏度分析和重新訓練感知都需要收集和標注各種傳感器配置的數據集。這個過程耗時且成本高昂。

本文展示了 NVIDIA DRIVE Sim 中的合成數據集以及 NVIDIA 在新視角合成 (NVS) 方面的最新研究如何填補數據缺口,并幫助在部署新傳感器配置時保持感知準確性。

測量 DNN 靈敏度

在為不同傳感器視角創建合成數據集之前,首先需要在 NVIDIA DRIVE Sim 中構建數字孿生的測試車隊車輛,并配備經過與真實世界的傳感器配置標定的攝像頭傳感器模型。

合成數據是通過在預定義場景中按照某個軌跡駕駛汽車,收集并保存仿真攝像頭數據。每次駕駛的場景各不相同,例如傳感器裝備高度、俯沖和安裝位置等方面,以模擬其他尺寸類型的車輛。

通過使用 NVIDIA Omniverse Replicator 在 Omniverse 中生成真值 (Ground Truth, GT) 標注(如 3D 邊界框)和評估感知算法所需的目標類別。整個工作流都是可重復的,并且能夠運行設計好的實驗,以便快速測量感知算法的靈敏度。

在生成的數據集做推理,將預測的輸出與 GT 標簽進行比較,用以測量在不同攝像頭高度配置下的模型精度,如圖 1 和 圖 2 所示。數據集的場景相同,但傳感器角度不同。在圖 1 中,藍色框代表 GT 標簽,而綠色框代表網絡的預測。在圖 2 中,藍色框代表 GT 標簽,而紅色框代表網絡的預測。

wKgZomVgiUCABs72AHEXfm5gCjw794.gif

圖 1. 目標檢測模型

在四個不同的合成數據集上運行的示例,

重點關注車輛物體類別

wKgZomVgiUGAROkgAG2e1PpDvB4602.gif

圖 2. 目標檢測模型

在四個不同的合成數據集上運行的示例,

重點關注行人物體類

鑒于網絡是基于一類車輛采集數據進行訓練的,因此(與采集車)相似的攝像頭配置,檢測會更準確,隨著攝像頭位置的顯著變化而檢測性能降低。

要解決感知模型在新車型上部署的差距,需要視角不同于原始采集車的新車型的訓練數據集。雖然現有的車隊數據可通過數據增強來使用,但這種方法并不能完全滿足數據集收集新視角的需求。

新視角合成

NVS 是一種計算機視覺方法,用于從一組現有圖像中生成未見過的新場景視圖。這項功能可以從不同視角或角度創建場景圖像,而不是由車載相機捕獲。

wKgZomVgiUGAOtWuAANZeFB8UWA590.png

圖 3. 新視角合成的完整管線

NVIDIA 研究團隊最近提出了一種 NVS 方法,該方法能夠將動態駕駛數據從一個傳感器位置轉換到新視角,用于模擬不同的高度、俯仰角 (pitch) 和航向角 (yaw) 等傳感器的新視角。有關詳細信息,請參閱 Towards Viewpoint Robustness in Bird’s Eye View Segmentation

(https://nvlabs.github.io/viewpoint-robustness/assets/tzofi2023view.pdf)

該方法基于 Worldsheet,一種結合深度估計和 3D 網格合成來生成靜態場景新視角的技術。首先,根據預測的深度值將Lattice網格變形以匹配場景,從而創建 3D 場景網格。然后,使用紋理采樣器將原始圖像中的 RGB 像素強度投射到 3D 網格的紋理圖上。相比之前的工作,進一步采用基于激光雷達的深度監督和自動掩碼來提高深度估計的準確性并處理遮擋問題。

NVS 模型現在可用于生成數據,就像是從不同類型的車輛中獲取的一樣。從而能幫助解鎖現有車隊數據,以便在未來的自動駕駛汽車開發中使用。

wKgZomVgiUKAcHffAAft0rtSBUc798.png

圖 4. NVS 變換后的圖像示例,這些圖像生成的視角會改變原始俯仰角、深度和高度

驗證 NVS 并提升感知性能

在將 NVS 生成的數據納入訓練數據集之前,首先要驗證其是否準確的反映了真實世界,并且是否對感知訓練有效。

為此,驗證 NVS 算法需要結合車隊數據和 NVS 轉換后的數據來訓練感知算法。如果沒有多視角的真實數據來測試模型的性能,可以在 DRIVE Sim 中生成合成數據和 GT 標注,與前面討論的靈敏度測試類似。

wKgZomVgiUKAJXOwABL35o4XAh4021.png

圖 5. 在 DRIVE Sim 中生成的一組用于感知驗證的具有不同俯仰角、深度和高度的攝像頭圖像

在這些合成數據集上做推理表明,使用 NVS 生成的數據進行訓練可以提高感知性能。具體而言:

  • NVS 生成的數據質量非常合適用于不同俯仰角場景,不適用于較大高度的場景。

  • 用于訓練的 NVS 轉換數據能夠恢復感知性能,而這曾只有通過為每個新傳感器配置收集新數據才能實現。

這種方法開啟了一種 AV 開發新途徑,即只需一次數據采集,然后再將其重新用于多種車型,從而顯著降低部署成本和時間。

結語

開發能夠在不同類型車輛上魯棒的運行的感知堆棧是一項巨大的數據挑戰。而合成數據生成和用于新視角合成 (NVS) 的 AI 技術能夠實現感知靈敏度的系統測量。這大大提高了現有數據集的價值,并縮短了為其他車輛部署感知堆棧的時間。

我們邀請了廣大研究人員參與這項工作。因此,我們在 Towards Viewpoint Robustness in Bird’s Eye View Segmentation 中公布了來自 DRIVE Sim 的合成數據:

https://nvlabs.github.io/viewpoint-robustness/assets/tzofi2023view.pdf

歡迎探索這些數據并了解詳情

https://nvlabs.github.io/viewpoint-robustness/

點擊“閱讀原文”,獲取更多資訊。

了解更多

  • NVIDIA 與其汽車行業合作伙伴共同開發的領先設計與技術:

    https://developer.nvidia.cn/drive

  • 適用于自動駕駛汽車的 NVIDIA 解決方案:

    https://www.nvidia.cn/self-driving-cars/

GTC 2024 將于 2024 年 3 月 18 至 21 日在美國加州圣何塞會議中心舉行,線上大會也將同期開放。掃描下方海報二維碼,立即注冊 GTC 大會


原文標題:使用合成數據處理自動駕駛新視角感知

文章出處:【微信公眾號:NVIDIA英偉達企業解決方案】歡迎添加關注!文章轉載請注明出處。


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 英偉達
    +關注

    關注

    23

    文章

    4087

    瀏覽量

    99192

原文標題:使用合成數據處理自動駕駛新視角感知

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業解決方案】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    自動駕駛如何確保數據處理的實時性?

    [首發于智駕最前沿微信公眾號]在自動駕駛系統里,數據處理的實時性并不是一個抽象的技術指標,而是直接決定車輛“來不來得及反應”的關鍵能力。道路環境變化極快,前車急剎、行人突然橫穿、旁車并線等情況
    的頭像 發表于 02-21 09:48 ?5216次閱讀
    <b class='flag-5'>自動駕駛</b>如何確保<b class='flag-5'>數據處理</b>的實時性?

    FCB-EV9520L+CM2001U如何破解自動駕駛視覺難題?

    CM2001U作為配套的USB編碼板,通過高效的數據傳輸與接口兼容性,為視覺系統提供了穩定的技術支撐。兩者的協同,為自動駕駛車輛構建了從圖像采集到數據處理的完整鏈路。 一、FCB-EV9520L:多場景
    的頭像 發表于 12-29 15:24 ?898次閱讀

    自動駕駛BEV Camera數據采集系統:高精度時間同步解決方案

    波動。BEV(Bird's-Eye-View)感知技術以其尺度變化小、視角遮擋少的顯著優勢,正成為自動駕駛領域的關鍵技術,而高精度時間同步是確保BEV感知算法準確性的基礎保障。 2 時
    的頭像 發表于 12-11 17:11 ?1317次閱讀
    <b class='flag-5'>自動駕駛</b>BEV Camera<b class='flag-5'>數據</b>采集系統:高精度時間同步解決方案

    自動駕駛BEV Camera數據采集:時間同步技術解析與康謀解決方案

    一、自動駕駛傳感器融合中的時間同步重要性 在自動駕駛感知體系中,BEV(Bird's-Eye-View,鳥瞰圖)感知技術憑借尺度變化小、視角
    的頭像 發表于 12-11 16:36 ?1033次閱讀
    <b class='flag-5'>自動駕駛</b>BEV Camera<b class='flag-5'>數據</b>采集:時間同步技術解析與康謀解決方案

    自動駕駛感知不一致是怎么發生的?

    [首發于智駕最前沿微信公眾號]為了讓自動駕駛汽車能夠安全行駛,很多技術方案中會將多個感知硬件加裝到車輛上,以確保自動駕駛汽車感知冗余,但感知
    的頭像 發表于 09-17 12:45 ?764次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>感知</b>不一致是怎么發生的?

    如何確保自動駕駛汽車感知的準確性?

    [首發于智駕最前沿微信公眾號]自動駕駛汽車想要自動駕駛,首先要做的就是能對周邊環境實現精準感知,也就是能“看”清道路,那自動駕駛汽車如何在復雜、快速變化的道路環境中做到
    的頭像 發表于 08-23 15:06 ?1667次閱讀
    如何確保<b class='flag-5'>自動駕駛</b>汽車<b class='flag-5'>感知</b>的準確性?

    自動駕駛數據標注主要是標注什么?

    [首發于智駕最前沿微信公眾號]在自動駕駛系統的研發過程中,數據標注是實現高性能感知模型的基礎環節,其核心目標是將車輛從環境中采集到的原始感知數據
    的頭像 發表于 07-30 11:54 ?1342次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>數據</b>標注主要是標注什么?

    什么是自動駕駛數據標注?如何好做數據標注?

    [首發于智駕最前沿微信公眾號]在自動駕駛系統的開發過程中,數據標注是一項至關重要的工作。它不僅決定了模型訓練的質量,也直接影響了車輛感知、決策與控制的性能表現。隨著傳感器種類和數據量的
    的頭像 發表于 07-09 09:19 ?1376次閱讀
    什么是<b class='flag-5'>自動駕駛</b><b class='flag-5'>數據</b>標注?如何好做<b class='flag-5'>數據</b>標注?

    SONY FCB-CR8530,如何重塑自動駕駛視覺感知格局?

    自動駕駛技術快速發展的當下,車輛對周圍環境的精準感知是確保安全與高效運行的關鍵。凱茉銳電子SONY FCB-CR8530攝像機憑借其卓越性能,正逐漸成為自動駕駛領域視覺感知系統的核心
    的頭像 發表于 06-25 17:54 ?637次閱讀

    淺析4D-bev標注技術在自動駕駛領域的重要性

    感知領域的一項突破性創新,通過引入時間維度與全局視角,為自動駕駛系統提供了高精度、多模態的時空真值數據,重塑了自動駕駛系統的開發范式。 4D
    的頭像 發表于 06-12 16:10 ?2358次閱讀

    新能源車軟件單元測試深度解析:自動駕駛系統視角

    。 ?自動駕駛軟件的特殊性? ? 感知層: ?激光雷達、攝像頭等傳感器數據處理算法的單元測試需覆蓋極端場景。例如,激光雷達點云濾波算法在雨雪天氣下的噪聲抑制能力需通過邊界測試驗證。某廠商曾在測試中遺漏
    發表于 05-12 15:59

    技術分享 | 高逼真合成數據助力智駕“看得更準、學得更快”

    自動駕駛研發如何高效獲取海量訓練數據?高逼真合成數據技術正在提供新解法。通過仿真平臺可生成多場景、多傳感器的精準標注數據。文章詳解如何構建符合nuScenes標準的
    的頭像 發表于 04-29 10:47 ?3527次閱讀
    技術分享 | 高逼真<b class='flag-5'>合成數據</b>助力智駕“看得更準、學得更快”

    感知融合如何讓自動駕駛汽車“看”世界更清晰?

    ”,更是車輛實現自主決策的基礎。 環境感知系統需要實時采集、處理和分析車輛周圍的動態和靜態信息,包括其他車輛、行人、交通標志、道路狀況以及天氣條件等。這些信息直接影響到自動駕駛的路徑規劃與控制決策的準確性和安全性
    的頭像 發表于 04-27 16:24 ?875次閱讀
    <b class='flag-5'>感知</b>融合如何讓<b class='flag-5'>自動駕駛</b>汽車“看”世界更清晰?

    技術分享 | AVM合成數據仿真驗證方案

    AVM 合成數據仿真驗證技術為自動駕駛環境感知發展帶來助力,可借助仿真軟件配置傳感器、搭建環境、處理圖像,生成 AVM 合成數據,有效加速算
    的頭像 發表于 03-19 09:40 ?3740次閱讀
    技術分享 | AVM<b class='flag-5'>合成數據</b>仿真驗證方案