国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

如何以模型和場景為中心的方式控制數據生成

3D視覺工坊 ? 來源:計算機視覺深度學習和自 ? 作者:黃浴 ? 2022-10-26 11:06 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

訓練計算機視覺模型通常需要在各種場景配置和屬性下收集和標注大量圖像。這個過程非常耗時,確保捕獲的數據分布很好地映射到應用程序場景的目標域也是一個挑戰。

最近,合成數據已成為解決這兩個問題的一種方法。然而,現有的方法要么需要人類專家手動調整每個場景屬性,要么用幾乎沒有控制的自動方法;這需要渲染大量隨機的數據變異,其過程很慢,并且對于目標域來說通常是次優的。

作者提出了第一個完全可微分的合成數據流水線,在閉環中用神經輻射場(NERF),其具備目標應用的損失函數。這個方法按需生成數據,無需人力,最大限度地提高目標任務的準確性。

該方法在合成和真實目標檢測任務中具備有效性。一個新的“YCB-in-the-Wild”數據集和基準,為現實環境中具有不同姿態的目標檢測提供了測試場景。

最近,圖像生成技術神經輻射場(NeRF),作為用基于神經網絡的渲染器,替代傳統光柵化和光線跟蹤圖形學流水線的方法。這種方法可以生成高質量的場景新視圖,無需進行明確的3D理解。NeRF的最新進展允許控制其他渲染參數,如照明、材質、反照率、外觀等。因此,被廣泛應用于各種圖形和視覺任務。

NeRF及其變型具有一些誘人的特性:(i)可差分渲染,(ii)與GANs和VAEs不同的對場景屬性的控制,以及(iii)與傳統渲染器相比,數據驅動的模式,而傳統渲染器需要精心制作3D模型和場景。這些屬性適合于為給定目標任務按需生成最佳數據。

NeRF更適合學習生成合成數據集的優勢在于兩個方面。 首先,NeRF學習僅基于圖像數據和攝像頭姿態信息從新視圖生成數據。

相反,傳統的圖形學流水線需要目標的3D模型作為輸入。獲得具有正確幾何、材質和紋理屬性的精確3D模型通常需要人類專家(即藝術家或建模師)。這反過來限制了傳統圖形學流水線在許多新目標或場景的大規模渲染中的可擴展性。

其次,NeRF是一種可微分的渲染器,因此允許通過渲染流水線進行反向傳播,學習如何以模型和場景為中心的方式控制數據生成。 工作目標是自動合成最佳訓練數據,最大限度地提高目標任務的準確性,取名為Neural-Sim。

在這項工作中,將目標檢測作為目標任務。此外,最近,NeRF及其變型(NeRFs)已用于合成復雜場景的高分辨率真實感圖像。這里提出了一種優化NERF渲染參數的技術,生成用于訓練目標檢測模型的最佳圖像集。

如圖所示:(a) 按需合成數據生成:給定目標任務和測試數據集,Neural- Sim使用完全可微分的合成數據生成流水線按需生成數據,最大限度地提高目標任務的精度。(b) 訓練/測試域間隙導致檢測精度顯著下降(黃色條至灰色條)。動態優化渲染參數(姿勢/縮放/照明),生成填充該間隙的最佳數據(藍色條)。

a0a81ae0-4852-11ed-a3b6-dac502259ad0.png


NeRF模型

NeRF表示為V =(φ,ρ),把觀察方向(或攝像頭姿態)作為輸入,并渲染沿V觀看的場景圖像x=NeRF(V)。注意,這里技術通常廣泛適用于不同的渲染器。這項工作中還優化了NeRF-in-the-wild(NeRF-w),允許外觀和照明變化以及姿勢變化。

合成訓練數據生成

考慮渲染參數V的參數概率分布pψ,其中ψ表示分布的參數。應注意,ψ對應于所有渲染參數,包括姿勢/縮放/照明,這里,為了簡單起見,ψ表示姿勢變量。為了生成合成訓練數據,首先采樣渲染參數V1、V2、…、VN~ pψ。然后,用NeRF生成具有各自渲染參數Vi的合成訓練圖像xi=NeRF(Vi)。 使用現成的前景提取器獲得標簽y1,y2,…,yN。由此生成的訓練數據集表示為Dtrain = {(x1,y1)、(x2,y2),…,(xN,yN)}。

優化合成數據生成

目標是優化渲染分布pψ,在Dtrain上訓練目標檢測模型使得在Dval上獲得良好的性能。如此構建一個兩層優化,即:

a0c77e6c-4852-11ed-a3b6-dac502259ad0.png

其中

a0dfe2ea-4852-11ed-a3b6-dac502259ad0.png

a0f6458a-4852-11ed-a3b6-dac502259ad0.png

這里求解方法采用如下的梯度計算:其分成兩個項分別估計,?NeRF對應于通過從NeRF生成數據集的反向傳播,以及?TV對應于通過訓練和驗證的近似反向傳播

a1164a42-4852-11ed-a3b6-dac502259ad0.png

如圖所示Neural-Sim的流水線:從經過訓練的神經渲染器(NeRF)中找到生成視圖的最佳參數,用作目標檢測的訓練數據。目標是找到能夠生成合成訓練數據Dtrain的最佳NeRF渲染參數ψ,在Dtrain上訓練的模型(取RetinaNet為例)最大化驗證集Dval表示的下游任務的精度。


a131ca7e-4852-11ed-a3b6-dac502259ad0.png

近似計算:

a157ff32-4852-11ed-a3b6-dac502259ad0.png

然后基于鏈式法則得到:

a17da4ee-4852-11ed-a3b6-dac502259ad0.png

為計算采用一些近似方法:

對于位姿參數離散區間上的分布pψ,提出了一種ψ的重新參數化,提供了dVi/dψ的有效近似(工具 1)。

用一種兩次向前一次向后(twice-forward-once-backward)的方法(工具2),大大減少了(2)中梯度近似的內存和計算開銷。如果沒有這種新技術,實現中需要涉及大矩陣和計算圖的高計算開銷。

即使使用上述技術,在GPU內存方面,(3)中計算第一項和第二項的開銷很大,取決于圖像大小。用逐塊梯度計算方法(工具 3)克服了這一問題。

關于工具1中重新參數化的實現,采用bin-samplinng,如圖所示:首先將位姿空間離散為一組k個bins,然后對其進行采樣以生成NeRF的視圖參數。為了在采樣過程中反向傳播,用Gumble softmax的“重新參數化技巧”,從類別(即bin)分布中近似樣本。在每個bin中,均勻采樣。

a1979994-4852-11ed-a3b6-dac502259ad0.png

這里y的計算如下

a1bd50e4-4852-11ed-a3b6-dac502259ad0.png

這樣?NeRF的計算變成:

a1d378ec-4852-11ed-a3b6-dac502259ad0.png

整個梯度計算包括三項:

a1e8e8da-4852-11ed-a3b6-dac502259ad0.png ?

而工具2提出的“兩次向前一次向后“方法是這樣的:在第一個前向路徑中,不計算梯度,只渲染圖像形成Dtrain,保存用于渲染的y,φj的隨機樣本。然后,轉向梯度計算(3)。在第二次通路NeRF時,保持相同的樣本,去計算梯度(1)和(2)。 所謂工具3的逐塊梯度計算如下:

a20eb646-4852-11ed-a3b6-dac502259ad0.png

NeRF-in-the-wild(NeRF-w)擴展了普通NeRF模型,允許依賴于圖像的外觀和照明變化,從而可以顯式模擬圖像之間的光度差異。

NeRF-w沿觀看方向V作為輸入的是外觀嵌入,表示為l,圖像呈現為x=NeRF(V,l)。

對于NERF-w,位姿(V)的優化與上述相同。照明的有效優化,則利用NeRF-w的一個值得注意的特性:允許在顏色和照明之間進行平滑插值。這能夠將照明優化為連續變量,其中照明(l)可以寫成可用照明嵌入(li)的仿射函數,l = sum(ψi? li)其中sum(ψi)= 1。

為從等式(3)計算梯度,?xi/?l使用工具2和工具3,以與上述相同的方式計算l,并且dl/dψ項計算是直接的,并通過投影梯度下降(projected gradient descent)進行優化。

實現細節如下:用傳統渲染Blender-Proc,100幅具有不同攝像頭姿態和縮放因子的圖像,為每個YCB目標訓練一個NeRF-w模型。用RetinaNet作為下游目標檢測器。

為了加速優化,在訓練期間固定主干。在雙層優化步驟中,用Gumble softmax 溫度τ = 0.1。在每次優化迭代中,為每個目標類渲染50幅圖像,并訓練兩個epoch的 RetinaNet。

基線方法包括:提出的方法與學習模擬器參數的兩種流行方法進行比較。第一個基線是“Learning to simulate (LTS)“,它提出了一種基于REINFORCE的方法來優化模擬器參數。

還要注意,meta-sim是一種基于REINFORCE的方法。接下來,第二個考慮Auto-Sim,它提出了一種學習模擬器參數的有效優化方法。

NS是指提出的方法沒有做兩層優化的情況,NSO是指提出的方法采用兩層優化的情況。

實驗結果如下:

a22f3ba0-4852-11ed-a3b6-dac502259ad0.pnga254877a-4852-11ed-a3b6-dac502259ad0.pnga27ddcc4-4852-11ed-a3b6-dac502259ad0.pnga2aa3cf6-4852-11ed-a3b6-dac502259ad0.png








審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • gpu
    gpu
    +關注

    關注

    28

    文章

    5194

    瀏覽量

    135461
  • 攝像頭
    +關注

    關注

    61

    文章

    5091

    瀏覽量

    103123
  • 3D模型
    +關注

    關注

    1

    文章

    79

    瀏覽量

    16890
  • 提取器
    +關注

    關注

    0

    文章

    14

    瀏覽量

    8243

原文標題:Neural-Sim: 采用NeRF學習如何生成訓練數據

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    自動駕駛場景生成方法及優選方案:康謀aiSim 3DGS方案重塑行業標準

    在自動駕駛技術飛速發展的當下,仿真測試的重要性愈發凸顯,而 自動駕駛場景生成 作為仿真測試的核心環節,其技術水平直接決定了測試的效率與可靠性。面對傳統場景生成方式的諸多痛點,基于
    的頭像 發表于 02-02 17:39 ?353次閱讀

    模型支撐后勤保障方案生成系統:功能特點與平臺架構解析

    ? ? 大模型支撐后勤保障方案生成系統:功能特點與平臺架構解析 ? ?大模型支撐后勤保障方案生成系統憑借智能預測、動態調度、路徑優化、庫存管理及可視化展示等核心能力,
    的頭像 發表于 12-17 15:49 ?323次閱讀

    DLInfer聯手沐曦股份實現數據生成場景的實際落地

    近期,上海 AI 實驗室 DeepLink 團隊推出的 DLInfer 通過支持 LMDeploy 主流模型推理,助力沐曦股份曦云 C500 落地 MinerU 多模態數據生成場景,G
    的頭像 發表于 12-09 14:55 ?715次閱讀
    DLInfer聯手沐曦股份實現<b class='flag-5'>數據</b><b class='flag-5'>生成</b><b class='flag-5'>場景</b>的實際落地

    行業特定的生成式 AI 能力如何形成:面向中國企業的場景化解決方案模型

    需要的不是一個“能對話”的模型,而是一套“能在行業場景中跑得通、落得下”的生成式 AI 方案。 因此,“哪些生成式 AI 平臺中國公司提供
    的頭像 發表于 12-02 09:33 ?449次閱讀

    如何選擇適合的智駕仿真工具進行場景生成和測試?

    在自動駕駛技術日益發展的背景下,選擇合適的智駕仿真工具進行場景生成和測試顯得尤為重要。該工具不僅需要支持高精度的場景重建,還需滿足多種環境條件和傳感器模型的兼容性。本文將深入探討如何評
    的頭像 發表于 11-25 10:32 ?378次閱讀
    如何選擇適合的智駕仿真工具進行<b class='flag-5'>場景</b><b class='flag-5'>生成</b>和測試?

    別再亂選!高清混合矩陣 5 種控制方式優缺點 + 場景適配指南,運維效率翻番

    運行直接決定了音視頻系統的使用體驗。而控制方式作為人機交互的核心環節,不僅影響操作效率,更需與實際場景深度適配。本文將系統梳理高清混合矩陣切換器的五種常見控制
    的頭像 發表于 10-28 10:20 ?542次閱讀

    如何讓大模型生成你想要的測試用例?

    應用大模型生成測試用例,常見的知識庫,測試大模型,微調,RAG等技術門檻都不低,甚至很難,因此對于應用者而言,最快的方式就是應用好提示詞,調教屬于個人風格的測試用例智能
    的頭像 發表于 09-26 10:01 ?952次閱讀
    如何讓大<b class='flag-5'>模型</b><b class='flag-5'>生成</b>你想要的測試用例?

    NVIDIA助力湯元科技突破智能駕駛數據獲取與生成瓶頸

    蘇州湯元科技有限公司(以下簡稱“湯元科技”)是一家專注于三維重建與世界模型的科技公司,自動駕駛與具身智能提供高質量、多樣化的訓練數據。通過將自研的世界模型技術與 NVIDIA Cos
    的頭像 發表于 09-06 15:16 ?1484次閱讀

    【Sipeed MaixCAM Pro開發板試用體驗】基于MaixCAM-Pro的AI生成圖像鑒別系統

    1. 項目概述 本項目旨在開發并部署一個高精度的深度學習模型,用于自動鑒別一張圖片是由AI生成(如Stable Diffusion, DALL-E, Midjourney等工具生成)還是真實的畫家
    發表于 08-21 13:59

    生成式 AI 重塑自動駕駛仿真:4D 場景生成技術的突破與實踐

    生成式AI驅動的4D場景技術正解決傳統方法效率低、覆蓋不足等痛點,如何通過NeRF、3D高斯潑濺等技術實現高保真動態建模?高效生成極端天氣等長尾場景?本文
    的頭像 發表于 08-06 11:20 ?5152次閱讀
    <b class='flag-5'>生成</b>式 AI 重塑自動駕駛仿真:4D <b class='flag-5'>場景</b><b class='flag-5'>生成</b>技術的突破與實踐

    PCIe協議分析儀在數據中心中有何作用?

    數據中心的整體可靠性。以下是其核心作用及具體應用場景的詳細分析:一、性能優化:突破帶寬瓶頸,提升計算效率 鏈路帶寬利用率分析 場景:在AI訓練集群中,GPU通過PCIe與CPU交換數據
    發表于 07-29 15:02

    KaihongOS操作系統FA模型與Stage模型介紹

    的運行環境。FA模型的開發方式通過導出匿名對象、固定入口文件的方式指定應用組件。開發者無法進行派生,不利于擴展能力。 Stage模型 S
    發表于 04-24 07:27

    適用于數據中心和AI時代的800G網絡

    隨著人工智能(AI)技術的迅猛發展,數據中心面臨著前所未有的計算和網絡壓力。從大語言模型(LLM)訓練到生成式AI應用,海量數據處理需求推動了網絡帶寬的快速增長。在此背景下,800G網
    發表于 03-25 17:35

    一種多模態駕駛場景生成框架UMGen介紹

    端到端自動駕駛技術的快速發展對閉環仿真器提出了迫切需求,而生成模型其提供了一種有效的技術架構。然而,現有的駕駛場景生成方法大多側重于圖像
    的頭像 發表于 03-24 15:57 ?1688次閱讀
    一種多模態駕駛<b class='flag-5'>場景</b><b class='flag-5'>生成</b>框架UMGen介紹

    英偉達GTC2025亮點 NVIDIA推出Cosmos世界基礎模型和物理AI數據工具的重大更新

    推理模型,讓開發者以前所未有的方式控制世界生成。 NVIDIA 還推出了兩款由 NVIDIA Omniverse 和 Cosmos 平臺提供支持的新藍圖,
    的頭像 發表于 03-20 19:01 ?1346次閱讀