伦伦影院久久影视,天天操天天干天天射,ririsao久久精品一区 ,一本大道香蕉大久在红桃,999久久久免费精品国产色夜,色悠悠久久综合88,亚洲国产精品久久无套麻豆,亚洲香蕉毛片久久网站,一本一道久久综合狠狠老

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

NVIDIA DRIVE Sim攝像頭模型的驗證

星星科技指導員 ? 來源:NVIDIA ? 作者:NVIDIA ? 2022-04-18 09:55 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在部署自動駕駛車輛之前,需要在各種場景中進行大規模開發和測試。

仿真可以通過為自動駕駛車輛提供可擴展、可重復的環境來應對這些挑戰,以應對訓練、測試和驗證所需的罕見和危險場景。

Omniverse 上的 NVIDIA DRIVE Sim 是專為開發和測試自動駕駛汽車( AV )而構建的仿真平臺。它提供了車輛、 3D 環境和 AV 系統開發和驗證所需傳感器的高保真數字孿生模型。

與視頻游戲等其他應用程序的虛擬世界不同, DRIVE Sim 必須生成準確模擬真實世界的數據。在工程工具鏈中使用仿真需要清楚地掌握模擬器的性能和局限性。

該精度涵蓋模擬器建模的所有功能,包括車輛動力學、車輛部件、其他駕駛員和行人的行為以及車輛傳感器。這篇文章涵蓋了 DRIVE Sim 中相機模型驗證的一部分,這需要評估每個元素的單獨性能,從世界場景的渲染到協議模擬。

驗證攝像機仿真模型

可采用兩種方法對模擬攝像機進行徹底驗證:

對模型每個組成部分的單獨分析(圖 1 )。

一種自上而下的驗證,通過比較在真實或合成圖像上訓練的感知模型的性能,驗證模擬器生成的攝像機數據在實踐中準確地表示真實的攝像機數據。

單個成分分析是一個復雜的主題。這篇文章描述了我們對相機模型的兩個關鍵屬性的組件級驗證:相機校準(外部和內部參數)和顏色精度。直接與真實世界的相機數據進行比較,以識別模擬圖像和真實世界圖像之間的任何增量。

poYBAGJcxTGAFEntAALLm-YFFjk339.jpg

poYBAGJcxTGAFEntAALLm-YFFjk339.jpg

圖 1 。相機模型組件概述

為了進行驗證,我們選擇使用 NVIDIA DRIVE Hyperion 傳感器套件中的一組相機型號。圖 2 詳細說明了整個測試過程中使用的攝像機模型。

poYBAGJcxTKAXvBYAAL_rulR5m0330.png

poYBAGJcxTKAXvBYAAL_rulR5m0330.png

圖 2 。 NVIDIA DRIVE Hyperion 8 傳感器組

攝像機校準

AV perception 需要精確了解攝像頭在車輛上的位置,以及攝像頭的每個獨特鏡頭幾何如何影響其生成的圖像。 AV 系統通過攝像機校準處理這些參數。

模擬攝像機傳感器應在同一校準和數字雙環境下準確再現真實攝像機的圖像。同樣,當輸入校準工具時,模擬攝像機圖像應能產生與真實圖像相似的校準參數。

我們使用我們的傳感器校準接口 NVIDIA DriveWorks 來估計本文中提到的所有攝像機參數。

可通過以下步驟驗證攝像機特性:

Extrinsic validation :攝像頭外部特性是描述其在車輛上的位置和方向的攝像頭傳感器的特性。外部驗證的目的是確保模擬器能夠在給定的位置和方向準確地再現真實傳感器的圖像。

Calibration validation :通過計算重投影誤差來驗證校準的準確性。在實際校準中,此方法用于量化校準是否有效和成功。我們在此應用此步驟來計算在真實圖像和模擬圖像上重新投影的關鍵檢測特征之間的距離。

內在驗證

通過設置多項式系數,內在相機校準比其制造公差更精確地描述單個透鏡的獨特幾何結構。

latex.php?latex=%5Ctheta%3Dc0%2Bc1r%2Bc2r%5E2+%2Bc3r%5E3%2Bc4r%5E4&bg=ffffff&fg=000&s=0&c=20201002latex.php?latex=%5Ctheta%3Dc0%2Bc1r%2Bc2r%5E2+%2Bc3r%5E3%2Bc4r%5E4&bg=ffffff&fg=000&s=0&c=20201002

latex.php?latex=r&bg=ffffff&fg=000&s=0&c=20201002latex.php?latex=r&bg=ffffff&fg=000&s=0&c=20201002

是到畸變中心的距離(以像素為單位)

latex.php?latex=c0%2Cc1%2Cc2%2Cc3%2Cc4&bg=ffffff&fg=000&s=0&c=20201002latex.php?latex=c0%2Cc1%2Cc2%2Cc3%2Cc4&bg=ffffff&fg=000&s=0&c=20201002

是畸變函數的系數

latex.php?latex=%5Ctheta&bg=ffffff&fg=000&s=0&c=20201002latex.php?latex=%5Ctheta&bg=ffffff&fg=000&s=0&c=20201002

(θ)是以弧度為單位的結果投影角度

該多項式的校準使 AV 能夠通過描述鏡頭畸變的影響,從攝像機數據中做出更好的推斷。兩個透鏡模型之間的差異可以通過計算它們之間的最大θ失真來量化。

poYBAGJcxTOAB1hqAABBqpUwHaU892.jpg

poYBAGJcxTOAB1hqAABBqpUwHaU892.jpg

圖 3 。最大θ畸變圖

最大θ失真描述通過透鏡邊緣(對應于圖像邊緣)的光的角度差,其中失真最大。在本測試中,我們使用最大θ失真來描述由真實校準圖像生成的透鏡模型與由合成圖像生成的透鏡模型之間的差異。

我們根據以下過程驗證了模擬攝像機的固有校準:

執行內部攝像機校準: 安裝在車輛或試驗臺上的攝像頭可捕獲棋盤格圖表的視頻,該棋盤格圖表以不同的距離和傾斜度在每個攝像頭的視野中移動。該視頻被輸入到 DriveWorks Intrinsics 約束工具中,該工具將從視頻中提取不同的棋盤圖像,并輸出校準中每個攝像機的多項式系數。

生成模擬棋盤格校準圖像: 實際攝像頭鏡頭校準數據用于在 Drive Sim 中重新創建每個攝像頭。我們根據校準工具輸出的估計圖表位置和方向,在模擬中重新創建了真實的棋盤圖像。

從合成圖像生成內部校準: 我們將合成圖像輸入 DriveWorks 校準工具,以生成新的多項式系數。

計算從真實鏡頭到模擬鏡頭的最大θ失真: 對于每個鏡頭,我們比較了真實圖像校準定義的幾何體與模擬圖像校準定義的幾何體。然后我們找到了兩個透鏡之間光線通過角度變化最大的點。

pYYBAGJcxTSAUfmgAAF7VRFJqnM482.png

pYYBAGJcxTSAUfmgAAF7VRFJqnM482.png

圖 4 。內在驗證過程

每個攝像機的最大θ失真是通過比較其真實 f- θ鏡頭校準與模擬圖像產生的校準得出的。

poYBAGJcxTWAPzUEAADQF_53_L0397.png

poYBAGJcxTWAPzUEAADQF_53_L0397.png

圖 5 。 F- θ模型的最大θ失真

第一個結果超出了我們的預期,因為模擬的行為是可預測的,并且再現了真實世界校準的觀察結果。

這一比較為我們的模型準確表示鏡頭畸變效應的能力提供了第一個置信度,因為我們觀察到真實和模擬相機之間存在微小差異。前長焦鏡頭在現實生活中很難約束,因此我們預計它在我們的模擬結果中是一個異常值。

魚眼攝像頭校準顯示出最大的真實到 sim 差異(前魚眼攝像頭的 FOV 為 0.58% )。

查看這些結果的另一種方法是考慮畸變對生成圖像的影響。我們在后面的步驟中比較了校準圖中的真實和模擬檢測特征,如 數字特征標記比較 所述。

我們繼續進行外部驗證方法。

外部驗證

我們根據以下過程驗證了模擬攝像機的外部校準:

執行外部攝像機校準 :安裝在車輛或測試臺上的攝像機拍攝到整個實驗室中的多個校準模式( APLILAT TAG )的圖像。我們的測試是,攝像機安裝在NVIDIA DRIVE Hyperion 級 2 +參考架構上。使用 DriveWorks 校準工具,我們計算了攝像機的精確位置和方向以及三維空間中的校準圖表。

在模擬中重新創建場景: 使用來自真實校準和 AprilTag 海圖位置的地面真相的外部參數,在模擬中以與真實實驗室相同的相對位置和方向生成相機和海圖。系統從每個模擬相機生成合成圖像。

從合成圖像生成外部校準,并與真實校準進行比較: 合成圖像被輸入到 DriveWorks 校準工具中,以輸出場景中所有攝像機和圖表的位置和方向。我們計算了從真實和合成校準圖像得出的外部參數之間的 3D 差異。

pYYBAGJcxTaAWY4rAABJ2WKoTog107.jpg

pYYBAGJcxTaAWY4rAABJ2WKoTog107.jpg

圖 6 。外部驗證過程

圖 7 顯示了測試攝影機裝備上 12 個攝影機中每個攝影機的外部參數差異,將真實攝影機校準與模擬攝影機圖像產生的校準進行了比較。所有攝像機位置參數在 3 厘米內匹配,所有攝像機方向參數在 0.4 度內匹配。

所有位置和方向均以右手參考坐標系為基準,原點位于投射到地平面上的汽車后軸中心,其中 x 與汽車方向對齊, y 向左, z 向上。偏航、俯仰和橫搖是圍繞 z 、 y 和 x 的逆時針旋轉。

poYBAGJcxTeALOyjAADFrVC_Twc566.png

poYBAGJcxTeALOyjAADFrVC_Twc566.png

圖 7 。攝像機位置外部差異–校準輸入到輸出

pYYBAGJcxTeAYjE5AADF0UjrTNo522.png

pYYBAGJcxTeAYjE5AADF0UjrTNo522.png

圖 8 。攝像機方向外部差異–校準輸入到輸出

后果

前面描述的驗證將真實實驗室校準與 DRIVE Sim RTX 渲染器中的 digital twins 校準進行比較。 RTX 渲染器是一種路徑跟蹤渲染器,它提供兩種渲染模式,一種是實時模式,另一種是參考模式(非實時,注重準確性),以根據具體的使用情況提供完全的靈活性。

這個完整的驗證過程是使用 RTX 實時模式和參考模式渲染的數字雙胞胎來完成的,以評估分配給渲染的處理能力降低的效果。請參見下表中的實時驗證結果摘要,以及可供比較的參考結果。

正如預期的那樣,由于圖像質量降低,在實時渲染時,大多數測量的 real-to-sim 誤差略有增加。盡管如此,基于實時圖像的校準與實驗室校準相匹配,相機的校準范圍為 0.030 米和 0.041 度, AprilTag 位置的校準范圍為 0.041 米和 0.010 度,鏡頭模型的校準范圍為理論視野的 0.49% 。

poYBAGJcxTiATtQAAACc3HvL3c0538.png

poYBAGJcxTiATtQAAACc3HvL3c0538.png

圖 9 。參考與實時驗證結果

下圖顯示了真實和模擬環境中 22 個 AprilTag 圖表的平均和最大位置或方向差異。從真實圖表到他們的數字雙胞胎的平均位置差異在所有軸上都小于 1.5 厘米,并且沒有個別圖表的位置差異在任何軸上超過 4.5 厘米。

所有軸上真實圖表與其數字孿生圖形之間的平均方向差均小于 0.001 度,且任何軸上單個圖表的方向差均不超過 0.004 度。

pYYBAGJcxTmAdaR2AAAwhQHnWDc385.png

pYYBAGJcxTmAdaR2AAAwhQHnWDc385.png

圖 10 。平均/最大 AprilTag 方向差異–校準輸入到輸出

目前還沒有定義可接受誤差的標準,在該誤差下,可以認為傳感器仿真模型是可行的。因此,我們將我們的位置和方向增量值與真實校準產生的校準誤差進行比較,以確定我們模擬的最大可接受誤差的有效標準。我們測試產生的誤差始終小于在真實世界中觀察到的校準誤差。

該校準方法基于我們的校準工具使用的統計優化技術,因此會引入自身的不確定度。然而,還需要注意的是, DriveWorks 校準系統在傳感器校準的研究和開發中一直使用,具有較高的精確度。

這些結果還表明,校準工具可以與模擬渲染圖像一起工作,并提供與真實世界相當的結果。事實上,真實世界的校準系統和我們的模擬是一致的,這是我們的相機模擬模型的第一個重要信心指標。

此外,該方法還驗證了模擬器作為一個整體,因為用于校準的 digital twin 使用所有 12 個攝像頭對整個場景進行建模,而無需調整值以改善結果。

為了進一步評估該方法的有效性,我們在真實圖像和模擬圖像之間進行了直接的數字特征標記比較。

數字特征標記比較

校準工具提供一個視覺驗證器,根據估計的內在參數將校準圖表位置重新投影到輸入圖像上。圖像顯示了模擬和真實攝像機的檢測特征疊加和重投影統計(平均、標準、最小和最大重投影誤差)示例。

poYBAGJcxTqANAYfAAJu53iiGTY981.png

poYBAGJcxTqANAYfAAJu53iiGTY981.png

圖 11 。將目標位置覆蓋到攝像機\后部\魚眼\ 200fov 的輸入圖像上

計算重投影誤差使我們能夠進一步斷言先前校準方法的有效性。這種方法解析校準工具檢測到的特征,并將其與真實圖像中的特征進行比較。

這里,我們將校準圖中每個 AprilTags 的角點視為特征標記。我們計算了在真實圖像上檢測到的特征標記與合成圖像之間的像素距離,用于路徑跟蹤和實時模擬。

下圖顯示了模擬參考路徑標記和真實特征標記之間 1.4 像素的平均距離。基于實時模擬數據集的相同比較產生 1.62 像素的平均重投影誤差。

pYYBAGJcxTyAK-rwAASqLyDzGc8995.png

pYYBAGJcxTyAK-rwAASqLyDzGc8995.png

圖 12 。平均重投影誤差(參考與實時)

這兩個值都是實際投影誤差閾值( 2 像素),用于評估實際校準的精度。結果是非常有希望的,特別是因為這種方法不太依賴于我們的校準工具的內部工作。

事實上,校準工具僅用于估計每個圖像中檢測到的特征標記。標記的比較是基于對三維空間中對象的純算法分析來完成的。

顏色準確度評估

攝像機標定結果表明,我們的攝像機傳感器模型生成的圖像與其真實圖像對應的像素對應。下一步是驗證與每個像素關聯的值是否準確。

我們模擬了一個麥克白顏色檢測器圖表,并在 DRIVE Sim 中捕獲了它的圖像,以驗證圖像質量。然后將每個色塊的 RGB 值與相應真實圖像的 RGB 值進行比較。

除了真實的圖像,我們還介紹了 Iray renderer , NVIDIA 最真實的物理光模擬器,經 CIE 171:2006 驗證。我們首先使用 Iray 渲染系統生成的模擬圖像,然后使用 NVIDIA RTX 渲染器執行此測試。與 Iray 的比較很好地衡量了 RTX 渲染器相對于公認行業黃金標準的能力。

pYYBAGJcxTyAfV82AABR8T9zgos549.jpg

pYYBAGJcxTyAfV82AABR8T9zgos549.jpg

圖 13 。圖像質量測試設置

我們根據以下過程驗證了模擬攝像機的圖像質量:

在試驗箱中捕獲麥克白顏色檢查器圖表的圖像: 將麥克白顏色檢查器圖表放置在測量高度處,并使用特征化的外部光源進行照明。攝像機放置在麥克白圖表已知的高度和距離處。

在模擬中重新創建圖像: 使用測試設置的尺寸、校準的麥克白圖表值和外部照明配置文件,我們使用 DRIVE Sim RTX 渲染器渲染測試場景。然后,我們使用預定義的相機模型重新創建在實驗室捕獲的圖像。

提取每個面片的平均亮度和 RGB 值: 我們對所有三幅圖像( real 、 Iray 、 DRIVE-Sim RTX 渲染器)的每個面片中所有像素的顏色值取平均值。

比較白平衡亮度和 RGB 值: 將每個貼片的測量值與貼片 19 進行標準化,以實現白平衡。我們比較了真實圖像、 Iray 渲染和 RTX 渲染中的平衡顏色和亮度值。

poYBAGJcxT2ATXFqAAFfGCUxRpc741.png

poYBAGJcxT2ATXFqAAFfGCUxRpc741.png

圖 14 。麥克白顏色檢測器測試過程

poYBAGJcxT-AUErnAAOYEt_2AWU556.png

poYBAGJcxT-AUErnAAOYEt_2AWU556.png

圖 15 。麥克白顏色檢測器參考圖

poYBAGJcxUGAKpQNAAELxRAe3V4870.png

poYBAGJcxUGAKpQNAAELxRAe3V4870.png

圖 16 。真實和渲染 luma 和 RGB 比較

pYYBAGJcxUGAftx8AAEWL5pjzqo825.png

pYYBAGJcxUGAftx8AAEWL5pjzqo825.png

圖 17 。紅色貢獻、渲染圖像與真實圖像的比較

pYYBAGJcxUOAIx3NAAEMWc4uZk4459.png

pYYBAGJcxUOAIx3NAAEMWc4uZk4459.png

圖 18 。綠色貢獻、渲染圖像與真實圖像的比較

poYBAGJcxUSAecpQAAEM1Cc6fd4759.png

poYBAGJcxUSAecpQAAEM1Cc6fd4759.png

圖 19 。藍色貢獻、渲染圖像與真實圖像的比較

這些圖顯示了渲染圖像和真實圖像中每個色塊的歸一化 luma 和 RGB 輸出。

渲染圖像的亮度和 RGB 值都接近真實相機,這使我們對傳感器模型準確再現顏色和亮度貢獻的能力充滿信心。

為了進行直接的視覺比較,我們展示了麥克白圖表真實圖像和合成圖像的縫合白平衡 RGB 值( Iray 、實時和路徑跟蹤貢獻)。

pYYBAGJcxUWAZAfPAACqj4U1WcQ201.png

pYYBAGJcxUWAZAfPAACqj4U1WcQ201.png

圖 20 。縫合 RGB 補丁麥克白顏色圖表(合成與真實)

我們還計算了Δ E (參見圖 22 中的結果),這是一種 CIE2000 計算機視覺度量,它量化了渲染和原始攝影機值之間的距離,通常用于攝影機特征化。Δ E 值越低表示顏色精度越高,人眼無法檢測到低于 1 的值。

poYBAGJcxUWAfSvUAAAqNkkB02s954.png

poYBAGJcxUWAfSvUAAAqNkkB02s954.png

圖 21 。 CIE2000 的參考與實時結果

雖然Δ E 提供了感知色差的良好測量,并被公認為成像標準,但它僅限于人類感知。此類指標對神經網絡的影響仍有待于在進一步的測試中評估。

結論

這篇文章介紹了NVIDIA 驗證方法和初步結果為我們的 DRIVE SIM 相機傳感器模型。

我們的結論是,我們的模型能夠準確地再現真實攝像機的標定參數,總體誤差低于真實標定誤差。

我們還參考行業標準的麥克白顏色檢測器對我們模型的顏色精度進行了量化,發現它與典型的研發誤差幅度密切相關。

此外,我們得出結論, RTX 實時渲染是實現這一精度水平的可行工具。

這證實了 DRIVE Sim 攝像機模型可以在模擬環境中再現真實世界攝像機的上述參數,至少與真實世界中的雙攝像機設置一樣精確。更重要的是,這些測試為用戶提供了信心,即攝像機模型的輸出,如本質、外生和顏色再現,將是準確的,并且可以作為其他驗證工作的基礎。

接下來的步驟將是在真實世界的 perception 用例中驗證我們的模型,并提供關于在開環中為模型成像 KPI 的進一步結果。

關于作者

Carène Kamel 是 NVIDIA DRIVE Sim 的產品經理。她在汽車和航空航天行業擁有 10 多年的硬件在環和軟件仿真經驗。 Carène 擁有法國斯特拉斯堡 Télécom Physique 公司的控制工程碩士學位。

Ashley Reid 是一名高級軟件工程師,擁有計算機圖形學和仿真碩士學位。他有超過 13 年的經驗與 NVIDIA 硬件和編程 GPU ,為探索現實和模擬之間的差距提供了基礎。

Fabian Plepp 是一名高級系統工程師,負責 NVIDIA DRIVE Sim 中的攝像頭模擬。他在汽車領域擁有 20 年的經驗,擅長信號和圖像處理/分類以及系統架構。

審核編輯:郭婷

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 傳感器
    +關注

    關注

    2577

    文章

    55361

    瀏覽量

    793353
  • 神經網絡
    +關注

    關注

    42

    文章

    4840

    瀏覽量

    108081
  • NVIDIA
    +關注

    關注

    14

    文章

    5678

    瀏覽量

    110060
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    攝像頭可靠性EMC設計優化

    一前言攝像頭作為現代電子設備的重要組成部分,已廣泛應用于智能手機、安防監控、自動駕駛等領域。詳細了解攝像頭,不僅有助于我們更好地使用相關設備,也為后續探討其應用場景和技術優化奠定了基礎,并且能快速
    的頭像 發表于 04-07 11:34 ?63次閱讀
    <b class='flag-5'>攝像頭</b>可靠性EMC設計優化

    NVIDIA Jetson AI邊緣計算攝像頭高速線束為什么這么重要?

    在基于Jetson平臺的AI邊緣計算攝像頭系統中,數據傳輸質量直接影響整體性能表現。極細同軸線束憑借高速傳輸能力、優良屏蔽性能、小型化結構以及穩定可靠的信號連接,成為連接攝像頭模組與計算平臺的重要橋梁。
    的頭像 發表于 03-17 13:33 ?142次閱讀

    ESP32-S3在初始化攝像頭時檢測到攝像頭模組型號不被支持

    你現在遇到的核心問題是:ESP32-S3在初始化攝像頭時檢測到攝像頭模組型號不被支持(錯誤碼0x106(ESP_ERR_NOT_SUPPORTED)),導致攝像頭探測失敗并觸發設備重啟。這個錯誤
    發表于 02-11 06:38

    Termux手機攝像頭采集圖像/視頻流 部署 YOLO 模型推理

    Termux手機攝像頭采集圖像/視頻流 部署 YOLO 模型推理
    的頭像 發表于 12-14 07:26 ?3205次閱讀

    自動駕駛既然有雙目攝像頭了,為什么還要三目攝像頭

    [首發于智駕最前沿微信公眾號]在自動駕駛領域,純視覺方案一直受到不少人的認可。雙目攝像頭由于模擬了人眼的工作方式,能夠通過視差計算還原三維信息,在距離判斷和空間感知上具有天然優勢,因此被廣泛應用于純
    的頭像 發表于 12-09 08:59 ?1182次閱讀
    自動駕駛既然有雙目<b class='flag-5'>攝像頭</b>了,為什么還要三目<b class='flag-5'>攝像頭</b>?

    車載雙目攝像頭如何“看見”世界?

    [首發于智駕最前沿微信公眾號]想要讓車輛知道前方有什么、距離多遠、是否可以靠近,首先要做的是讓其“看”清楚環境。在眾多車載感知硬件中,與人類看到世界最類似的一個感知硬件便是車載雙目攝像頭了。 圖片
    的頭像 發表于 11-13 09:17 ?1615次閱讀
    車載雙目<b class='flag-5'>攝像頭</b>如何“看見”世界?

    索尼4K超高清攝像頭模塊——FCB-ER8530

    攝像頭
    szxuanzhan
    發布于 :2025年08月13日 17:12:43

    創世SD NAND貼片卡:智能攝像頭存儲難題的完美解決方案 #人工智能 #智能攝像頭 #攝像頭

    攝像頭
    深圳市雷龍發展有限公司
    發布于 :2025年08月05日 11:17:13

    紅外攝像頭模組是什么?科技時代的眼睛

    在現代科技迅速發展的背景下,紅外攝像頭模組逐漸成為各類智能設備中的重要組成部分。無論是在安防監控、智能家居還是汽車領域,紅外攝像頭模組以其獨特的功能和優越的性能,正在改變我們的生活方式。本文將
    的頭像 發表于 07-31 10:07 ?1246次閱讀
    紅外<b class='flag-5'>攝像頭</b>模組是什么?科技時代的眼睛

    【Milk-V Duo S 開發板免費體驗】4 - OV5647 攝像頭攝像頭測試

    引言 以前使用Milk-V Duo的時候,覺得它的攝像頭支持比較弱,只能支持特定型號的攝像頭,還不好買。我有個學生甚至因為這個原因退出了集創賽。這次特意測試了一下它的攝像頭。 DuoS的攝像頭
    發表于 07-08 21:26

    廬山派K230可以直接使用usb攝像頭嗎,可以的話攝像頭有啥要求嗎?

    廬山派K230可以直接使用usb攝像頭嗎,可以的話攝像頭有啥要求嗎
    發表于 06-24 07:07

    STM32N6570-DK自帶的攝像頭運行自帶的AI demo,畫質特別差,這是應該這個例程的原因,還是攝像頭不行?

    STM32N6570-DK自帶的攝像頭運行自帶的AI demo,畫質特別差,這是應該這個例程的原因,還是攝像頭不行?
    發表于 06-18 07:18

    STM32N6570-DK自帶的攝像頭運行自帶的AI demo,畫質特別差,這是應該這個例程的原因,還是攝像頭不行?

    STM32N6570-DK自帶的攝像頭運行自帶的AI demo,畫質特別差,這是應該這個例程的原因,還是攝像頭不行?
    發表于 06-16 06:02

    訓練完模型后用cls_video.py在canmvIDE上運行,按著步驟操作但是攝像頭沒有識別到是什么情況?

    訓練完模型后用cls_video.py在canmvIDE上運行,按著步驟操作但是攝像頭沒有識別到是什么情況啊,沒有框出現
    發表于 06-10 06:57

    天波解疑:IPC監控攝像頭的低功耗特點及其優勢

    隨著智能安防和城市建設的需求,高清網絡監控攝像頭或IPC監控攝像頭被廣泛應用。比起一般的監控攝像頭,高清網絡監控攝像頭或IPC監控攝像頭的畫
    的頭像 發表于 04-25 09:46 ?1404次閱讀
    天波解疑:IPC監控<b class='flag-5'>攝像頭</b>的低功耗特點及其優勢