[首發于智駕最前沿微信公眾號]車載攝像頭作為自動駕駛系統非常重要的一個感知硬件,提供了類似人類“眼睛”的功能,使車輛可以看清道路、行人、信號燈及周圍障礙物。在理想狀態下,車載攝像頭可以獲得非常清晰的圖像信息,但真實交通環境非常復雜,逆光、夜間無光或者照明突然變化的情況經常出現。
在這些極端光照條件下,車載攝像頭出現過曝、欠曝或區域對比過大等問題是不可避免的。這些問題不僅會影響目標檢測的準確性,還會讓用于深度估計的算法產生較大的誤差,這將直接影響車輛判斷環境的能力。

逆光場景的挑戰
逆光是日常駕駛中極為常見的場景,像是車輛正對太陽行駛,或在黃昏時分從隧道駛出等,都會造成逆光的情況出現。在這些情況下,光線將直接射向攝像頭,會導致拍攝畫面中出現局部強烈亮光,而其他區域則明顯偏暗。
這類動態范圍極高的場景,普通攝像頭很難在一次曝光中同時捕捉亮部與暗部的細節。一旦明暗對比超出設備處理能力,攝像頭就只能在“畫面過暗”與“局部過曝”之間做出妥協,致使畫面中的大量細節丟失。
傳統相機在這種情況下會出現嚴重的局部過曝或者陰影區域細節缺失的問題。針對這一點,自動駕駛攝像頭會采用一些優化策略,目前很多視覺系統會用到的高動態范圍成像(HDR:HighDynamicRange)技術。
HDR的基本思路是通過多個不同曝光量的圖像合成一個范圍更大的圖像,從而保留亮部和暗部的細節。HDR會先捕獲不同曝光的多張圖,然后對這些圖像做融合和色調映射,從而在同一幀內更好呈現全局光照信息。這樣一來,在強烈逆光下攝像頭也能看到更多細節,同時為后續的目標檢測和深度估計提供更穩定的輸入數據。
還有一種方法是利用軟件算法增強圖像的對比度與紋理細節,這類方法通常與深度學習模型相結合,以提升復雜光照條件下目標的可見性。這一方案還能顯著改善在夜間或弱光環境中的目標分割性能。
即便如此,逆光仍是攝像頭感知中極具挑戰的場景。若光照條件變化過快,系統仍舊會出現問題。譬如,車輛駛出隧道的瞬間,攝像頭有時來不及完成曝光調整,場景已從暗處驟然切換至強光環境。這種動態適應能力的高要求,對實時視覺系統的響應速度與穩定性構成了嚴峻考驗。

夜間、弱光環境的困難
夜間和弱光與逆光恰恰相反,在夜間和弱光環境下,光線不足,攝像頭感光元件得到的光很少,畫面噪聲增加,細節模糊不清。對于視覺感知來說,噪聲的出現會有很大的影響,因為很多基于深度學習的目標檢測和分割模型都假設輸入的圖像有一定的清晰度和對比度,一旦圖像質量下降,這些算法的判斷能力就會變差。
為應對弱光和夜間環境,近年來出現了很多基于圖像增強的技術,這些技術借助深度學習模型或者圖像處理算法提升了圖像清晰度。像是低光圖像增強算法可分解圖像中的光照和反射成分,增強光照部分從而讓暗區域的細節更明顯。這樣的技術可以幫助后續的識別網絡更好地理解圖像內容。
還有一些算法專門針對夜間語義分割任務做優化,利用圖像自適應濾波等手段動態調整圖像,使得不同光照下的場景更容易被神經網絡正確識別。
不過,這些增強方法仍有局限性,它們依賴于訓練數據,有些訓練集可能無法覆蓋所有極端光照情況,導致算法在真實場景中泛化能力有限。此外,在實時應用中,圖像增強和深度學習推理會占用較多算力,需要硬件設計充分考慮性能與功耗的平衡。

深度估計在極端光照下的誤差
除了目標檢測之外,攝像頭還常被用于估計場景的深度信息。單目攝像頭通過圖像中物體的大小變化、紋理梯度、運動變化等信息推斷深度,但這種推斷本質上是一種從二維到三維的映射,當光照條件惡劣時,這種推斷的誤差會放大。像是亮度變化很大的區域就會讓視覺系統錯誤判斷紋理邊緣或者物體輪廓,從而影響深度估計的準確性。
現階段,雙目攝像頭的使用越來越多,雙目攝像頭使用兩個相機模擬人類雙眼,通過視差計算深度,這在正常光照下能提供更準確的距離信息。但這種立體視覺也依賴于匹配兩個圖像中的特征點,當圖像本身質量很差時,特征匹配過程就容易失敗,從而導致深度估計誤差。
當然,還有使用時間結構光或飛行時間(ToF:Time-of-Flight)的深度相機可用于深度估計,這類相機通過主動發射光信號并測量反射時間來得到深度信息,其性能受環境光影響較小,但它在長距離和戶外環境中的應用受限,而且成本和能耗都較高。
因此,想單純依賴攝像頭在極端光照條件下獲得精確深度是非常困難的,這也是為什么單目系統在自動駕駛中需要融合其他傳感器來獲得更可靠的環境理解。

算法補償與神經網絡優化
為了彌補攝像頭在復雜光照條件下的感知局限,自動駕駛系統還引入了神經網絡與其他算法策略進行補償。目前,深度學習已成為目標檢測、分割和深度估計的主流方法,能夠從海量數據中學習光照變化對像素的影響,從而適應多樣化的復雜場景。
針對夜間等低照度環境,還有技術方案通過數據增強、域適應等訓練策略來提升模型性能。在圖像預處理階段,可加入專門的弱光增強模塊,使網絡提取到更清晰的特征,從而降低后續識別任務的誤差。
此外,一些端到端模型將光照條件判斷與感知任務相結合。這類模型在訓練中就學習如何根據不同光照動態調整內部權重,實現在強光與弱光場景間自適應切換識別策略,從而提升自動駕駛系統的魯棒性。
不過,神經網絡補償并不能完全消除所有問題。因為真實世界的光照變化有非常多的邊緣情況,有些可能在訓練數據中根本沒有出現過,就導致所謂的“長尾問題”,致使模型在未知光照條件下的泛化能力仍然有限。

攝像頭與其他傳感器融合策略
考慮到攝像頭在復雜環境中的感知局限,現階段的自動駕駛系統不會僅依賴單一傳感器工作。行業普遍采用多傳感器融合方案,即結合毫米波雷達、激光雷達等不同特性的傳感器,以提升系統整體的魯棒性與安全性。
激光雷達通過主動發射并接收激光束生成高精度點云數據,其測距性能優于純視覺方案,且基本不受光照條件影響。在強逆光等極端視覺場景下,即使攝像頭失效,激光雷達仍能提供穩定、準確的距離與輪廓信息,從而有效彌補視覺感知的短板。因此,多傳感器融合被視為在復雜、動態環境中保障系統安全的關鍵技術路徑。

圖片源自:網絡
傳感器融合可在不同層級實現,低級融合直接對原始數據進行對齊與融合,計算量大但實時性較高;中級融合在特征層面進行信息整合,平衡了精度與計算負擔;高級融合則在決策層合并各傳感器輸出,計算效率高,但容錯性較低,易受單一傳感器錯誤的影響。
在實際系統設計時,需綜合考量自動駕駛等級、功能安全要求、實時性、算力成本等多重約束,選擇或設計合適的融合架構,從而在性能、安全與可實現性之間取得最佳平衡。

最后的話
自動駕駛攝像頭在極端光照條件下面臨的挑戰是多方面的。強逆光、夜間低光、以及照明突變都會對攝像頭圖像質量產生嚴重影響,從而影響目標識別和深度估計的準確性。對于這些問題的應對思路不能只依賴單點算法修補,而需要在輸入質量、模型魯棒性和多傳感器協同之間形成閉環,讓系統在不可避免的信息缺失時具備可控退化能力。只有當光照帶來的風險被納入整體架構和安全設計中,攝像頭才能在真實道路環境下成為“可用而可信”的感知來源。
審核編輯 黃宇
-
攝像頭
+關注
關注
61文章
5091瀏覽量
103109 -
自動駕駛
+關注
關注
793文章
14879瀏覽量
179790
發布評論請先 登錄
自動駕駛加速滲透,360度環視攝像頭成為CIS市場新的突破口
FPGA在自動駕駛領域有哪些應用?
自動駕駛真的會來嗎?
淺析自動駕駛發展趨勢,激光雷達是未來?
高級安全駕駛員輔助系統助力自動駕駛
ADAS視覺傳感技術,為朝向自動駕駛趨勢發展做好準備
為何自動駕駛需要5G?
自動駕駛系統設計及應用的相關資料分享
StradVision發布最新自動駕駛攝像頭技術
豐田將走特斯拉路線,采用攝像頭來開發自動駕駛技術
決定自動駕駛攝像頭質量的因素有哪些?
自動駕駛既然有雙目攝像頭了,為什么還要三目攝像頭?
極端光照條件如何影響自動駕駛攝像頭?
評論