[首發(fā)于智駕最前沿微信公眾號]當(dāng)談及自動駕駛模型學(xué)習(xí)時,經(jīng)常會提到模仿學(xué)習(xí)的概念。所謂模仿學(xué)習(xí),就是模型先看別人怎么做,然后學(xué)著去做。自動駕駛中的模仿學(xué)習(xí),就是把人類司機(jī)在各種路況下的行為做成范例,記錄下看到了什么和做了什么等信息,然后將這些一一對應(yīng)起來當(dāng)作訓(xùn)練數(shù)據(jù),并訓(xùn)練出一個模型。
當(dāng)模型訓(xùn)練好以后,遇到類似場景就可以嘗試輸出類似的人類動作。這種學(xué)習(xí)方式不需要工程師把每一種情況的規(guī)則一條條寫出來,也不需要設(shè)計(jì)一個復(fù)雜的獎勵函數(shù)讓機(jī)器在虛擬世界里靠試錯學(xué)會開車,只要有質(zhì)量較好的“人類示范”,就能把人的“駕駛風(fēng)格”灌輸?shù)侥P屠铩?/p>
模仿學(xué)習(xí)有不同的實(shí)現(xiàn)方式。最直接的叫行為克隆(behavior cloning),就是把專家看見與執(zhí)行的對應(yīng)關(guān)系作為監(jiān)督學(xué)習(xí)任務(wù),其輸入是傳感器數(shù)據(jù)、前視圖、速度等信息,輸出是方向盤角度、油門剎車等控制量。還有一種思路是逆強(qiáng)化學(xué)習(xí)(inverse reinforcement learning),它不是直接學(xué)“做什么”,而是試圖從人類的行為里反推出一個“潛在的目標(biāo)函數(shù)”或者偏好,再用這個目標(biāo)去訓(xùn)練模型。除此之外,還有對抗式模仿、層次化模仿等更復(fù)雜的變體,這些方法能夠在一定程度上緩解簡單模仿學(xué)習(xí)在泛化能力和魯棒性上的不足。
模仿學(xué)習(xí)對自動駕駛有什么用
在自動駕駛這樣高風(fēng)險(xiǎn)的領(lǐng)域,讓模型在真實(shí)世界里靠“試錯”學(xué)習(xí)顯然不現(xiàn)實(shí)。模仿學(xué)習(xí)可以利用已有的人類駕駛數(shù)據(jù),讓模型在安全的條件下學(xué)習(xí)“合格駕駛員”的行為模式。
對于很多常見場景,尤其是城市道路或高速路上的常規(guī)操作,模仿學(xué)習(xí)能教會車輛如何平順變道、如何與前車保持距離、如何在擁堵路段保持合理速度,這種“像人開車”的行為將提升乘客的體驗(yàn),并會讓社會有更高的接受度。
此外,模仿學(xué)習(xí)在工程上好上手、訓(xùn)練效率也相對更高。模仿學(xué)習(xí)本質(zhì)上是監(jiān)督學(xué)習(xí),訓(xùn)練目標(biāo)直接、損失明確,數(shù)據(jù)處理管道成熟。因此在研發(fā)早期,以及做端到端感知-控制的探索時,模仿學(xué)習(xí)是首選方法。
模仿學(xué)習(xí)還能把多模態(tài)傳感器的信息(攝像頭、毫米波雷達(dá)、LiDAR、里程計(jì)等)合并到一個網(wǎng)絡(luò)中,直接從原始感知到控制量學(xué)習(xí)一條端到端的映射,這在某些應(yīng)用場景能顯著簡化系統(tǒng)架構(gòu)。
模仿學(xué)習(xí)還有一個好處,就是能把“人類的駕駛習(xí)慣”保留下來。人類駕駛員在很多情形里會做出既安全又舒適的動作,像是平滑的加減速、合理的避讓、符合社會駕駛習(xí)慣的決策等,都是人類駕駛員可以輕松應(yīng)對的動作。把這些行為灌輸?shù)侥P屠铮兄谧詣玉{駛車輛在混合交通環(huán)境中更自然地與人類駕駛者共存,從而減少被其他車輛或行人誤判的風(fēng)險(xiǎn)。
如何用模仿學(xué)習(xí)訓(xùn)練模型?
想用模仿學(xué)習(xí)訓(xùn)練模型,要先進(jìn)行采集示范數(shù)據(jù),然后做數(shù)據(jù)清洗與標(biāo)注,接著訓(xùn)練模型并在模擬器或封閉道路上測試,最后再做在線改進(jìn)與驗(yàn)證。
采集階段不是簡單地采集更多場景,也不是無腦地堆砌各種場景,而是要找到場景多樣且高質(zhì)量的數(shù)據(jù),像是白天夜晚、雨雪、高架與城市擁堵、復(fù)雜交叉口等場景場景必須都覆蓋到。訓(xùn)練時可用卷積神經(jīng)網(wǎng)絡(luò)處理圖像輸入,并把時序信息通過遞歸結(jié)構(gòu)或時間窗口的方式納入,讓模型能記住短時間內(nèi)的動態(tài)變化。
在模型上線之前,需要通過仿真和閉環(huán)測試來驗(yàn)證模型的魯棒性。單純在靜態(tài)測試集上做得好并不代表閉環(huán)駕駛也能穩(wěn)健運(yùn)行,控制策略的每一步動作都會改變后續(xù)的狀態(tài)分布,這種分布偏移會導(dǎo)致誤差積累。
為此,要引入在線糾偏機(jī)制,如在模型駕駛時讓專家在線糾正,將這些新的“偏離狀態(tài)-專家動作對”加入數(shù)據(jù)集繼續(xù)訓(xùn)練,像是DAgger(Dataset Aggregation,數(shù)據(jù)集聚合)就是采用的這種方法。還有技術(shù)方案中會先用模仿學(xué)習(xí)學(xué)一個“基礎(chǔ)策略”,再用強(qiáng)化學(xué)習(xí)或規(guī)則化的規(guī)劃層對其微調(diào)與約束,以增強(qiáng)對稀有或危險(xiǎn)場景的處理能力。
當(dāng)然,模仿學(xué)習(xí)并不等同于完全放手不設(shè)規(guī)則。為確保自動駕駛系統(tǒng)的安全性,很多技術(shù)方案中會采用混合架構(gòu),模仿學(xué)習(xí)負(fù)責(zé)感知-決策的快速映射,規(guī)劃層負(fù)責(zé)長時間尺度的路徑規(guī)劃,規(guī)則模塊負(fù)責(zé)硬性安全約束(比如絕對剎停條件、最小車距限制等)。這種分層與混合的策略不僅可以利用模仿學(xué)習(xí)的高效性,也能通過規(guī)則化模塊彌補(bǔ)它在極端情況上的不足。
模仿學(xué)習(xí)的局限與現(xiàn)實(shí)挑戰(zhàn)
模仿學(xué)習(xí)雖好,但其存在泛化能力有限與誤差積累等問題。模仿模型在訓(xùn)練時學(xué)到的是“在那些見過的狀態(tài)里該做什么”,一旦遇到訓(xùn)練集中沒有覆蓋到的罕見場景,模型將不知道應(yīng)該如何處理。尤其是在序列決策問題中,模型自己的每一步?jīng)Q定都會改變未來觀測的分布,哪怕開始只是輕微偏差,也可能隨著時間放大成嚴(yán)重錯誤,這就是所謂的分布偏移或誤差累積問題。
模仿學(xué)習(xí)主要學(xué)習(xí)專家示范的內(nèi)容,提供給模型的專家示范總希望是高質(zhì)量的且具代表性的,但人類司機(jī)并不完美,總會存在疏忽、習(xí)慣性錯誤或?qū)δ承﹫鼍安磺‘?dāng)?shù)呐袛唷H绻P椭皇?a target="_blank">機(jī)械地模仿這些行為,就可能學(xué)到不良駕駛習(xí)慣。尤其對于人類社會來說,道德和法律層面的約束不是簡單靠模仿就能學(xué)會的,如何在多方?jīng)_突情形下如何取舍、如何展現(xiàn)可辯護(hù)的決策過程等,都需要額外的規(guī)則與可解釋性的支撐。
端到端的模仿學(xué)習(xí)模型還存在內(nèi)部決策過程不透明的問題,其安全邊界難以被嚴(yán)格界定和驗(yàn)證。對于汽車這種涉及生命財(cái)產(chǎn)安全的關(guān)鍵領(lǐng)域,監(jiān)管與認(rèn)證體系要求系統(tǒng)具備可解釋的邏輯或明確的安全保證。因此,單純依賴數(shù)據(jù)驅(qū)動的模仿學(xué)習(xí),在應(yīng)對復(fù)雜多變的長尾場景時,可能面臨可驗(yàn)證性不足的挑戰(zhàn)。
要把模仿學(xué)習(xí)做得足夠魯棒,要覆蓋足夠廣的高質(zhì)量示范數(shù)據(jù),這就帶來了采集成本高、標(biāo)注難、隱私與合規(guī)等問題。尤其是極端天氣、罕見事故或復(fù)雜交互場景,本身就少見,要人工制造這些場景又有風(fēng)險(xiǎn),仿真雖然能補(bǔ)充一部分,但仿真與現(xiàn)實(shí)間的差距也會影響模型遷移效果,因此,對于模仿學(xué)習(xí)來說,數(shù)據(jù)方面的挑戰(zhàn)不容忽視。
最后的話
模仿學(xué)習(xí)為自動駕駛系統(tǒng)提供了實(shí)現(xiàn)擬人化駕駛行為的重要基礎(chǔ),但其數(shù)據(jù)驅(qū)動的黑箱特性在安全驗(yàn)證和長尾場景泛化方面存在局限。想應(yīng)用好模仿學(xué)習(xí),就要將模仿學(xué)習(xí)置于一個包含規(guī)則約束、規(guī)劃模塊及多重安全冗余的混合系統(tǒng)架構(gòu)中,從而確保其在發(fā)揮其高效學(xué)習(xí)優(yōu)勢的同時,更能確保系統(tǒng)的整體行為符合可解釋、可驗(yàn)證的安全規(guī)范。
-
模型
+關(guān)注
關(guān)注
1文章
3751瀏覽量
52099 -
自動駕駛
+關(guān)注
關(guān)注
793文章
14879瀏覽量
179793
發(fā)布評論請先 登錄
自動駕駛中常提的占用網(wǎng)絡(luò)檢測存在哪些問題?
自動駕駛中常提的“深度估計(jì)”是個啥?
自動駕駛中常提的離線強(qiáng)化學(xué)習(xí)是什么?
強(qiáng)化學(xué)習(xí)會讓自動駕駛模型學(xué)習(xí)更快嗎?
自動駕駛中常提的世界模型是什么?
大模型中常提的快慢思考會對自動駕駛產(chǎn)生什么影響?
自動駕駛中常提的“強(qiáng)化學(xué)習(xí)”是個啥?
自動駕駛中常提的“專家數(shù)據(jù)”是個啥?
自動駕駛中常提的ODD是個啥?
自動駕駛中常提的硬件在環(huán)是個啥?
自動駕駛中常提的RTK是個啥?
自動駕駛中常提的世界模型是個啥?
自動駕駛中常提的“點(diǎn)云”是個啥?
自動駕駛中常提的“NOA”是個啥?
自動駕駛中常提的模仿學(xué)習(xí)是什么?
評論