12月9日,麻省理工學院計算機與人工智能實驗室和Delft大學認知機器人實驗室聚集在一起,創建了一個數學公式,可以幫助自動駕駛司機留意不可預測的危險。
麻省理工自動駕駛研究車輛
無人駕駛汽車較為困難的事情之一就是測量他們與非自動駕駛汽車同處一路時,如何規避風險。非自動駕駛司機同樣會犯錯,有些司機還不遵守交通法規。如果自動駕駛可以了解周圍的人是如何駕駛的,就會規避很多潛在危險。麻省理工學院計算機與人工智能實驗室和Delft大學認知機器人實驗室的研究人員公布了一篇論文,他們已經找到一種方法來做到這一點。
這個公式可以幫助無人駕駛汽車在約兩秒內對非自動駕駛汽車的駕駛員做出判斷,是否為不良情緒。一項涉及自動駕駛車輛在加算計模擬中融合的測試發現,該系統將汽車預測“駕駛行為”的能力提高了25%。
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。
舉報投訴
-
無人駕駛
+關注
關注
100文章
4296瀏覽量
126812 -
自動駕駛
+關注
關注
793文章
14880瀏覽量
179798
發布評論請先 登錄
相關推薦
熱點推薦
如何構建適合自動駕駛的世界模型?
[首發于智駕最前沿微信公眾號]世界模型經歷了系統動力學階段(1960年~2000年)、認知科學階段(2001年~2017年)、深度學習階段(2018年至今),但將其應用到自動駕駛汽車上,還是近幾年才
自動駕駛汽車如何實現自動駕駛
人類駕駛員而言是非常直觀且有效的指令,但對于自動駕駛汽車來說,則意味著需要一套極其復雜的感知、理解與決策鏈路。 自動駕駛如何看清文字? 自動駕駛汽車感知漢字的第一步是場景文本識別技術,
如何設計好自動駕駛ODD?
為確定自動駕駛的可使用范圍,會給自動駕駛設置一個運行設計域(Operational Design Domain,ODD)。ODD的作用就是用來明確自動駕駛在什么情況下能工作,在什么情況下不能工作,給車設定“工作范圍”。
端到端是怎么讓自動駕駛更像老司機的?
[首發于智駕最前沿微信公眾號]如果將自動駕駛的發展史比作人類的學習歷程,那么在過去很長一段時間里,這個“學生”其實一直都在背誦極其繁瑣的教條。這一階段的自動駕駛系統使用的是模塊化架構,它的運行高度
自動駕駛中常提的模仿學習是什么?
當談及自動駕駛模型學習時,經常會提到模仿學習的概念。所謂模仿學習,就是模型先看別人怎么做,然后學著去做。自動駕駛中的模仿學習,就是把人類司機在各種路況下的行為做成范例,記錄下看到了什么和做了什么等信息,然后將這些一一對應起來當作
在山區實現自動駕駛的難點在哪里?
的石頭或橫穿的牲畜的風險。山里的這些“突發性”和“不規則性”會把很多在城市已經足夠好的技術逼到極限,甚至露出短板。想在山區實現自動駕駛是否現實?
不同等級的自動駕駛技術要求上有何不同?
談到自動駕駛,不可避免地會涉及到自動駕駛分級,美國汽車工程師學會(SAE)根據自動駕駛系統與人類駕駛員參與駕駛行為程度的不同,將
自動駕駛中常提的ODD是個啥?
理解,ODD就像自動駕駛系統的“活動許可書”,它明確告訴車輛在哪些環境、什么路況、什么速度范圍、哪類交通參與者出現時,系統被允許接管駕駛任務。簡單理解下,把自動駕駛想象成一個選手參賽的場地,ODD就是比賽的賽場范圍,把賽道、天氣
卡車、礦車的自動駕駛和乘用車的自動駕駛在技術要求上有何不同?
[首發于智駕最前沿微信公眾號]自動駕駛技術的發展,讓組合輔助駕駛得到大量應用,但現在對于自動駕駛技術的宣傳,普遍是在乘用車領域,而對于卡車、礦車的自動駕駛發展,卻鮮有提及。其實在卡車、
自動駕駛安全基石:ODD
和限制下可以正常工作,是自動駕駛安全的核心概念之一。 ? 對于人類司機來說,在不同的道路上駕駛的能力也有所區別,比如新手司機在一些窄路、山路,或者交通狀況復雜的道路上可能會無所適從,人
新能源車軟件單元測試深度解析:自動駕駛系統視角
的潛在風險增加,尤其是在自動駕駛等安全關鍵系統中。根據ISO 26262標準,自動駕駛系統的安全完整性等級(ASIL-D)要求單點故障率必須低于10^-8/小時,這意味著每小時的故障概率需控制在億
發表于 05-12 15:59
AI將如何改變自動駕駛?
[首發于智駕最前沿微信公眾號]五一假期繼續閑聊一下,還歡迎大家隨意留言,隨著人工智能(AI)的發展,很多車企及自動駕駛供應商正嘗試將AI融入自動駕駛系統,為何大家都在積極推動這一技術?AI會給
數學公式幫助自動駕駛司機規避風險
評論