国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

占用網(wǎng)絡(luò)為什么讓自動駕駛感知更精準?

智駕最前沿 ? 來源:智駕最前沿 ? 作者:智駕最前沿 ? 2026-01-19 09:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

[首發(fā)于智駕最前沿微信公眾號]自動駕駛技術(shù)的演進過程,本質(zhì)上是人類試圖賦予機器“理解物理世界幾何結(jié)構(gòu)”能力的過程。在過去很長一段時間里,感知系統(tǒng)高度依賴于對特定目標(biāo)的“分類與識別”。如果系統(tǒng)在訓(xùn)練集中見過某種車輛或行人,它就能在道路上通過拉出二維或三維的邊界框(Bounding Box)對其進行定位。然而,這種基于目標(biāo)識別的方法在面對真實世界無窮無盡的“奇葩”障礙物時,逐漸顯露出疲態(tài)。

為了打破這一瓶頸,感知算法開始從識別目標(biāo)轉(zhuǎn)向感知空間,占用網(wǎng)絡(luò)(Occupancy Network)便是在這種背景下應(yīng)運而生的一種算法。它不再糾結(jié)于物體“是什么”,而是直接回答空間“是否被占用”,這種視角的轉(zhuǎn)變不僅將感知維度從2D升維至3D,更極大地提升了自動駕駛系統(tǒng)的泛化能力和安全性

wKgZO2ltiC2ADEH4AAAQo00DEvw201.jpg

為什么自動駕駛需要理解“空間”

在自動駕駛感知的早期階段,主要使用“HydraNet”的架構(gòu),利用多攝像頭融合以及Transformer技術(shù)將二維圖像轉(zhuǎn)化為對周圍環(huán)境的3D感知。雖然這種方式已經(jīng)能夠生成鳥瞰圖(BEV)視角的感知結(jié)果,但它依然深受“方盒子”模型的束縛。

wKgZPGltiDCABQ-qAMnLSwAbicY092.jpg

圖片源自:網(wǎng)絡(luò)

傳統(tǒng)的感知系統(tǒng)傾向于用規(guī)則的長方體包裹目標(biāo),但現(xiàn)實世界中的物體形狀極不規(guī)則,像是帶有細長吊臂的起重機、滿載貨物且形狀奇特的板車,或者是道路上散落的紙箱和破碎輪胎皮等非常常見。如果模型僅僅被訓(xùn)練識別轎車和卡車,那么對于這些從未見過的異形障礙物,它很可能會因為無法分類而選擇視而不見,這就是行業(yè)內(nèi)常說的感知漏檢問題。

此外,早期的BEV視角主要關(guān)注地面的橫向和縱向空間,卻在Z軸方向上缺失關(guān)鍵的高度信息。這導(dǎo)致車輛在面對如立交橋的邊緣、限高桿或者是傾斜的電線桿等半空中的物體時,難以做出精準的判斷。

占用網(wǎng)絡(luò)通過將世界劃分為微小的體素(Voxel),即三維空間里的像素點,徹底解決了這一痛點。系統(tǒng)會預(yù)測每一個微小體素是“空閑”狀態(tài)還是“被占用”狀態(tài),這種基于體積感知的方式不僅能精準識別物體的運動狀態(tài)差異,還能捕捉到物體極其細微的幾何結(jié)構(gòu)??梢哉f,占用網(wǎng)絡(luò)讓自動駕駛車輛擁有了一種“空間直覺”,即便它不認識眼前的物體到底是什么,但只要它占據(jù)了空間,系統(tǒng)就能感知到它的物理存在并進行避讓。

感知維度 傳統(tǒng)邊界 占用網(wǎng)絡(luò)
感知目標(biāo) 預(yù)定義的特定類別(車/人/物) 任意形狀的物理存在(體素占用)
空間表達 2D/3D框,缺乏內(nèi)部及邊緣細節(jié) 3D體積空間,精細描繪幾何形狀
異形物體處理 極差,容易漏檢未見過的物體 優(yōu)秀,只要有體積就能感知
懸掛物感知 難以獲取高度信息,常誤判 精準捕捉Z軸占用,可識別懸空物
遮擋魯棒性 依賴目標(biāo)完整性,易丟失遮擋目標(biāo) 結(jié)合時序預(yù)測,可推測遮擋空間的占用

占用網(wǎng)絡(luò)與傳統(tǒng)邊界框感知方案優(yōu)勢對比

這種從“目標(biāo)導(dǎo)向”到“空間導(dǎo)向”的轉(zhuǎn)變,實際上是機器人學(xué)中占用網(wǎng)格映射(Occupancy Grid Mapping)思想在深度學(xué)習(xí)時代的體現(xiàn)。它不再追求對物體語義的完美解讀,而是確保對物理世界幾何連續(xù)性的準確把握。這種策略在處理“長尾場景”(Edge Cases)時可以表現(xiàn)出極強的韌性,因為無論外界環(huán)境如何變化,物理法則是不變的,即任何實體都必須占據(jù)一定的空間。

wKgZO2ltiDKAWK9oAAAR42n7O-I913.jpg

占用網(wǎng)絡(luò)的底層架構(gòu)

要支撐起如此龐大的實時三維感知任務(wù),占用網(wǎng)絡(luò)背后的神經(jīng)網(wǎng)絡(luò)架構(gòu)極其復(fù)雜。以特斯拉AI Day 2022上公開的技術(shù)方案為例,其流程始于高效的骨干網(wǎng)絡(luò)(如RegNet)和特征融合模塊(如BiFPN),其從多個環(huán)視攝像頭中提取高維的二維圖像特征。隨后,模型通過引入空間注意力機制(Spatial Attention),利用帶有3D空間位置信息的空間查詢(Spatial Query)在多相機生成的圖像特征中進行跨相機融合。這個過程可以被視為一種數(shù)學(xué)上的升維操作,能將離散的、存在畸變的二維圖像數(shù)據(jù)重構(gòu)到統(tǒng)一的三維向量空間中。

在這個3D向量空間內(nèi),系統(tǒng)引入了時序融合(Temporal Fusion)來處理動態(tài)環(huán)境。特斯拉的方案設(shè)計了兩套特征隊列,時序特征隊列每27毫秒更新一次特征,用于捕捉快速運動目標(biāo)的連貫性;而空間特征隊列則根據(jù)車輛行駛的固定距離來更新,這在車輛停止(如等紅綠燈)時尤為重要,能防止模型因為靜止而“忘記”之前的空間信息。為了整合這些時序信息,通過使用空間RNN(Spatial RNN)模塊,將隱狀態(tài)(Hidden State)組織成一個二維或三維網(wǎng)格,隨著車輛的移動不斷更新周圍環(huán)境的“記憶”。

在解碼階段,占用網(wǎng)絡(luò)并不只是輸出一張體格化的地圖。為了打破固定分辨率的限制,模型引入了隱式坐標(biāo)查詢(Implicit Queryable MLP Decoder)。這意味著,對于空間中的任意坐標(biāo)(x, y, z),模型都能解碼出該點的多種信息。這種設(shè)計賦予了感知系統(tǒng)極高的靈活性,它既能提供粗略的全景感知,也能在關(guān)鍵區(qū)域進行高密度的細粒度采樣。

wKgZPGltiDOAUZaSABd5sSpdRGk965.jpg

圖片源自:網(wǎng)絡(luò)

除了特斯拉的路徑,還衍生出了如OccNet和TPVFormer等不同的變體。OccNet采用了級聯(lián)體素解碼器(Cascade Voxel Decoder),這種架構(gòu)不再是一次性生成高分辨率的3D體積,而是通過多級細化的方式逐步豐富高度信息和體素細節(jié),從而在計算效率和感知精度之間找到了平衡。它還使用了專門為3D空間優(yōu)化的三維可變形注意力機制(3D Deformable Attention),這使得系統(tǒng)在處理行人、交通錐等細小障礙物時的mIoU(平均交并比)表現(xiàn)顯著優(yōu)于傳統(tǒng)的BEV方法。

為了進一步提升感知的準確性,像是理想、華為等國內(nèi)廠商則選擇了視覺與激光雷達的深度融合。理想的BEV融合算法在攝像頭采集的豐富語義基礎(chǔ)上,加入了激光雷達的高精度測距數(shù)據(jù)。激光雷達能夠在200米外提前探測到危險目標(biāo),并利用智能濾噪算法識別雨霧、前車尾氣等環(huán)境噪點,其反應(yīng)速度通常僅為0.1秒,遠超人類駕駛員的0.6 秒。在這種融合架構(gòu)下,占用網(wǎng)絡(luò)被賦予了更強的魯棒性,即便在黑夜、隧道煙霧或極端天氣下攝像頭失效時,基于激光雷達點云生成的空間占用信息依然能確保AEB等安全功能的正常觸發(fā)。

下表對比了主流占用網(wǎng)絡(luò)技術(shù)實現(xiàn)路徑的差異:

技術(shù)名稱 核心機制 優(yōu)勢 局限性
特斯拉占用網(wǎng)絡(luò) 純視覺+隱式MLP解碼 運行效率極高(100+FPS),硬件成本低 對極端光照敏感,極度依賴數(shù)據(jù)閉環(huán)
OccNet(級聯(lián)解碼器) 級聯(lián)體素細化+時序自注意力 小物體感知極其精準,處理細微幾何出色 訓(xùn)練過程復(fù)雜,對算力資源有一定要求
華為GOD網(wǎng)絡(luò) 激光雷達+視覺多模態(tài)融合 3D世界模型構(gòu)建更真實,異形物體識別強 硬件成本較高,異構(gòu)數(shù)據(jù)融合挑戰(zhàn)大
TPVFormer 三視角平面表征(Tri-Perspective) 內(nèi)存開銷小,在大物體識別上表現(xiàn)穩(wěn)健 細粒度幾何恢復(fù)能力弱于密集占用網(wǎng)絡(luò)

這些算法演進的背后,其實是在“計算成本”與“信息密度”之間進行取舍。雖然三維體素能提供最豐富的信息,但如果將空間劃分得太細,計算量會呈指數(shù)級爆炸。隱式查詢和級聯(lián)解碼等技術(shù)的出現(xiàn),正是為了在有限的車載算力下,實現(xiàn)對三維世界的高質(zhì)量重構(gòu)。

wKgZO2ltiDSAFkUaAAASG3BOmsQ636.jpg

占用網(wǎng)絡(luò)如何改變車輛的“大腦決策”

如果說感知是自動駕駛的“眼睛”,那么規(guī)劃與控制(PnC)就是車輛的“大腦”。在過去,感知與規(guī)控之間存在一條很深的鴻溝,感知輸出的是一堆帶有噪聲的標(biāo)簽,而規(guī)控則基于一套硬編碼的邏輯規(guī)則。占用網(wǎng)絡(luò)的引入,正在通過一種“統(tǒng)一表征”的方式填補這一鴻溝。由于占用網(wǎng)絡(luò)直接輸出物理世界的幾何占用狀態(tài),規(guī)劃模型可以利用這些數(shù)據(jù)生成代價地圖(Cost Map),而不再需要復(fù)雜的中間轉(zhuǎn)換層。

wKgZPGltiDSAGrXuAABo76CV9t0624.jpg

圖片源自:網(wǎng)絡(luò)

在局部路徑規(guī)劃中,系統(tǒng)需要評估成千上萬條候選軌跡的安全性。傳統(tǒng)的做法是針對每個識別出的物體進行碰撞檢測,這在物體數(shù)量眾多的擁堵路口將非常耗時。而基于占用網(wǎng)絡(luò),規(guī)劃器可以使用時空占用網(wǎng)格圖(SOGM)來預(yù)測周圍空間在未來短時間內(nèi)的狀態(tài)演變。這種預(yù)測不再是簡單的線性外推,而是結(jié)合了物體的運動流信息(Flow),能準確預(yù)判行人的走位或車輛的加塞。通過在Frenet坐標(biāo)系中進行軌跡采樣,并結(jié)合動態(tài)占用地圖進行實時評估,車輛通過這種方式可以選出一條既舒適又安全的最佳路徑。

占用網(wǎng)絡(luò)帶來的更深層次的變革在于規(guī)劃算法的“物理化”。一些技術(shù)方案提出將人工勢場法(APF)作為物理啟發(fā)引導(dǎo)嵌入到神經(jīng)網(wǎng)絡(luò)的訓(xùn)練中。這意味著預(yù)測出的占用圖不僅要符合視覺特征,還要符合物理規(guī)律。例如,物體不能瞬間位移,兩個實體不能在同一時間占據(jù)同一空間。這種物理約束的加入,使得規(guī)劃生成的軌跡更加平滑且符合人類駕駛直覺。在復(fù)雜的城市環(huán)境中,系統(tǒng)甚至可以利用軟行為博弈(Soft Actor-Critic,SAC)算法,通過多頻道代價地圖觀察(M-COST)來學(xué)習(xí)處理不可預(yù)見的障礙物行為,從而實現(xiàn)在動態(tài)環(huán)境中的實時自適應(yīng)規(guī)劃。

此外,占用網(wǎng)絡(luò)產(chǎn)生的連續(xù)幾何表示(如神經(jīng)帶符號距離場ONDP)為避障提供了毫米級的精度。這種高精度的幾何反饋對于狹窄空間的穿行至關(guān)重要。規(guī)劃器通過差異化距離查詢,可以快速計算車輛邊緣與最近障礙物之間的梯度信息,引導(dǎo)控制系統(tǒng)做出微小的轉(zhuǎn)向修正,這在自動泊車或在狹窄巷道通行中具有巨大的應(yīng)用價值。

占用網(wǎng)絡(luò)對規(guī)控系統(tǒng)的賦能主要體現(xiàn)在以下幾個環(huán)節(jié):

統(tǒng)一的輸入源:將靜態(tài)道路結(jié)構(gòu)(如護欄、馬路牙子)與動態(tài)障礙物(行人、車輛)統(tǒng)一在同一個體素空間中,消除了跨模塊處理產(chǎn)生的誤差累積。

預(yù)測與感知的解耦:感知模塊輸出的Flow信息直接包含了物體的速度和運動趨勢,使得規(guī)劃模塊在做短時預(yù)測(通常為2秒時域)時更加精準。

安全性閉環(huán):通過物理啟發(fā)式學(xué)習(xí),系統(tǒng)能識別出“不可通行區(qū)域”的邊界,即便這些區(qū)域是由未分類的異形物體構(gòu)成的,也能確保車輛維持足夠的安全余量。

這種感知與規(guī)控的融合,正是端到端(End-to-End)自動駕駛的必經(jīng)之路。在特斯拉的FSD V12架構(gòu)中,占用網(wǎng)絡(luò)提供的3D空間理解作為底層基礎(chǔ),支撐起了一個單一的深度學(xué)習(xí)模型,實現(xiàn)了從原始圖像輸入到駕駛指令輸出的直接映射。這種架構(gòu)不再依賴于數(shù)百萬行的人寫規(guī)則,而是通過學(xué)習(xí)海量優(yōu)秀人類駕駛員的行為數(shù)據(jù),自動習(xí)得在復(fù)雜空間環(huán)境下的駕駛策略。

wKgZO2ltiDSAdR8NAAASAJELks8652.jpg

產(chǎn)業(yè)落地與未來圖景

占用網(wǎng)絡(luò)雖然在理論上極具吸引力,但在實際的大規(guī)模產(chǎn)業(yè)落地中,卻面臨著數(shù)據(jù)標(biāo)注和實時算力的雙重挑戰(zhàn)。在傳統(tǒng)感知時代,人工拉框標(biāo)注障礙物還是可行的,但對于三維空間的每一個體素進行分類標(biāo)注,顯然超出了人工的極限。為此,行業(yè)開發(fā)出了4D自動標(biāo)注技術(shù)。特斯拉利用Dojo超級計算機和定制的D1芯片,通過離線重構(gòu)技術(shù)(如NeRF)對行駛過的歷史路徑進行全量3D重建,可以生成極高精度的真值(Ground Truth)來監(jiān)督在線網(wǎng)絡(luò)的訓(xùn)練。這種自動標(biāo)注系統(tǒng)只需12小時就能處理10,000次駕駛行程的數(shù)據(jù),其效率相當(dāng)于500萬小時的人工勞動。

wKgZPGltiDWANMN7ANjglQ9o894099.jpg

圖片源自:網(wǎng)絡(luò)

在硬件層面,運行高幀率的占用網(wǎng)絡(luò)需要極其強大的計算底座。特斯拉的FSD芯片通過分布式并行計算,將神經(jīng)網(wǎng)絡(luò)執(zhí)行分配到獨立的系統(tǒng)上,從而保證了實時性。而像理想等廠商采用的雙英偉達Orin-X平臺,則提供了高達508TOPS的總算力,為復(fù)雜的BEV融合算法和舒適度COST預(yù)測模型提供了充足的余量。這種“算力換空間理解”的邏輯,正是當(dāng)前智能汽車硬件競賽的核心驅(qū)動力。

未來,自動駕駛的感知將進一步細粒度化與通用化。隨著OpenOcc等高質(zhì)量3D占用基準測試集的發(fā)布,算法模型對細小物體的捕捉能力將持續(xù)提升。同時,占用網(wǎng)絡(luò)將不再局限于感知障礙物,而是會朝著語義占據(jù)(Semantic Occupancy)方向演進,即不僅可以知道車輛前方有東西,還知道那是草地、水坑還是堅硬的巖石,從而指導(dǎo)車輛在非鋪裝路面上進行決策。

wKgZO2ltiDiAQ7TIAAARwcz1hbg709.jpg

最后的話

回望自動駕駛的發(fā)展史,我們正在經(jīng)歷一個從“看圖識字”到“空間感知”的變革期。占用網(wǎng)絡(luò)不僅是一項技術(shù)的發(fā)明,更是一種人工智能解決物理世界問題方式的最新解法。其實想讓機器像人一樣駕駛,要做的就是要讓機器建立起對“存在”與“虛空”最直觀、最準確的把握。而在這一進程中,占用網(wǎng)絡(luò)無疑是那顆點亮3D世界感知的燈泡,讓自動駕駛普及成為可能。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 自動駕駛
    +關(guān)注

    關(guān)注

    793

    文章

    14879

    瀏覽量

    179790
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    自動駕駛與具身智能感知系統(tǒng)的設(shè)計優(yōu)先級有何差異?

    [首發(fā)于智駕最前沿微信公眾號]自動駕駛與具身智能經(jīng)常被同提并論,甚至有人將自動駕駛視為具身智能在交通場景下的一個子集。從物理形式上看,自動駕駛車輛可以被理解為一種“帶輪子的身體”,其核心任務(wù)是
    的頭像 發(fā)表于 03-02 08:56 ?1119次閱讀
    <b class='flag-5'>自動駕駛</b>與具身智能<b class='flag-5'>感知</b>系統(tǒng)的設(shè)計優(yōu)先級有何差異?

    自動駕駛中常提的占用網(wǎng)絡(luò)檢測存在哪些問題?

    自動駕駛感知技術(shù)在過去幾年中經(jīng)歷了很大的變化,從最初的二維圖像檢測到鳥瞰圖投影,再到如今備受關(guān)注的占用網(wǎng)絡(luò),感知技術(shù)的提升,
    的頭像 發(fā)表于 02-24 15:53 ?946次閱讀

    自動駕駛汽車如何實現(xiàn)自動駕駛

    人類駕駛員而言是非常直觀且有效的指令,但對于自動駕駛汽車來說,則意味著需要一套極其復(fù)雜的感知、理解與決策鏈路。 自動駕駛如何看清文字? 自動駕駛
    的頭像 發(fā)表于 02-10 08:50 ?628次閱讀
    <b class='flag-5'>自動駕駛</b>汽車如何實現(xiàn)<b class='flag-5'>自動駕駛</b>

    Transformer如何自動駕駛大模型獲得思考能力?

    在談及自動駕駛時,Transformer一直是非常關(guān)鍵的技術(shù),為何Transformer在自動駕駛行業(yè)一直被提及?
    的頭像 發(fā)表于 02-01 09:15 ?4156次閱讀

    德州儀器這些技術(shù)推動自動駕駛邁向新高度

    2026 年 CES 展會上,自動駕駛成為熱議焦點!AI 融合 4D 成像雷達與高性能芯片,實現(xiàn)了更精準感知與實時決策。區(qū)域架構(gòu)和 48V 系統(tǒng)車輛更聰明高效。這些技術(shù)已規(guī)?;涞?/div>
    的頭像 發(fā)表于 01-26 10:12 ?2350次閱讀

    自動駕駛汽車如何確定自己的位置和所在車道?

    比人類更多的“感官”和更強的計算能力;復(fù)雜則在于,這項工作必須做到精準(米級甚至分米級)、穩(wěn)定、連續(xù),并且要在各種極端環(huán)境下都要可靠。那自動駕駛汽車是如何確定自己的位置和所在車道的? ? 車輛如何感知世界?
    的頭像 發(fā)表于 11-18 09:03 ?876次閱讀
    <b class='flag-5'>自動駕駛</b>汽車如何確定自己的位置和所在車道?

    索尼FCB-EV9520L機芯如何賦能自動駕駛安全

    中不可或缺的視覺核心。這款機芯通過多維度技術(shù)突破,為自動駕駛系統(tǒng)提供了更穩(wěn)定、更精準的環(huán)境感知支持。 自動駕駛場景中,夜間或光線不足的環(huán)境是技術(shù)落地的關(guān)鍵挑戰(zhàn)。傳統(tǒng)攝像頭在低照度條件下
    的頭像 發(fā)表于 10-14 15:35 ?419次閱讀

    自動駕駛感知不一致是怎么發(fā)生的?

    [首發(fā)于智駕最前沿微信公眾號]為了自動駕駛汽車能夠安全行駛,很多技術(shù)方案中會將多個感知硬件加裝到車輛上,以確保自動駕駛汽車感知冗余,但
    的頭像 發(fā)表于 09-17 12:45 ?756次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>感知</b>不一致是怎么發(fā)生的?

    想實現(xiàn)自動駕駛,哪些技術(shù)非常關(guān)鍵?

    近年來,隨著人工智能、車載計算平臺、傳感器技術(shù)的快速進步,自動駕駛已從實驗室走向?qū)嶋H道路。而支撐這一切的,是一套龐大且精密的技術(shù)架構(gòu)系統(tǒng)。這套架構(gòu)就像一輛自動駕駛汽車的大腦與神經(jīng)網(wǎng)絡(luò),既要能
    的頭像 發(fā)表于 08-30 09:40 ?2556次閱讀

    如何確保自動駕駛汽車感知的準確性?

    [首發(fā)于智駕最前沿微信公眾號]自動駕駛汽車想要自動駕駛,首先要做的就是能對周邊環(huán)境實現(xiàn)精準感知,也就是能“看”清道路,那自動駕駛汽車如何在復(fù)
    的頭像 發(fā)表于 08-23 15:06 ?1663次閱讀
    如何確保<b class='flag-5'>自動駕駛</b>汽車<b class='flag-5'>感知</b>的準確性?

    什么是自動駕駛數(shù)據(jù)標(biāo)注?如何好做數(shù)據(jù)標(biāo)注?

    精準且高效的數(shù)據(jù)標(biāo)注流程顯得尤為關(guān)鍵。那什么是數(shù)據(jù)標(biāo)注?如何做數(shù)據(jù)標(biāo)注? 自動駕駛數(shù)據(jù)標(biāo)注是指在自動駕駛系統(tǒng)所采集的感知數(shù)據(jù)(如攝像頭圖像、激光雷達點云、毫米波雷達等)中,為各種交通
    的頭像 發(fā)表于 07-09 09:19 ?1373次閱讀
    什么是<b class='flag-5'>自動駕駛</b>數(shù)據(jù)標(biāo)注?如何好做數(shù)據(jù)標(biāo)注?

    卡車、礦車的自動駕駛和乘用車的自動駕駛在技術(shù)要求上有何不同?

    [首發(fā)于智駕最前沿微信公眾號]自動駕駛技術(shù)的發(fā)展,組合輔助駕駛得到大量應(yīng)用,但現(xiàn)在對于自動駕駛技術(shù)的宣傳,普遍是在乘用車領(lǐng)域,而對于卡車、礦車的
    的頭像 發(fā)表于 06-28 11:38 ?1364次閱讀
    卡車、礦車的<b class='flag-5'>自動駕駛</b>和乘用車的<b class='flag-5'>自動駕駛</b>在技術(shù)要求上有何不同?

    SONY FCB-CR8530,如何重塑自動駕駛視覺感知格局?

    自動駕駛技術(shù)快速發(fā)展的當(dāng)下,車輛對周圍環(huán)境的精準感知是確保安全與高效運行的關(guān)鍵。凱茉銳電子SONY FCB-CR8530攝像機憑借其卓越性能,正逐漸成為自動駕駛領(lǐng)域視覺
    的頭像 發(fā)表于 06-25 17:54 ?634次閱讀

    AI將如何改變自動駕駛?

    自動駕駛帶來哪些變化?其實AI可以改變自動駕駛技術(shù)的各個環(huán)節(jié),從感知能力的提升到?jīng)Q策框架的優(yōu)化,從安全性能的增強到測試驗證的加速,AI可以自動駕駛
    的頭像 發(fā)表于 05-04 09:58 ?840次閱讀

    感知融合如何自動駕駛汽車“看”世界更清晰?

    自動駕駛技術(shù)被認為是未來交通領(lǐng)域的革命性變革,其目標(biāo)是通過技術(shù)手段實現(xiàn)安全、高效、便捷的出行體驗。而在這一技術(shù)體系中,環(huán)境感知系統(tǒng)扮演著至關(guān)重要的角色,它不僅是自動駕駛車輛理解外部世界的“眼睛
    的頭像 發(fā)表于 04-27 16:24 ?870次閱讀
    <b class='flag-5'>感知</b>融合如何<b class='flag-5'>讓</b><b class='flag-5'>自動駕駛</b>汽車“看”世界更清晰?