国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

AI大模型在汽車應用中的推理、降本與可解釋性研究

佐思汽車研究 ? 來源:佐思汽車研究 ? 2025-02-18 15:02 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

佐思汽研發布《2024-2025年AI大模型及其在汽車領域的應用研究報告》。

推理能力成為大模型性能提升的驅動引擎

2024下半年以來,國內外大模型公司紛紛推出推理模型,通過以CoT為代表的推理框架,加強大模型對復雜任務處理能力和自主決策能力。

部分大模型公司的推理模型發布情況

27871978-edbd-11ef-9310-92fbcf53809c.png

來源:佐思汽研《2024-2025年AI大模型及其在汽車領域的應用研究報告》

推理模型的密集上線,是為了提升大模型在復雜場景下的應對能力,同時也為Agent上線奠定基礎;具體到汽車行業,汽車大模型推理能力的提升,能夠切實解決AI應用場景下的痛點問題,如加強座艙助手對復雜語義的意圖識別和提升自動駕駛規劃決策中的時空預測場景精度。

部分汽車AI應用場景下對大模型推理能力的需求

2799bb6e-edbd-11ef-9310-92fbcf53809c.png

整理:佐思汽研

2024年,上車的主流大模型推理技術仍以思維鏈CoT及其變種為主(如思維樹ToT、思維圖GoT、思維森林FoT等),在不同的場景下會融合生成模型(如擴散模型)、知識圖譜、因果推理模型、累積推理、多模態推理鏈等技術。

如吉利提出模塊化思維語言模型(MeTHanol),讓大語言模型合成人類思維并用于監督 LLM 的隱藏層,通過適應日常對話和個性化提示,生成類似人類的思維行為,增強大語言模型的思維和推理能力,并提升可解釋性。

MeTHanol(含中間思維層的雙層微調和兩階段推理)與標準SFT技術的對比

27b839e0-edbd-11ef-9310-92fbcf53809c.png

來源:吉利

2025年,推理技術的重點會向多模態推理轉移,常用的訓練技術包括指令微調、多模態上下文學習與多模態思維鏈(M - CoT)等,多通過多模態融合對齊技術與LLM的推理技術結合而成。

部分多模態推理技術

27bc61a0-edbd-11ef-9310-92fbcf53809c.png

整理:佐思汽研

可解釋性成為AI與用戶的信任橋梁

在用戶體會到AI的“好用”之前,首先需要滿足用戶對AI的“信任”,所以,2025年,AI系統運行的可解釋性成為汽車AI用戶基數增長的關鍵一環,該痛點也可通過長思維鏈的展示來解決。

AI系統的可解釋性可通過數據可解釋性、模型可解釋性和事后可解釋性三個層面分別實現:

AI可解釋性的三個層面

27d808c4-edbd-11ef-9310-92fbcf53809c.png

27e7c71e-edbd-11ef-9310-92fbcf53809c.png

來源:IEEE;整理:佐思汽研

以理想為例,理想 L3 智駕通過 “AI 推理可視化技術”,可直觀呈現端到端 + VLM 模型的思考過程,涵蓋從物理世界感知輸入到大模型完成行駛決策輸出的全流程,提升用戶對智能駕駛系統的信任。

理想L3智駕的可解釋性

28058db2-edbd-11ef-9310-92fbcf53809c.jpg

來源:理想

理想的“AI推理可視化技術”中:

Attention(注意力系統)主要負責展示車輛感知到的交通和環境路況信息,能對實時視頻流中的交通參與者進行行為評估,并使用熱力圖展示評估對象。

E2E(端到端模型)用于展示行駛軌跡輸出的思考過程。模型會思考不同的行駛軌跡,展示 10 個候選輸出結果,最終采用概率最大的輸出結果作為行駛路徑。

VLM(視覺語言模型)可展示自身的感知、推理和決策過程,其工作過程使用對話形式展示。

同時,理想Agent“理想同學”也提供可視化的工作流:

“理想同學”工作流

2809803e-edbd-11ef-9310-92fbcf53809c.png

來源:理想

同樣通過長思維鏈進行推理流程拆解的還有各個推理模型的對話界面,以DeepSeek R1為例,在與用戶的對話中,會先通過思維鏈展示每一個節點的決策,并通過自然語言進行說明。

DeepSeek R1長思維鏈界面

2823b4a4-edbd-11ef-9310-92fbcf53809c.png

來源:DeepSeek R1對話界面

此外,智譜的GLM-Zero-Preview、阿里的QwQ-32B-Preview、天工4.0 o1等大部分推理模型均支持長思維鏈推理流程展示。

DeepSeek降低大模型上車的門檻,性能提升與降本兼得

推理能力乃至綜合性能的提升,是否意味著需要付出高額成本?從DeepSeek的爆火來看,并不是。2025年初,主機廠先后接入DeepSeek,從應用詳情來看,基本上是以提升車載大模型的綜合能力為主。

2025年初,部分主機廠與DeepSeek合作情況

283cf73e-edbd-11ef-9310-92fbcf53809c.png

整理:佐思汽研

事實上,DeepSeek系列模型推出之前,各大主機廠已經按照自己的節奏有序推進旗下車載AI大模型的開發與迭代工作。以座艙助手為例,部分主機廠的方案已經初步完成構建,并已接入云端大模型供應商試運行或初步敲定供應商,其中不乏阿里云、騰訊云等云服務廠商以及智譜等大模型公司,2025年初再次接入DeepSeek,看重的包括:

強大的推理性能表現,如推理模型R1的性能與OPEN AI 推理模型o1相當,甚至在數學邏輯方面更為突出;

更低的成本,在保證性能的同時,訓練與推理成本均保持在同行業較低水平。

DeepSeek R1與OPEN AI o1模型成本的比較

285b919e-edbd-11ef-9310-92fbcf53809c.png

來源:公開信息

以上2點優勢均在DeepSeek的技術創新上有所體現:

DeepSeek系列的部分技術對大模型性能和成本的影響

28669efe-edbd-11ef-9310-92fbcf53809c.png

整理:佐思汽研

通過接入DeepSeek,主機廠在部署智駕和座艙助手時,可以切實地降低大模型性能硬件采購、模型訓練與維護成本,同時保證性能不下降:

低計算開銷技術推動高階智駕、智艙平權,意味著低算力車載芯片(如邊緣計算單元)上也可實現部署高性能模型,降低對高成本GPU的依賴;再結合DualPipe算法、FP8混合精度訓練等技術,優化算力利用率,從而實現中低端車型也能部署高階座艙功能、高階智駕系統,加速智能座艙的普及。

實時性增強,在汽車行駛環境下,智駕系統需實時處理大量傳感器數據,座艙助手需要快速響應用戶指令,而車端計算資源有限。DeepSeek 計算開銷的降低使傳感器數據的處理速度更快,可更高效的利用智駕芯片算力(服務器端訓練階段,DeepSeek實現了對英偉達A100芯片90%的算力利用率),同時降低延遲(如在高通8650平臺上,芯片算力同為100TOPS時,使用DeepSeek推理響應時間從20毫秒降至9 - 10毫秒)。在智駕系統中,可確保駕駛決策及時準確,提升駕駛安全性和用戶體驗。在座艙系統中,支持座艙助手快速響應用戶語音指令,實現流暢人機交互。

吉利星睿大模型的系統2接入DeepSeek R1

28862d00-edbd-11ef-9310-92fbcf53809c.png

來源:吉利

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    91

    文章

    39793

    瀏覽量

    301382
  • 汽車
    +關注

    關注

    15

    文章

    4154

    瀏覽量

    41095
  • 大模型
    +關注

    關注

    2

    文章

    3650

    瀏覽量

    5183

原文標題:AI大模型及汽車應用研究:推理、降本和可解釋性

文章出處:【微信號:zuosiqiche,微信公眾號:佐思汽車研究】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    使用NORDIC AI的好處

    ; 自定義 Neuton 模型博客] Axon NPU :集成 nRF54LM20B 等高端 SoC 的專用 AI 加速器,對 TensorFlow Lite
    發表于 01-31 23:16

    谷歌正式發布Gemma Scope 2模型

    Scope 工具包推動了可解釋性科學的發展,該工具旨在幫助研究人員理解我們輕量級開放模型系列 Gemma 2 的內部運作機制。
    的頭像 發表于 01-24 14:01 ?517次閱讀

    NVIDIA 推出 Alpamayo 系列開源 AI 模型與工具,加速安全可靠的推理型輔助駕駛汽車開發

    的仿真工具和數據集。 l Alpamayo 1、AlpaSim 和物理 AI 開放數據集可為開發具備感知、推理與類人決策能力的車輛提供支持,使開發者能夠進行模型調優、蒸餾和測試,從而提升安全
    的頭像 發表于 01-06 09:40 ?379次閱讀
    NVIDIA 推出 Alpamayo 系列開源 <b class='flag-5'>AI</b> <b class='flag-5'>模型</b>與工具,加速安全可靠的<b class='flag-5'>推理</b>型輔助駕駛<b class='flag-5'>汽車</b>開發

    嵌入式軟件單元測試AI自動化與人工檢查的協同機制研究:基于專業工具的實證分析

    提升效率與覆蓋率方面的優勢。通過實證案例與工業實踐數據,論證即使AI高度介入的測試流程,人工檢查在測試用例設計、異常語義判斷、邊界條件推理與安全合規驗證等關鍵環節仍具有不可替代
    發表于 12-31 11:22

    什么是AI模型推理能力

    NVIDIA 的數據工廠團隊為 NVIDIA Cosmos Reason 等 AI 模型奠定了基礎,該模型近日 Hugging Face 的物理
    的頭像 發表于 09-23 15:19 ?1272次閱讀

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片到AGI芯片

    、現階段更智能、更接近AGI的6算法與模型 1、MoE模型 MoE模型作為Transfomer模型的后繼者,代表著
    發表于 09-18 15:31

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI的科學應用

    流體芯片 ⑤AI計算平臺 ⑥基于AI的自主決策系統 ⑦基于AI的自主學習系統 2、面臨的挑戰 ①需要造就一個跨學科、全面覆蓋的知識庫和科學基礎模型
    發表于 09-17 11:45

    信而泰×DeepSeek:AI推理引擎驅動網絡智能診斷邁向 “自愈”時代

    DeepSeek-R1:強大的AI推理引擎底座DeepSeek是由杭州深度求索人工智能基礎技術研究有限公司開發的新一代AI模型。其核心優勢
    發表于 07-16 15:29

    模型推理顯存和計算量估計方法研究

    ,為實際應用提供了有益的參考。 未來,我們將繼續深入研究模型推理的優化方法,以降低顯存和計算資源的需求,提高深度學習模型實際應用
    發表于 07-03 19:43

    模型自適應控制永磁同步電機轉速的仿真研究

    的可行和有效。 純分享帖,點擊下方附件免費獲取完整資料~~~ *附件:無模型自適應控制永磁同步電機轉速的仿真
    發表于 06-25 13:01

    模型半導體行業的應用可行分析

    有沒有這樣的半導體專用大模型,能縮短芯片設計時間,提高成功率,還能幫助新工程師更快上手。或者軟硬件可以設計和制造環節確實有實際應用。會不會存在AI缺陷檢測。 能否應用在工藝優化和預測
    發表于 06-24 15:10

    中國科學院西安光機所在計算成像可解釋性深度學習重建方法取得進展

    圖1 MDFP-Net網絡結構 近日,中國科學院西安光機所空間光學技術研究計算成像可解釋性深度學習重建方法研究取得創新進展。相關
    的頭像 發表于 06-09 09:27 ?674次閱讀
    中國科學院西安光機所在計算成像<b class='flag-5'>可解釋性</b>深度學習重建方法取得進展

    首創開源架構,天璣AI開發套件讓端側AI模型接入得心應手

    PIX GP模型的整合,并且針對模型進行全鏈路微秒級分析,以確保最佳的端到端性能表現。雙方的整個合作流程,開發效率提升了30%。 天璣AI
    發表于 04-13 19:52

    詳解 LLM 推理模型的現狀

    領域的最新研究進展,特別是自DeepSeekR1發布后興起的推理時間計算擴展相關內容。LLM實施和改進推理簡單來說,基于LLM的
    的頭像 發表于 04-03 12:09 ?1611次閱讀
    詳解 LLM <b class='flag-5'>推理模型</b>的現狀

    英偉達GTC25亮點:NVIDIA Dynamo開源庫加速并擴展AI推理模型

    DeepSeek-R1 上的吞吐量提高了 30 倍 NVIDIA 發布了開源推理軟件 NVIDIA Dynamo,旨在以高效率、低成本加速并擴展 AI 工廠AI
    的頭像 發表于 03-20 15:03 ?1232次閱讀