伦伦影院久久影视,天天操天天干天天射,ririsao久久精品一区 ,一本大道香蕉大久在红桃,999久久久免费精品国产色夜,色悠悠久久综合88,亚洲国产精品久久无套麻豆,亚洲香蕉毛片久久网站,一本一道久久综合狠狠老

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

不止手機!高通AI全面進擊,芯片到加速卡,萬衛星解讀關鍵布局

章鷹觀察 ? 來源:章鷹觀察 ? 作者:章鷹 ? 2026-03-30 10:37 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

個人智能體今年的演進出現哪些趨勢?在以OpenClaw(小龍蝦)大熱的當下,芯片廠商如何考慮智能體在終端的應用前景和機會?這些熱點問題在3月27日的CFMS MemoryS 2026 峰會上,來自高通公司AI產品技術中國區負責人萬衛星給出了前瞻的技術分析和AI全棧技術解決方案。

AI應用四大階段演進,端側AI部署面臨三大挑戰

萬衛星指出,AI在行業應用經歷三個重要階段,從感知AI、生成式AI向智能體AI演進,未來將進入物理AI時代。

感知AI主要包括多媒體信號、語音信號的理解,對圖像的分類識別和智能降噪等傳統領域的用例;生成式AI的特點是,在基于大量數據預訓練的情況下,AI可以在有監督的情況下去解決一些具體的問題,比如說OpenAI的ChatGPT模型,以及文生圖模型等等。智能體AI與生成式AI的重要區別是,基本上可以在無監督的情況下,自主的去理解用戶意圖,進行行動和決策,幫我們解決稍微復雜的任務。第四階段物理AI,AI可以真正去理解我們的物理世界,根據真實物理世界的物理規定,對輸入進行反饋和輸出。這一技術還在早期應用階段。

目前行業關注的第二階段和第三階段,我們看到的明顯趨勢是:能夠在端側運行的生成式AI模型,它的智能正在快速的提升。首先,端側設備能夠支持的模型參數量正在變得越來越大,比如在手機上我們已經可以運行10億到100億參數級別的大模型,在PC上可以運行130億到200億參數量的大模型。在車上,我們可以支持的模型參數量可能會更大,達到200~600億的級別。

在更小型的設備上,比如AR眼鏡和低功耗設備,我們也實現了讓參數規模在10億-40億之間的模型完全在端側運行。萬衛星強調,相較于云端大模型,端側模型的參數量仍然相對較小,但行業內的各種技術正在推動端側大模型支持體量的提升,比如內存帶寬提升,量化位寬技術的優化可以進一步壓縮模型尺寸,這都意味著終端設備可以承載更豐富的模型。

尤其值得關注的是,高通已經將具備推理能力的大模型部署到端側。而且在端側大模型對應的各種的各類場景中,其支持的上下文長度也在提升。3年前,端側上下文長度普遍僅限于1k-2k,2年前,大部分場景的上下文已經擴展到2k-4k;而2025年,高通在與合作伙伴的場景探索中,這個區間已提升到4k-8k。在一些特定場景中,甚至已經可以支持32k-128k的上下文長度。

在面對支持更多上下文的端側部署挑戰時,高通認為有三點:一、端側內存規模的限制。雖然我們有很多技術手段能夠壓縮模型體積,但有限的內存終究會對可運行的模型大小設置上限,而模型大小的上限也意味著端側AI能力的上限。二、內存帶寬有限制,有限的帶寬會影響大模型輸出token(詞元)的速度,進而影響到具體場景里面的用戶體驗。三、終端設備部署大模型,能效比和散熱的問題不可避免。在多終端設備中,能效非常重要。我們要避免AI推理在運行時觸發溫控限制,避免引起設備發熱。

智能體演進三大趨勢,從端側AI芯片到AI推理芯片全面覆蓋

萬衛星指出,個人AI將始于端側,我們正在邁向以AI和用戶為中心的多終端體驗,終端側智能體將能夠提供更低時延、更好的個性化以及持續無感的用戶體驗。

當下,智能體從端側智能體、智能體專業化、高度個性化和多模態為主要發展趨勢,終端側智能體不再是以前那種簡單的對話類語音助手,而是變成能夠充分理解用戶意圖、理解上下文、理解用戶感知信息的真正懂你的AI助手。

在過去,個人AI更多是以手機為中心,耳機、眼鏡、手表等其他設備是作為附屬與手機連接。未來,我們正在邁向以AI和用戶為中心的多終端體驗。也就是說AI不再綁定某一個具體的設備,如果是通過個人AI或者智能體去理解用戶的意圖,再去執行用戶的任務。個人AI通過混合架構在終端側進行部署。在終端側、本地邊緣、網絡邊緣和中央云協同工作。

高通在去年也發布了多款可以提供充分算力去支撐個人AI場景的產品,包括第五代驍龍8至尊版移動平臺、驍龍X2 Elite計算平臺等。在數據中心側,高通在MWC2026上正式發布了基于Qualcomm? AI200和AI250芯片的加速卡和機架系統。我們以行業領先的總體擁有成本(TCO)為高速數據中心生成式AI推理提供機架級性能與卓越內存容量。

在演講最后,萬衛星強調:“高通AI全棧能力,從手機、耳機、可穿戴設備、PC等消費電子產品,再到汽車、機器人,甚至到下一代的數據中心,我們都在用統一的AI架構去賦能所有的產品,核心就在于我們能夠通過統一的技術路線,提供高性能、高能效的軟硬件技術底座,讓高通的AI能力得以從單個產品或者單顆芯片擴展成為規模化的跨終端、跨場景的平臺級能力。”

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 高通
    +關注

    關注

    78

    文章

    7742

    瀏覽量

    200090
  • 智能體
    +關注

    關注

    1

    文章

    518

    瀏覽量

    11625
  • AI芯片
    +關注

    關注

    17

    文章

    2138

    瀏覽量

    36823
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    FPGA硬件加速卡設計原理圖:1-基于Xilinx XCKU115的半PCIe x8 硬件加速卡 PCIe半 XCKU115-3-FLVF1924-E芯片

    FPGA硬件加速, PCIe半, XCKU115, 光纖采集, 信號計算板, 硬件加速卡
    的頭像 發表于 02-12 09:52 ?445次閱讀
    FPGA硬件<b class='flag-5'>加速卡</b>設計原理圖:1-基于Xilinx XCKU115的半<b class='flag-5'>高</b>PCIe x8 硬件<b class='flag-5'>加速卡</b> PCIe半<b class='flag-5'>高</b> XCKU115-3-FLVF1924-E<b class='flag-5'>芯片</b>

    推理<2ms!Ultralytics最新YOLO26+樹莓派+國產AI加速卡實現 500 FPS 端側 AI 性能巔峰!

    關鍵詞:YOLO26、樹莓派、國產AI加速卡、M5Stack、邊緣AI速度快、功耗低、純國產,樹莓派終于有了真正實用的AI
    的頭像 發表于 01-30 16:11 ?4477次閱讀
    推理<2ms!Ultralytics最新YOLO26+樹莓派+國產<b class='flag-5'>AI</b><b class='flag-5'>加速卡</b>實現 500 FPS 端側 <b class='flag-5'>AI</b> 性能巔峰!

    新品 | LLM-8850 Kit,高性能AI加速卡套件 DinMeter v1.1,1/32DIN標準嵌入式開發板

    LLM-8850KitLLM-8850Kit是一款面向邊緣AI與嵌入式計算場景的高性能AI加速卡套件,由LLM-8850CardAI加速卡與LLM-8850PiHat轉接板組成。核心
    的頭像 發表于 01-30 16:11 ?1232次閱讀
    新品 | LLM-8850 Kit,高性能<b class='flag-5'>AI</b><b class='flag-5'>加速卡</b>套件 DinMeter v1.1,1/32DIN標準嵌入式開發板

    高速信號處理設計方案:413-基于雙XCVU9P+C6678的100G光纖加速卡

    C6678, XCVU9P, ZU19EG開發板,, 高速信號處理, 光纖加速卡, XCVU9P光纖加速卡
    的頭像 發表于 01-08 16:06 ?355次閱讀
    高速信號處理設計方案:413-基于雙XCVU9P+C6678的100G光纖<b class='flag-5'>加速卡</b>

    昆侖芯R200 AI加速卡技術規格解析

    昆侖芯R200加速卡基于7nm XPU-R架構,在150W功耗下提供256 TOPS INT8算力,側重高性能推理。配備最高32GB GDDR6內存(512GB/s帶寬)及108路視頻解碼能力,支持
    的頭像 發表于 12-14 13:12 ?1691次閱讀
    昆侖芯R200 <b class='flag-5'>AI</b><b class='flag-5'>加速卡</b>技術規格解析

    邁向云端算力巔峰:昆侖芯K200 AI加速卡全面解讀

    昆侖芯K200作為云端AI加速卡,在K100架構基礎上全面升級。其INT8算力達256 TOPS,配備16GB HBM內存與512GB/s帶寬,專為千億參數大模型訓練與并發推理優化。
    的頭像 發表于 12-14 11:17 ?2058次閱讀
    邁向云端算力巔峰:昆侖芯K200 <b class='flag-5'>AI</b><b class='flag-5'>加速卡</b><b class='flag-5'>全面</b><b class='flag-5'>解讀</b>

    算力密度翻倍!江原D20加速卡發布,一雙芯重構AI推理標桿

    關鍵技術瓶頸。 ? 在此背景下,江原科技推出采用自研AI芯片AI加速卡江原D10,并在今年5月實現量產交付。在大算力
    的頭像 發表于 11-14 08:21 ?1w次閱讀
    算力密度翻倍!江原D20<b class='flag-5'>加速卡</b>發布,一<b class='flag-5'>卡</b>雙芯重構<b class='flag-5'>AI</b>推理標桿

    AI賦能6G與衛星通信:開啟智能天網新時代

    學習,AI可以智能識別和糾正信號錯誤。在2024年歐洲衛星通信展上,展示的AI信號處理系統使衛星通信的誤碼率從0.01%降至0.0001%,相當于每1000
    發表于 10-11 16:01

    虛擬電廠加速卡不是噱頭!點規模VPP的性能分水嶺

    。 ? 此時僅靠邊緣MPU/CPU的通用算力,可能無法及時處理數據清洗、異常檢測、指令下發校驗等任務,而加速卡(如 GPU、FPGA 加速卡)的并行計算能力可快速消化數據洪流,避免“小包風暴”導致的系統頓。 ? 虛擬電廠對AG
    的頭像 發表于 10-10 08:59 ?2653次閱讀

    新品 | LLM-8850 Card, AX8850邊緣設備AI加速卡

    LLM?8850?Card是一款面向邊緣設備的M.2M-KEY2242?AI加速卡,把42?mm的袖珍體積與AxeraAX8850?SoC的24?TOPS?@?INT8算力結合起來,為
    的頭像 發表于 09-26 18:18 ?1212次閱讀
    新品 | LLM-8850 Card, AX8850邊緣設備<b class='flag-5'>AI</b><b class='flag-5'>加速卡</b>

    智算加速卡是什么東西?它真能在AI戰場上干掉GPU和TPU!

    隨著AI技術火得一塌糊涂,大家都在談"大模型"、"AI加速"、"智能計算",可真到了落地環節,算力才是硬通貨。你有沒有發現,現在越來越多的AI企業不光用GPU,也不怎么迷信TPU了?他
    的頭像 發表于 06-05 13:39 ?1749次閱讀
    智算<b class='flag-5'>加速卡</b>是什么東西?它真能在<b class='flag-5'>AI</b>戰場上干掉GPU和TPU!

    410?基于?XCVU9P+?C6678?的?100G?光纖的加速卡

    基于 XCVU9P+ C6678 的 100G 光纖的加速卡
    的頭像 發表于 05-08 08:32 ?790次閱讀
    410?基于?XCVU9P+?C6678?的?100G?光纖的<b class='flag-5'>加速卡</b>

    邊緣AI運算革新 DeepX DX-M1 AI加速卡結合Rockchip RK3588多路物體檢測解決方案

    DeepX 推出了一款革命性的產品 DeepX DX-M1 AI 推理加速卡 采用 PCIe Gen3 M.2 M-Key 接口,具備高達 25 TOPS 的卓越運算性能,以及準確度、低功耗、低溫
    的頭像 發表于 05-06 14:15 ?1249次閱讀
    邊緣<b class='flag-5'>AI</b>運算革新 DeepX DX-M1 <b class='flag-5'>AI</b><b class='flag-5'>加速卡</b>結合Rockchip RK3588多路物體檢測解決方案

    AI加速卡到底是個啥?一文讓小白也能看懂AI時代的“超級計算器”!

    你有沒有發現,現在人工智能(AI)越來越火了?聊天機器人能陪你談天說地,自動駕駛汽車能自己避障,手機拍照能自動美顏……這些背后都離不開一種神秘的技術——AI加速卡
    的頭像 發表于 04-28 14:46 ?5526次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>加速卡</b>到底是個啥?一文讓小白也能看懂<b class='flag-5'>AI</b>時代的“超級計算器”!

    寒武紀基于思元370芯片的MLU370-X8 智能加速卡產品手冊詳解

    MLU370-X8智能加速卡全面升級的數據中心訓推一體AI加速卡,基于寒武紀全新一代思元370芯片,接口為PCIe 4.0 X16,是全
    的頭像 發表于 04-24 17:57 ?5799次閱讀
    寒武紀基于思元370<b class='flag-5'>芯片</b>的MLU370-X8 智能<b class='flag-5'>加速卡</b>產品手冊詳解