国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

終于有人把端側(cè)大模型說清楚了

穎脈Imgtec ? 2025-07-24 12:03 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

最近總聽到"端側(cè)大模型"這個詞,感覺很高大上,但到底是什么意思?和我們平時用的ChatGPT、DeepSeek各種大模型有什么區(qū)別?今天就來徹底搞清楚這件事。


1、為什么叫"端側(cè)"大模型?

在聊具體內(nèi)容之前,先解釋一下這個名字的由來。在計算機和通信領(lǐng)域,我們通常把整個系統(tǒng)分為幾個層次:

  • 云端(Cloud):遠(yuǎn)程的數(shù)據(jù)中心和服務(wù)器
  • 邊緣(Edge):靠近用戶的邊緣服務(wù)器和基站
  • 端側(cè)(Device/Client):用戶直接使用的終端設(shè)備

所以"端側(cè)大模型"這個名字,直接點出了它的核心特征:運行在終端設(shè)備上的大語言模型。在英文里,通常叫做"On-Device Large Language Model"或者"Edge AI Model"。為什么不叫"本地大模型"或者"離線大模型"?因為"端側(cè)"這個詞更準(zhǔn)確地描述了它在整個計算架構(gòu)中的位置,也暗示了它可能與邊緣和云端進(jìn)行協(xié)同工作,而不是完全孤立運行。


2、先說說什么是端側(cè)大模型

簡單來說,端側(cè)大模型就是能夠在你的手機電腦、汽車這些"端設(shè)備"上直接運行的大語言模型,不需要聯(lián)網(wǎng)到云端服務(wù)器。你想想平時用ChatGPT的場景:打開網(wǎng)頁或APP,輸入問題,等待幾秒鐘,然后得到回答。這個過程中,你的問題被發(fā)送到了OpenAI的服務(wù)器,在云端的大型GPU集群上處理,然后把結(jié)果傳回給你。而端側(cè)大模型呢?整個AI模型就"住"在你的設(shè)備里,不用聯(lián)網(wǎng),直接在本地處理你的問題。就像以前我們把軟件安裝在電腦上一樣,現(xiàn)在我們把AI"安裝"在設(shè)備上。


3、為什么突然火起來了?

云端模型的三大痛點1. 網(wǎng)絡(luò)依賴癥
沒有網(wǎng)絡(luò)就廢了,網(wǎng)絡(luò)不好就卡得要死。你在地下室、飛機上、山區(qū)里想用AI?抱歉,臣妾做不到。2. 隱私擔(dān)憂
你的聊天記錄、文檔內(nèi)容都要上傳到云端處理,萬一泄露怎么辦?特別是涉及商業(yè)機密、個人隱私的內(nèi)容,很多用戶心里都犯嘀咕。3. 個性化不足
云端模型要服務(wù)全球用戶,很難針對你個人的使用習(xí)慣和需求進(jìn)行深度定制。就像一個大眾化的產(chǎn)品,很難滿足每個人的個性化需求。硬件技術(shù)的突飛猛進(jìn)另一方面,我們的設(shè)備越來越強大了:

  • 手機芯片的AI算力提升了幾十倍
  • 內(nèi)存容量越來越大
  • 專門的AI芯片開始普及

這就給端側(cè)部署大模型提供了可能性。


4、端側(cè)大模型的"超能力"

端側(cè)大模型確實有著令人興奮的"超能力"。首先是閃電般的響應(yīng)速度,不用等網(wǎng)絡(luò)傳輸,本地直接處理,響應(yīng)速度可以快到毫秒級,想象一下你說話的同時AI就開始實時翻譯的絲滑體驗。其次是天然的隱私保護(hù),數(shù)據(jù)不出設(shè)備,你的聊天記錄、工作文檔都在本地處理,不用擔(dān)心被窺探。更重要的是個性化定制能力,可以根據(jù)你的使用習(xí)慣、語言偏好、專業(yè)領(lǐng)域進(jìn)行定制訓(xùn)練,真正成為專屬AI助手。最后還有永不掉線的優(yōu)勢,沒網(wǎng)也能用,飛機上、地下室、野外探險,隨時隨地都是你的AI伙伴。但現(xiàn)實往往很骨感,端側(cè)大模型聽起來美好,實際部署起來卻困難重重。最大的攔路虎是資源限制問題——大語言模型動輒幾十GB、上百GB,參數(shù)量達(dá)到幾百億甚至上千億,而我們的手機內(nèi)存才8GB、12GB,這就像要把一頭大象裝進(jìn)冰箱。為了在設(shè)備上運行,必須對模型進(jìn)行"瘦身",但瘦身就意味著能力下降,如何在保持性能的同時大幅減小模型體積是個巨大的技術(shù)難題。更復(fù)雜的是設(shè)備碎片化問題,不同廠商的硬件架構(gòu)千差萬別——iPhone用A系列芯片,Android手機有驍龍、麒麟、天璣等各種芯片,還有各種不同的AI專用芯片,同一個模型要適配這么多種硬件,難度可想而知。


5、技術(shù)大神們是怎么解決的?

1. 模型壓縮三板斧

  • 網(wǎng)絡(luò)剪枝

就像修剪花園一樣,把模型中不重要的連接"剪掉"。比如一個神經(jīng)網(wǎng)絡(luò)有1萬個連接,經(jīng)過剪枝后可能只保留3000個重要的連接,模型小了很多,但效果基本不變。

  • 低精度量化

原來用32位浮點數(shù)存儲參數(shù),現(xiàn)在改用8位甚至4位整數(shù)。就像照片從高清改成標(biāo)清,文件小了很多,但核心內(nèi)容還在。

  • 知識蒸餾

讓一個小模型去"學(xué)習(xí)"大模型的精華。就像武俠小說里的傳功,大師把內(nèi)力傳給徒弟,雖然徒弟的"硬件"不如師父,但能學(xué)到精髓。2. 運行時優(yōu)化黑科技

  • KV-Cache優(yōu)化

這是個很技術(shù)的概念,簡單說就是把之前計算過的結(jié)果緩存起來,避免重復(fù)計算。就像你做數(shù)學(xué)題時,把中間步驟的結(jié)果記下來,后面直接用,不用重新算。

  • 混合專家模型(MoE)

不是所有的"專家"都同時工作,而是根據(jù)問題類型激活對應(yīng)的專家。就像醫(yī)院里,感冒了找內(nèi)科醫(yī)生,骨折了找骨科醫(yī)生,不需要所有科室的醫(yī)生都出動。3. 端邊云協(xié)同大招既然單個設(shè)備能力有限,那就多個設(shè)備協(xié)同作戰(zhàn):

  • 模型拆分

把大模型拆成幾部分,一部分在手機上,一部分在邊緣服務(wù)器上,一部分在云端。就像流水線作業(yè),每個環(huán)節(jié)負(fù)責(zé)自己擅長的部分。

  • 大小模型配合

平時用小模型處理簡單問題,遇到復(fù)雜問題再調(diào)用云端大模型。就像平時用計算器算數(shù),復(fù)雜的統(tǒng)計分析才用電腦。


6、誰在這個賽道上狂奔?

  • 手機廠商最積極

蘋果、華為、小米等都在自己的芯片中加入AI處理單元,推出各種本地AI功能:

  • 芯片廠商在狂飆

算能、高通英特爾都在推出專門的AI芯片,算力越來越強,功耗越來越低。

  • AI公司也沒閑著

Meta推出了Llama系列,專門優(yōu)化了移動端版本;谷歌的Gemini Nano可以在手機上運行;國內(nèi)的百度、阿里、字節(jié)、面壁智能等也都有相應(yīng)布局。


7、現(xiàn)在能用到哪些端側(cè)AI?

雖然技術(shù)還在發(fā)展中,但已經(jīng)有不少產(chǎn)品可以體驗了:手機上的AI助手

  • iPhone的Siri,語音識別和簡單對話已經(jīng)本地化
  • 華為手機的小藝,支持本地語音翻譯
  • 三星的Bixby,本地圖像識別和語音控制

專業(yè)工具

  • 一些代碼編輯器開始集成本地AI代碼補全
  • 本地運行的AI寫作助手
  • 離線的AI翻譯工具

開源項目

  • Ollama:可以在個人電腦上運行各種開源大模型
  • llama.cpp:專門優(yōu)化的本地運行框架
  • MLX:蘋果推出的機器學(xué)習(xí)框架

8、還有哪些挑戰(zhàn)需要解決

  • 技術(shù)挑戰(zhàn)

1. 模型壓縮的天花板目前的壓縮技術(shù)雖然能顯著減小模型大小,但壓縮比達(dá)到一定程度后,效果下降會很明顯。如何突破這個天花板?2. 硬件適配的復(fù)雜性不同設(shè)備的硬件差異巨大,如何讓同一個模型在各種設(shè)備上都能高效運行?3. 實時學(xué)習(xí)和更新如何讓端側(cè)模型能夠持續(xù)學(xué)習(xí)用戶的偏好,同時保持模型的穩(wěn)定性?

  • 商業(yè)挑戰(zhàn)

1. 成本控制端側(cè)部署需要更強大的硬件,會推高設(shè)備成本,消費者買賬嗎?2. 生態(tài)建設(shè)需要操作系統(tǒng)、芯片廠商、應(yīng)用開發(fā)者共同參與,如何構(gòu)建完整的生態(tài)?3. 標(biāo)準(zhǔn)化行業(yè)需要統(tǒng)一的標(biāo)準(zhǔn)和規(guī)范,避免各家自立門戶。


9、寫在最后

端側(cè)大模型不是要完全取代云端AI,而是要構(gòu)建一個更加靈活、高效、安全的AI服務(wù)體系。就像當(dāng)年云計算沒有完全取代本地計算一樣,未來的AI世界應(yīng)該是端云并存、各司其職的。對于普通用戶來說,最直觀的變化就是:AI會變得更快、更私密、更個性化。你的手機會真正成為你的智能助手,不再是一個需要聯(lián)網(wǎng)才能變聰明的"傻瓜"。對于開發(fā)者來說,這是一個全新的機遇。移動互聯(lián)網(wǎng)時代誕生了無數(shù)優(yōu)秀的APP,端側(cè)AI時代同樣會催生新一代的應(yīng)用和服務(wù)。對于整個行業(yè)來說,這是AI技術(shù)從"集中式"向"分布式"的重要轉(zhuǎn)變,將推動AI技術(shù)的進(jìn)一步普及和深入。技術(shù)的發(fā)展總是螺旋上升的,端側(cè)大模型現(xiàn)在還在早期階段,但發(fā)展速度非常快。也許用不了幾年,我們就會習(xí)慣于擁有一個隨身攜帶、專屬定制、永不掉線的AI伙伴。那時候回頭看今天,可能會覺得現(xiàn)在的AI應(yīng)用還太原始。但這就是技術(shù)進(jìn)步的魅力所在——每一天的積累,都在為未來的突破做準(zhǔn)備。

文章來源于邊緣計算社區(qū)

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39747

    瀏覽量

    301338
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    571

    瀏覽量

    11310
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3647

    瀏覽量

    5176
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    理想汽車發(fā)布側(cè)模型軟硬協(xié)同設(shè)計定律

    近日,理想汽車聯(lián)合國創(chuàng)決策智能技術(shù)研究所正式發(fā)布側(cè)模型“軟硬協(xié)同設(shè)計定律”,提出面向車載與邊緣場景的大模型軟硬一體化設(shè)計方法,為下一代智能駕駛芯片的架構(gòu)定義提供
    的頭像 發(fā)表于 03-04 16:00 ?565次閱讀
    理想汽車發(fā)布<b class='flag-5'>端</b><b class='flag-5'>側(cè)</b>大<b class='flag-5'>模型</b>軟硬協(xié)同設(shè)計定律

    晶晨攜手谷歌,助力側(cè)模型Gemini的硬件落地

    AI)相關(guān)產(chǎn)品的核心芯片供應(yīng)商,雙方在人工智能領(lǐng)域緊密協(xié)作,聚焦于谷歌側(cè)模型Gemini的硬件生態(tài)落地。 ? 公司積極推出適配Gemini的智能音箱、智能可視化門鈴、室內(nèi)及室外智能攝像頭等多款新產(chǎn)品。這些產(chǎn)品的問世,有力地
    的頭像 發(fā)表于 01-29 10:44 ?1281次閱讀

    側(cè)模型上車:從“語音助手”到“車內(nèi) AI 智能體”的躍遷革命

    生活空間”的可能性。當(dāng)7B級大模型在車規(guī)級芯片上流暢運行,當(dāng)多模態(tài)交互(語音+視覺+傳感)成為標(biāo)配,車載助手已從“被動響應(yīng)”升級為“主動決策”,成為車內(nèi)真正的“數(shù)字大腦”。這場由側(cè)模型
    的頭像 發(fā)表于 01-13 09:10 ?466次閱讀

    引領(lǐng)側(cè)模型落地!Firefly-RK182X 開發(fā)套件上線發(fā)售

    海量參數(shù)的大模型給AI行業(yè)帶來顛覆性的體驗,然而在側(cè)設(shè)備中,由于有限的DRAM帶寬、硬件算力、存儲容量等瓶頸,讓
    的頭像 發(fā)表于 11-26 16:33 ?2262次閱讀
    引領(lǐng)<b class='flag-5'>端</b><b class='flag-5'>側(cè)</b>大<b class='flag-5'>模型</b>落地!Firefly-RK182X 開發(fā)套件上線發(fā)售

    超高頻(UHF)多標(biāo)簽RFID讀取器(面向項目落地的深度指南)

    超高頻(UHF)多標(biāo)簽RFID讀取器:一次能讀多張,怎么做到?怎么用好?(面向工程與落地的深度指南)這篇文章“原理、設(shè)備要點、部署細(xì)節(jié)”都說清楚,既有技術(shù)維度,也有落地建議。
    的頭像 發(fā)表于 11-01 11:37 ?558次閱讀
    超高頻(UHF)多標(biāo)簽RFID讀取器(面向項目落地的深度指南)

    廣和通發(fā)布側(cè)情感對話大模型FiboEmo-LLM

    9月,廣和通正式發(fā)布自主研發(fā)的側(cè)情感對話大模型FiboEmo-LLM。該模型專注于情感計算與自然語言交互融合,致力于為AI玩具、智能陪伴設(shè)備等終端場景提供“情感理解-情感響應(yīng)”一體化
    的頭像 發(fā)表于 09-26 13:37 ?1895次閱讀

    華為CANN與智譜GLM側(cè)模型完成適配

    已于7月28日正式開源其新一代基座模型GLM-4.5,其GLM側(cè)模型已完成與CANN的適配。這標(biāo)志著國產(chǎn)大模型與計算架構(gòu)在
    的頭像 發(fā)表于 08-11 11:00 ?2560次閱讀

    廣和通發(fā)布自研側(cè)語音識別大模型FiboASR

    7月,全球領(lǐng)先的無線通信模組及AI解決方案提供商廣和通,發(fā)布其自主研發(fā)的語音識別大模型FiboASR。該模型專為側(cè)設(shè)備上面臨的面對面實時對話及多人會議場景深度優(yōu)化,在低延遲語音交互、
    的頭像 發(fā)表于 08-04 11:43 ?1587次閱讀

    側(cè)模型迎來“輕”革命!移遠(yuǎn)通信 × RWKV 打造“輕量AI大腦”

    7月27日,移遠(yuǎn)通信宣布與RWKV公司建立全面合作關(guān)系,雙方將依托移遠(yuǎn)的算力平臺,優(yōu)化并支持RWKV最新模型架構(gòu),共同推動大模型側(cè)設(shè)備的低資源占用部署。此次合作成果于2025世界人
    的頭像 發(fā)表于 07-27 19:02 ?988次閱讀
    <b class='flag-5'>端</b><b class='flag-5'>側(cè)</b>大<b class='flag-5'>模型</b>迎來“輕”革命!移遠(yuǎn)通信 × RWKV 打造“輕量AI大腦”

    面壁小鋼炮模型MiniCPM4.0發(fā)布,側(cè)智能更進(jìn)一步

    版和0.5B最強小小鋼炮。 ? ? 李大海表示,面壁智能是第一個全模態(tài)模型帶到側(cè)的公司。面壁智能小鋼炮,旨在
    的頭像 發(fā)表于 06-08 08:18 ?7129次閱讀
    面壁小鋼炮<b class='flag-5'>模型</b>MiniCPM4.0發(fā)布,<b class='flag-5'>端</b><b class='flag-5'>側(cè)</b>智能更進(jìn)一步

    德賽西威側(cè)模型重塑智能座艙體驗

    智能汽車產(chǎn)業(yè)發(fā)展正從規(guī)模擴張向質(zhì)量躍升轉(zhuǎn)變,其中大模型驅(qū)動的智能化升級將成為產(chǎn)業(yè)突破的核心引擎。在日前召開的2025上海車展國際汽車關(guān)鍵技術(shù)論壇上,德賽西威技術(shù)中心人工智能實驗室專家張書赫博士以《側(cè)智能·重塑體驗》為題,分享
    的頭像 發(fā)表于 05-15 09:13 ?1782次閱讀

    德賽西威與面壁智能發(fā)布側(cè)模型語音交互方案

    日前,全球領(lǐng)先的移動出行科技公司德賽西威與側(cè)模型技術(shù)領(lǐng)軍企業(yè)面壁智能共同發(fā)布業(yè)界首個基于高通座艙平臺(SA8255P,簡稱8255)的側(cè)
    的頭像 發(fā)表于 05-14 17:40 ?1288次閱讀

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓側(cè)AI模型接入得心應(yīng)手

    ,聯(lián)發(fā)科帶來了全面升級的天璣AI開發(fā)套件2.0,在模型庫規(guī)模、架構(gòu)開放程度、前沿側(cè)AI技術(shù)支持和側(cè)LoRA訓(xùn)練落地等方面均迎來全面躍遷,
    發(fā)表于 04-13 19:52

    AI大模型側(cè)部署正當(dāng)時:移遠(yuǎn)端側(cè)AI大模型解決方案,激活場景智能新范式

    在AI技術(shù)飛速發(fā)展的當(dāng)下,AI大模型的應(yīng)用正從云端向側(cè)加速滲透。 作為全球領(lǐng)先的物聯(lián)網(wǎng)整體解決方案供應(yīng)商,移遠(yuǎn)通信憑借深厚的技術(shù)積累與前瞻性的戰(zhàn)略布局,在AI大模型
    發(fā)表于 03-27 11:26 ?566次閱讀
    AI大<b class='flag-5'>模型</b><b class='flag-5'>端</b>側(cè)部署正當(dāng)時:移遠(yuǎn)端<b class='flag-5'>側(cè)</b>AI大<b class='flag-5'>模型</b>解決方案,激活場景智能新范式

    AI大模型側(cè)部署正當(dāng)時:移遠(yuǎn)端側(cè)AI大模型解決方案,激活場景智能新范式

    在AI技術(shù)飛速發(fā)展的當(dāng)下,AI大模型的應(yīng)用正從云端向側(cè)加速滲透。作為全球領(lǐng)先的物聯(lián)網(wǎng)整體解決方案供應(yīng)商,移遠(yuǎn)通信憑借深厚的技術(shù)積累與前瞻性的戰(zhàn)略布局,在AI大模型
    的頭像 發(fā)表于 03-26 19:05 ?1253次閱讀
    AI大<b class='flag-5'>模型</b><b class='flag-5'>端</b>側(cè)部署正當(dāng)時:移遠(yuǎn)端<b class='flag-5'>側(cè)</b>AI大<b class='flag-5'>模型</b>解決方案,激活場景智能新范式