国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

從零復現,全面開源:360 Light-R1-14B/7B帶來端側AI平權時刻

腦極體 ? 來源:腦極體 ? 作者:腦極體 ? 2025-03-16 10:47 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

wKgZO2fWO8WAYC_UAAogto1jFHY680.jpg

性能領先、開源普惠、國產易獲取的三重勢能,造就了年初DeepSeek的技術平權狂熱,掀起AI普惠浪潮。

然而,當很多人想在端側部署DeepSeek模型時,卻遭遇了挑戰:部署滿血版大模型需數萬元硬件投入,退而求其次選擇蒸餾版14B版本,又會出現性能斷崖式下跌與響應延遲。

就在AI用戶陷入“高成本部署”與“低質量妥協”的兩難困境時,端側AI的破局時刻,悄悄被360打開了。

近期,360智腦團隊發布了最強14B推理模型Light-R1-14B-DS,是業界首次在14B模型上復現強化學習效果。數學能力上,表現超過
DeepSeek-R1-Distill-Llama-70B和DeepSeek-R1-Distill-Qwen-32B。

wKgZPGfWO8WAVNmyAAEHGSxz9PY855.jpg

盡管只訓練了MATH數據,但在GPQA科學常識評測中,7B/14B雙版本均超越對標產品,展現出“小參數大智慧”的泛化能力。

此外,配合360的全面開源策略(模型/數據/代碼/技術報告全開放),這場端側AI平權運動,意味著14B模型能在手機端流暢運行,意味著企業無需天價算力即可部署專業級AI。

AI端側民主化的風暴眼,正在醞釀之中。

wKgZO2fWO8aAP4ByAAJ7Asry2bk783.jpg

我們第一時間研讀了360放出的技術報告,發現端側AI的技術拐點已經出現。360開源的Light-R1-14B-DS創造了三項行業紀錄:

一是能力復現。Light-R1-14B-DS首次在數學能力上,用14B 模型復現了強化學習效果,通過多階段課程學習SFT強化學習,Light-R1-14B-DS的表現超過
DeepSeek-R1-Distill-Llama-70B和DeepSeek-R1-Distill-Qwen-32B,是目前最優的14B模型,這驗證了RL強化學習策略的有效性,RL對端側模型訓練的收益很大,仍有進一步挖掘潛力。

wKgZPGfWO8aALQOoAALWEtEOMxo029.jpg

(Light-R1 訓練流程)

二是效率革命。Light-R1-14B-DS 經過長思維鏈強化學習后訓練,在AIME 24和25上分別取得了74.0和60.2的成績,數學部分表現超越DeepSeek的70B(72.6分)和32B(54.9分)蒸餾模型,取得了非常顯著的提升,這標志著推理能耗進一步降低。另一版本的Light-R1-7B-DS,無需量化即可端側部署。此次探索,在低成本復現 DeepSeek-R1方面邁出了重要一步。

三是泛化能力增強。Light-R1-14B-DS在科學常識評測GPQA上漲,打破了模型“災難性遺忘”的魔咒,具有較好的泛化性,開辟模型優化新路徑。

wKgZO2fWO8eAZ7PBAABk1prKIxE725.jpg

最強14B端側推理模型,撕開了DeepSeek 70B的性能封鎖線,端側AI迎來了規模化普及的拐點。不過,在AI與大眾之間,還差一個開源。

wKgZPGfWO8eAc6bNAAI7XfjjE4w513.jpg

如果僅有技術突破,但沒有開源機制,那么端側推理模型再好,也無法被大眾輕松獲得、低成本用起來。

此次,360采取了全棧式的開源策略——模型權重、22萬條數學數據集、RL訓練代碼、技術報告等,都悉數公開。這種開源深度,遠遠超過了常規模型權重開放。

也就是說,中小團隊僅需極少算力,就能從數據清洗到強化學習全鏈路復現,完成端側AI的后訓練與部署。

端側AI的民主化,高度依賴于科技企業的開源策略,為什么說360此次開放端側推理模型很重要?

對企業來說,傳統端側AI部署,會面臨閉源模型高昂的授權費用(如OpenAI API調用成本)與硬件適配的邊際成本(需定制化芯片或服務器),成本難以承受。此前openai也發布過蒸餾版o1-mini,但高昂的訂閱費依然讓大量開發者望而卻步。此外,閉源模型存在不可解釋性風險,醫療、法律等行業因合規要求無法接受“輸入-輸出”不透明的AI決策。因此,Light-R1-14B-DS這樣低成本、全開源的國產端側推理模型,有望打消企業對AI的顧慮,輕松邁入智能化。

對個人來講,云端模型需要上傳數據,這會引發隱私泄露的顧慮。而在端側離線運行大模型,又對算力/內存有更高的要求,傳統端側AI需要旗艦級設備,買不起旗艦機,就用不到好AI,這形成了一種AI時代的“設備歧視”。

360開源最強14B端側模型,讓端側AI能力不再是少數機型的特權,也可以下沉到普惠機型上,為大眾所用。而用戶規模的擴大,也會推動AI應用及大模型產品的增長。

由此看到,360開源策略所帶來的技術民主化,可以激活AI的長尾需求,加速AI普惠的到來。

wKgZO2fWO8mALUrHAAKWDw3aeEE283.jpg

終端設備,是用好AI的載體。推理模型下沉到端側,應用空間也十分廣闊,打開了端側AI的無限想象空間。

預測一下,目前這兩個最強端側14B/7B推理模型,可能會首先落地在商業價值高的場景,然后一步步滲透進各行業。

首當其沖的,就是消費電子領域。智能手機、手表、平板、PC、眼鏡等終端設備,近兩年都在加速AI化。

但此前AI化有兩種方案:一是純端側,保證本地隱私安全,但內存要求高,功耗大;另一種是端云結合,部分任務上云處理。Light-R1-7B-DS無需量化即可部署于終端設備(如手機、IoT設備),標志著消費級硬件也能運行復雜AI任務。對比傳統需要32B以上參數的端側模型,其7B規模大幅降低內存占用和能耗。為AI終端帶來了更大的創新空間,比如在手機本地運行復雜數學輔導、法律文書解析等任務,解決隱私和延遲痛點。

360的技術突破與全棧開源,可以為消費電子領域的AI探索帶來非常有益的借鑒。

下一個就是重點行業、垂直領域。金融、政務、醫療、法律等數字化基礎較好的行業,積極擁抱AI,又希望在本地化運行專業級AI,避免敏感數據上傳云端,這就需要專有模型+后訓練,最強端側14B/7B推理模型可以大幅降低端側專有模型的訓練、推理等硬件門檻,加速行業智能化探索。

更進一步,傳統行業壁壘也將被端側普惠AI撕開。比如智慧城市治理,通過部署端側AI的邊緣智能計算,可以極大減少智能化的建設和升級運維成本;農業智能化,搭載14B模型的農業無人機,路線自動避障、精準識別地面等能力,都會隨著推理能力的增強而大幅提升。

通過端側AI的普惠路線圖,來進行推演,不難看到,360的技術突破與開源策略,一定會吸引大量行業開發者或個人開發者前來試用,與豐富的場景相結合,催生大量智能化的長尾應用。

也就是說,通過開源輕量級推理模型,360有望規避AI六小強在千億參數級的競爭。基于開源開放的技術公信力,構建開發者生態護城河。從這個角度看,360掀起的端側AI颶風,也將卷出一個大模型競爭的新格局。

端側推理模型的平權時刻已到,萬億級邊緣智能市場正蓄勢待發、乘風遠航。

wKgZPGfWO8qAFVSvAAHtprMJuTM793.jpg

審核編輯 黃宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    91

    文章

    39755

    瀏覽量

    301346
  • 開源
    +關注

    關注

    3

    文章

    4203

    瀏覽量

    46120
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    太強了!AI PC搭載70B大模型,算力狂飆,內存開掛

    DeepSeek-R1不同模型。相對來說,DeepSeek-R1 70B大模型或許是日常AI功能的頂格需求,它也是當前高性能AI PC的著力
    的頭像 發表于 03-24 08:52 ?3586次閱讀
    太強了!<b class='flag-5'>AI</b> PC搭載70<b class='flag-5'>B</b>大模型,算力狂飆,內存開掛

    大模型上車:“語音助手”到“車內 AI 智能體”的躍遷革命

    生活空間”的可能性。當7B級大模型在車規級芯片上流暢運行,當多模態交互(語音+視覺+傳感)成為標配,車載助手已從“被動響應”升級為“主動決策”,成為車內真正的“數字大腦”。這場由大模型驅動的變革,正推動主機廠將“支持
    的頭像 發表于 01-13 09:10 ?467次閱讀

    云端到邊緣:聯發科MT8371/MT8391平臺實現7B大模型本地部署

    的第八代NPU提供高達7/9 TOPS算力,配備16GB大容量LPDDR5高速內存,支持Transformer/CNN硬件加速,支持本地部署7B大語言模型,顯著提升生成式AI任務(如圖像合成、文本
    發表于 12-15 16:32

    基于合眾恒躍rk3576?開發板deepseek-r1-1.5b/7b 部署指南

    ? 核心結論:部署流程分為?5?大核心步驟,依次為基礎環境安裝、模型下載、模型格式轉換、部署程序編譯、開發板運行測試,1.5b?模型適配?4+32G?開發板,7b?模型需?8+64G?版,內存不足
    的頭像 發表于 12-09 07:08 ?457次閱讀
    基于合眾恒躍rk3576?開發板deepseek-<b class='flag-5'>r1-1.5b</b>/<b class='flag-5'>7b</b> 部署指南

    此芯科技發布“合一”AI加速計劃,賦能邊緣與AI創新

    產品組合,覆蓋1.5B至32B參數規模的AI模型推理需求,滿足工業、消費電子、智能終端等多
    的頭像 發表于 09-15 11:53 ?2011次閱讀
    此芯科技發布“合一”<b class='flag-5'>AI</b>加速計劃,賦能邊緣與<b class='flag-5'>端</b><b class='flag-5'>側</b><b class='flag-5'>AI</b>創新

    Arm率先適配騰訊混元開源模型,助力AI創新開發

    本周初,騰訊混元宣布開源四款小尺寸模型(參數分別為 0.5B、1.8B、4B7B),可無縫運行于消費級顯卡上。作為全球應用范圍最為廣泛的計
    的頭像 發表于 08-08 09:16 ?1383次閱讀
    Arm率先適配騰訊混元<b class='flag-5'>開源</b>模型,助力<b class='flag-5'>端</b><b class='flag-5'>側</b><b class='flag-5'>AI</b>創新開發

    華為宣布開源盤古7B稠密和72B混合專家模型

    關鍵一步,為全球開發者、企業及研究人員提供了強大的技術支撐。 ? 華為此次開源行動涵蓋三大核心板塊:盤古Pro MoE 72B模型權重與基礎推理代碼已率先上線開源平臺;基于昇騰的超大規模MoE模型推理代碼同步開放;盤古
    的頭像 發表于 07-06 05:51 ?7404次閱讀

    華為正式開源盤古7B稠密和72B混合專家模型

    關鍵舉措,推動大模型技術的研究與創新發展,加速推進人工智能在千行百業的應用與價值創造。 盤古Pro MoE 72B模型權重、基礎推理代碼,已正式上線開源平臺。 基于昇騰的超大規模MoE模型推理代碼,已正式上線開源平臺。 盤古
    的頭像 發表于 06-30 11:19 ?1329次閱讀

    帶增益的 RX 分集 FEM(B26、B8、B20、B1/4、B3 和 B7) skyworksinc

    電子發燒友網為你提供()帶增益的 RX 分集 FEM(B26、B8、B20、B1/4、B3 和 B7
    發表于 06-27 18:31
    帶增益的 RX 分集 FEM(<b class='flag-5'>B</b>26、<b class='flag-5'>B</b>8、<b class='flag-5'>B</b>20、<b class='flag-5'>B1</b>/4、<b class='flag-5'>B</b>3 和 <b class='flag-5'>B7</b>) skyworksinc

    帶增益的 RX 分集 FEM(B3、B39、B1B40、B41 和 B7) skyworksinc

    電子發燒友網為你提供()帶增益的 RX 分集 FEM(B3、B39、B1B40、B41 和 B7
    發表于 06-19 18:30
    帶增益的 RX 分集 FEM(<b class='flag-5'>B</b>3、<b class='flag-5'>B</b>39、<b class='flag-5'>B1</b>、<b class='flag-5'>B</b>40、<b class='flag-5'>B</b>41 和 <b class='flag-5'>B7</b>) skyworksinc

    在阿里云PAI上快速部署NVIDIA Cosmos Reason-1模型

    NVIDIA 近期發布了 Cosmos Reason-17B 和 56B 兩款多模態大語言模型 (MLLM),它們經過了“物理 AI 監督微調”和“物理
    的頭像 發表于 06-04 13:43 ?956次閱讀

    【幸狐Omni3576邊緣計算套件試用體驗】CPU部署DeekSeek-R1模型(1B7B

    :7b 和前面類似的,可以通過 ollama 命令拉取 deepseek-r1:7b 模型,命令為: ollama pull deepseek-r1:
    發表于 04-21 00:39

    首創開源架構,天璣AI開發套件讓AI模型接入得心應手

    AI應用開發往往需要調用各種各樣的大模型能力,需要更豐富、類型更多的模型適配。為此,Gen-AI Model Hub全面擴容,模型
    發表于 04-13 19:52

    具有載波聚合的 RX 分集 FEM(B26、B8、B20、B1/4、B3 和 B7) skyworksinc

    電子發燒友網為你提供()具有載波聚合的 RX 分集 FEM(B26、B8、B20、B1/4、B3 和 B
    發表于 04-11 15:26
    具有載波聚合的 RX 分集 FEM(<b class='flag-5'>B</b>26、<b class='flag-5'>B</b>8、<b class='flag-5'>B</b>20、<b class='flag-5'>B1</b>/4、<b class='flag-5'>B</b>3 和 <b class='flag-5'>B7</b>) skyworksinc

    如何基于Android 14在i.MX95 EVK上運行Deepseek-R1-1.5B和性能

    本文檔總結了如何基于 Android 14 在 i.MX95 EVK 上運行 Deepseek-R1-1.5B 和性能。 1. Install Android 14 on i.MX95
    發表于 04-04 06:59