国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

華為宣布開源盤古7B稠密和72B混合專家模型

Carol Li ? 來源:電子發燒友網 ? 作者:李彎彎 ? 2025-07-06 05:51 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發燒友網綜合報道 2025年6月30日,華為正式宣布開源盤古70億參數的稠密模型、盤古Pro MoE 720億參數的混合專家模型及基于昇騰的模型推理技術,此舉標志著華為在AI技術生態建設領域邁出關鍵一步,為全球開發者、企業及研究人員提供了強大的技術支撐。

華為此次開源行動涵蓋三大核心板塊:盤古Pro MoE 72B模型權重與基礎推理代碼已率先上線開源平臺;基于昇騰的超大規模MoE模型推理代碼同步開放;盤古7B稠密模型相關代碼將于近期完成上線。開發者可通過華為開源社區(https://gitcode.com/ascend-tribe)獲取完整技術資源,參與模型優化與生態共建。

作為70億參數的緊湊型模型,盤古7B在保持高效推理能力的同時,顯著降低部署門檻。其設計聚焦行業場景的快速適配,特別適合資源受限環境下的邊緣計算應用,為中小企業提供高性價比的AI解決方案。

該模型采用創新性的分組混合專家架構(MoGE),通過動態激活機制實現160億參數的高效利用。在SuperCLUE評測中,其以720億總參數量達到59分,與千億級模型持平,展現出“小參數量、大能力”的技術優勢。基于昇騰AI計算平臺的優化,單卡推理吞吐量達2300 Tokens/s,較傳統架構提升4倍,支持384個專家并行推理的超級節點架構,更將算力利用率(MFU)提升50%以上。

華為通過開源構建開放創新生態,吸引全球開發者參與模型優化。目前,盤古大模型已形成覆蓋數據管理、訓練、部署的全生命周期工具鏈,支持企業定制化開發。這種“基礎開源+商業增值”模式,既降低技術使用門檻,又通過商業發行版形成可持續的盈利路徑。

在金融、制造、醫療等領域,盤古模型的動態負載均衡技術使云端推理成本降低30%,支撐高并發實時作業場景。基于MoGE架構的輕量化引擎,可適配昇騰系列芯片,使百億級模型在邊緣設備高效運行,為工業互聯網、智能座艙等場景開辟新應用空間。

作為首個由亞洲企業主導的AI大模型開源項目,華為的實踐正在改變國際技術競爭格局。通過Apache-2.0協議運營,盤古模型已吸引科大訊飛、中國科學院等1300家機構采用,推動中國AI技術從跟跑向并跑乃至領跑轉變。

此次開源行動,是華為“把復雜留給自己,把簡單留給客戶”技術理念的生動實踐。當72B模型的專家網絡在昇騰超節點上高效運轉,當7B模型的輕量化部署突破行業邊界,中國AI產業正以開源為支點,撬動全球技術創新的新范式。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 華為
    +關注

    關注

    218

    文章

    36003

    瀏覽量

    262081
  • 盤古大模型
    +關注

    關注

    1

    文章

    112

    瀏覽量

    1040
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    太強了!AI PC搭載70B模型,算力狂飆,內存開掛

    了1.5B/7B/8B/14B/32B/70B/671B
    的頭像 發表于 03-24 08:52 ?3586次閱讀
    太強了!AI PC搭載70<b class='flag-5'>B</b>大<b class='flag-5'>模型</b>,算力狂飆,內存開掛

    模型推理服務的彈性部署與GPU調度方案

    7B 模型 FP16 推理需要約 14GB 顯存,70B 模型需要 140GB+,KV Cache 隨并發數線性增長,顯存碎片化導致實際利用率不足 60%。
    的頭像 發表于 03-03 09:29 ?87次閱讀

    基于合眾恒躍rk3576?開發板deepseek-r1-1.5b/7b 部署指南

    ? 核心結論:部署流程分為?5?大核心步驟,依次為基礎環境安裝、模型下載、模型格式轉換、部署程序編譯、開發板運行測試,1.5b?模型適配?4+32G?開發板,
    的頭像 發表于 12-09 07:08 ?457次閱讀
    基于合眾恒躍rk3576?開發板deepseek-r1-1.5<b class='flag-5'>b</b>/<b class='flag-5'>7b</b> 部署指南

    Arm率先適配騰訊混元開源模型,助力端側AI創新開發

    本周初,騰訊混元宣布開源四款小尺寸模型(參數分別為 0.5B、1.8B、4B
    的頭像 發表于 08-08 09:16 ?1384次閱讀
    Arm率先適配騰訊混元<b class='flag-5'>開源</b><b class='flag-5'>模型</b>,助力端側AI創新開發

    如何本地部署NVIDIA Cosmos Reason-1-7B模型

    近日,NVIDIA 開源其物理 AI 平臺 NVIDIA Cosmos 中的關鍵模型——NVIDIA Cosmos Reason-1-7B。這款先進的多模態大模型能夠理解視頻、進行物理
    的頭像 發表于 07-09 10:17 ?808次閱讀

    華為正式開源盤古7B稠密72B混合專家模型

    [中國,深圳,2025年6月30日] 今日,華為正式宣布開源盤古70億參數的稠密模型
    的頭像 發表于 06-30 11:19 ?1329次閱讀

    華為開發者大會2025(HDC 2025)亮點:華為云發布盤古模型5.5 宣布新一代昇騰AI云服務上線

    HarmonyOS、昇騰AI云服務、盤古模型等最新科技創新成果。 在主題演講中,華為常務董事、華為云計算CEO張平安宣布基于CloudMa
    的頭像 發表于 06-20 20:19 ?4439次閱讀
    <b class='flag-5'>華為</b>開發者大會2025(HDC 2025)亮點:<b class='flag-5'>華為</b>云發布<b class='flag-5'>盤古</b>大<b class='flag-5'>模型</b>5.5 <b class='flag-5'>宣布</b>新一代昇騰AI云服務上線

    在阿里云PAI上快速部署NVIDIA Cosmos Reason-1模型

    NVIDIA 近期發布了 Cosmos Reason-1 的 7B 和 56B 兩款多模態大語言模型 (MLLM),它們經過了“物理 AI 監督微調”和“物理 AI 強化學習”兩個階段的訓練。其中
    的頭像 發表于 06-04 13:43 ?957次閱讀

    代碼革命的先鋒:aiXcoder-7B模型介紹

    ? ? 國內開源代碼大模型 4月9日aiXcoder宣布正式開源7B模型Base版,僅僅過去一
    的頭像 發表于 05-20 14:41 ?802次閱讀
    代碼革命的先鋒:aiXcoder-<b class='flag-5'>7B</b><b class='flag-5'>模型</b>介紹

    NVIDIA RTX 5880 Ada與Qwen3系列模型實測報告

    近日,阿里巴巴通義千問團隊正式推出新一代開源大語言模型——Qwen3 系列,該系列包含 6 款 Dense 稠密模型和 2 款 MoE 混合
    的頭像 發表于 05-09 15:05 ?4347次閱讀
    NVIDIA RTX 5880 Ada與Qwen3系列<b class='flag-5'>模型</b>實測報告

    NVIDIA使用Qwen3系列模型的最佳實踐

    阿里巴巴近期發布了其開源混合推理大語言模型 (LLM) 通義千問 Qwen3,此次 Qwen3 開源模型系列包含兩款
    的頭像 發表于 05-08 11:45 ?2986次閱讀
    NVIDIA使用Qwen3系列<b class='flag-5'>模型</b>的最佳實踐

    【幸狐Omni3576邊緣計算套件試用體驗】CPU部署DeekSeek-R1模型(1B7B

    架構和動態計算分配技術,在保持模型性能的同時顯著降低了計算資源需求。 模型特點: 參數規模靈活:提供1.5B/7B/33B等多種規格
    發表于 04-21 00:39

    從零復現,全面開源:360 Light-R1-14B/7B帶來端側AI平權時刻

    14B開源颶風,360掀起端側推理性能革命
    的頭像 發表于 03-16 10:47 ?1096次閱讀
    從零復現,全面<b class='flag-5'>開源</b>:360 Light-R1-14<b class='flag-5'>B</b>/<b class='flag-5'>7B</b>帶來端側AI平權時刻

    利用英特爾OpenVINO在本地運行Qwen2.5-VL系列模型

    近期阿里通義實驗室在 Hugging Face 和 ModelScope 上開源了 Qwen2.5-VL 的 Base 和 Instruct 模型,包含 3B7B
    的頭像 發表于 03-12 13:42 ?2605次閱讀
    利用英特爾OpenVINO在本地運行Qwen2.5-VL系列<b class='flag-5'>模型</b>

    摩爾線程支持阿里云通義千問QwQ-32B開源模型

    近日,阿里云團隊正式開源全新推理模型——通義千問QwQ-32B。摩爾線程在該模型發布后2小時內,迅速且高效完成了對千問QwQ-32B的支持。
    的頭像 發表于 03-07 17:48 ?1352次閱讀
    摩爾線程支持阿里云通義千問QwQ-32<b class='flag-5'>B</b><b class='flag-5'>開源</b><b class='flag-5'>模型</b>