[中國,深圳,2025年6月30日] 今日,華為正式宣布開源盤古70億參數的稠密模型、盤古Pro MoE 720億參數的混合專家模型和基于昇騰的模型推理技術。
此舉是華為踐行昇騰生態戰略的又一關鍵舉措,推動大模型技術的研究與創新發展,加速推進人工智能在千行百業的應用與價值創造。
盤古Pro MoE 72B模型權重、基礎推理代碼,已正式上線開源平臺。
基于昇騰的超大規模MoE模型推理代碼,已正式上線開源平臺。
盤古7B相關模型權重與推理代碼將于近期上線開源平臺。
我們誠邀全球開發者、企業伙伴及研究人員下載使用,反饋使用意見,共同完善。請訪問https://gitcode.com/ascend-tribe
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。
舉報投訴
-
華為
+關注
關注
218文章
36005瀏覽量
262090 -
人工智能
+關注
關注
1817文章
50098瀏覽量
265320 -
昇騰AI
+關注
關注
0文章
87瀏覽量
930 -
盤古大模型
+關注
關注
1文章
112瀏覽量
1041
原文標題:華為宣布開源盤古7B稠密和72B混合專家模型
文章出處:【微信號:huaweicorp,微信公眾號:華為】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
熱點推薦
大模型推理服務的彈性部署與GPU調度方案
7B 模型 FP16 推理需要約 14GB 顯存,70B 模型需要 140GB+,KV Cache 隨并發數線性增長,顯存碎片化導致實際利用率不足 60%。
基于合眾恒躍rk3576?開發板deepseek-r1-1.5b/7b 部署指南
? 核心結論:部署流程分為?5?大核心步驟,依次為基礎環境安裝、模型下載、模型格式轉換、部署程序編譯、開發板運行測試,1.5b?模型適配?4+32G?開發板,
NVIDIA ACE現已支持開源Qwen3-8B小語言模型
為助力打造實時、動態的 NPC 游戲角色,NVIDIA ACE 現已支持開源 Qwen3-8B 小語言模型(SLM),可實現 PC 游戲中的本地部署。
如何本地部署NVIDIA Cosmos Reason-1-7B模型
近日,NVIDIA 開源其物理 AI 平臺 NVIDIA Cosmos 中的關鍵模型——NVIDIA Cosmos Reason-1-7B。這款先進的多模態大模型能夠理解視頻、進行物理
華為宣布開源盤古7B稠密和72B混合專家模型
關鍵一步,為全球開發者、企業及研究人員提供了強大的技術支撐。 ? 華為此次開源行動涵蓋三大核心板塊:盤古Pro MoE 72B模型權重與基礎
具有載波聚合的 RX 分集 FEM(B26、B8、B12/13、B2/25、B4 和 B7) skyworksinc
電子發燒友網為你提供()具有載波聚合的 RX 分集 FEM(B26、B8、B12/13、B2/25、B4 和
發表于 06-19 18:35
在阿里云PAI上快速部署NVIDIA Cosmos Reason-1模型
NVIDIA 近期發布了 Cosmos Reason-1 的 7B 和 56B 兩款多模態大語言模型 (MLLM),它們經過了“物理 AI 監督微調”和“物理 AI 強化學習”兩個階段的訓練。其中
NVIDIA RTX 5880 Ada與Qwen3系列模型實測報告
近日,阿里巴巴通義千問團隊正式推出新一代開源大語言模型——Qwen3 系列,該系列包含 6 款 Dense 稠密模型和 2 款 MoE 混合
【幸狐Omni3576邊緣計算套件試用體驗】CPU部署DeekSeek-R1模型(1B和7B)
架構和動態計算分配技術,在保持模型性能的同時顯著降低了計算資源需求。
模型特點:
參數規模靈活:提供1.5B/7B/33B等多種規格
發表于 04-21 00:39
利用英特爾OpenVINO在本地運行Qwen2.5-VL系列模型
近期阿里通義實驗室在 Hugging Face 和 ModelScope 上開源了 Qwen2.5-VL 的 Base 和 Instruct 模型,包含 3B、7B 和
華為正式開源盤古7B稠密和72B混合專家模型
評論