伦伦影院久久影视,天天操天天干天天射,ririsao久久精品一区 ,一本大道香蕉大久在红桃,999久久久免费精品国产色夜,色悠悠久久综合88,亚洲国产精品久久无套麻豆,亚洲香蕉毛片久久网站,一本一道久久综合狠狠老

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

海光DCU完成Qwen3.5多模態MoE模型全量適配

CHANBAEK ? 來源:海光信息 ? 2026-03-26 09:35 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

近日,海光DCU完成Qwen3.5-397B MoE旗艦多模態模型、Qwen3.5-35B-A3B MoE多模態模型全量適配、精度對齊與推理部署驗證。本次適配依托FlagOS專屬vLLM-plugin-FL多芯片插件實現落地。

FlagOS是一款專為異構AI芯片打造的開源、統一系統軟件棧,支持AI模型一次開發即可無縫移植至各類硬件平臺,大幅降低遷移與適配成本。FlagOS專屬vLLM-plugin-FL多芯片插件完美兼容海光DCU芯片,全程無需修改模型接口、推理引擎邏輯與開發者調用代碼,通過底層插件和算子替換實現無縫適配,大幅降低遷移成本,真正做到開箱即用。

目前兩大版本模型在海光DCU算力平臺實現無縫穩定運行,進一步夯實國產算力支撐大模型落地的核心能力,為行業提供開箱即用的國產化部署方案。

高效攻克適配瓶頸,多模態能力完整落地

Qwen3.5-35B-A3B參數350億、激活參數30億,原生支持262144 tokens超長上下文,采用門控Delta網絡融合MoE架構,具備統一視覺/語言理解能力,覆蓋圖像、視頻多模態輸入,在推理、編碼、Agent及視覺理解等核心場景實現全面躍升。

面對如此復雜的模型架構與多模態能力,精度對齊等技術挑戰尤為突出。海光DCU依托底層軟硬件優化實力,基于眾智FlagOS全棧技術支撐,高效攻克適配瓶頸。經驗證,Qwen3.5模型在海光DCU上推理穩定。

零改造部署,降低落地門檻

FlagOS將核心算子、編譯器等組件內置模型框架,加載時自動生效,配合標準化Docker鏡像與一鍵命令,徹底解決環境配置、性能優化等痛點。

開發者可通過官方文檔獲取部署源碼,也可直接拉取魔搭、HuggingFace等社區的海光專屬模型鏡像、文件,無需額外遷移即可快速啟用。遷移版Qwen3.5-FlagOS模型文件、代碼和鏡像,可一鍵直達部署資源:

HuggingFace平臺:

https://huggingface.co/FlagRelease/Qwen3.5-35B-A3B-hygon-FlagOS

魔搭平臺:

https://modelscope.cn/models/FlagRelease/Qwen3.5-35B-A3B-hygon-FlagOS

全棧技術協同,精度性能雙達標

眾智FlagOS構建的統一AI系統軟件棧,為海光DCU提供全鏈路支撐,FlagRelease工具可半自動支撐實現適配、評測、打包全流程,極速推進適配落地,將傳統數周周期壓縮至數天。

經ERQA、AIME、GPQA Diamond等權威評測集驗證,海光DCU適配后的Qwen3.5系列模型,在視覺理解、復雜推理、語言編碼等核心能力上,與原生版本精度完全對齊,無業務效果折損,適配質量達到行業頂尖水平。

此次適配實現“一次開發、多芯復用”,凸顯出國產算力承接高端大模型任務的常態化。海光DCU將持續深耕AI算力軟硬件優化,聯合FlagOS等生態伙伴,拓展更多主流大模型適配場景,打造穩定高效的國產算力底座,助力AI技術規模化、普惠化落地。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 模型
    +關注

    關注

    1

    文章

    3789

    瀏覽量

    52208
  • DCU
    DCU
    +關注

    關注

    0

    文章

    18

    瀏覽量

    3186
  • 海光信息
    +關注

    關注

    0

    文章

    36

    瀏覽量

    2706
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    阿里云發布新一代千問Qwen3.6-Plus,媲美Claude系列最強模型

    繼今年2月16日,阿里云發布Qwen3.5 Plus之后,4月2日,阿里云發布新一代大語言模型Qwen3.6-Plus,迭代速度明顯加快。相比前代產品,Qwen3.6-Plus實現了大
    的頭像 發表于 04-03 14:00 ?2686次閱讀
    阿里云發布新一代千問<b class='flag-5'>Qwen</b>3.6-Plus,媲美Claude系列最強<b class='flag-5'>模型</b>

    DCU完成階躍星辰基座模型Step 3.5 Flash推理適配

    近日,DCU正式完成對階躍星辰旗艦開源基座模型Step 3.5 Flash的
    的頭像 發表于 03-26 09:48 ?448次閱讀

    天數智芯完成阿里云通義千問Qwen3.5系列模態模型適配

    近日,天數智芯攜手眾智FlagOS 社區完成阿里云通義千問 Qwen3.5 系列模態模型
    的頭像 發表于 03-26 09:25 ?723次閱讀

    基于NVIDIA GPU加速端點使用千問3.5 VLM開發原生模態智能體

    阿里巴巴推出了全新開源 千問3.5 系列,專為構建原生模態智能體而設計。該系列的首個模型是一款總參數為 397B、具備推理能力的原生視覺語言模型
    的頭像 發表于 03-04 16:37 ?979次閱讀

    沐曦股份曦云C系列GPU全面適配通義千問Qwen3.5三款新模型

    今日,通義千問團隊正式開源發布Qwen3.5系列中等規模模型,推出包括Qwen3.5-35B-A3B、Qwen3.5-122B-A10B、Qwen3
    的頭像 發表于 02-28 10:05 ?605次閱讀
    沐曦股份曦云C系列GPU全面<b class='flag-5'>適配</b>通義千問<b class='flag-5'>Qwen3.5</b>三款新<b class='flag-5'>模型</b>

    美格智能高算力AI模組+Qwen3.5,打造端側最強AI智能體

    在人工智能技術飛速迭代的今天,大模型的“云端爭霸”已漸入深水區,而一場關于“端側智能”的靜默革命正悄然興起。隨著Qwen3.5等高性能開源模型的問世,模型能力已進一步跨越,而如何為這些
    的頭像 發表于 02-27 08:33 ?506次閱讀
    美格智能高算力AI模組+<b class='flag-5'>Qwen3.5</b>,打造端側最強AI智能體

    摩爾線程MTT S5000全面適配Qwen3.5三款新模型

    第一時間做出極速響應,宣布已在旗艦級AI訓推一體全功能GPU MTT S5000上,完成對這三款全新模型的全方位適配。 ? 此次高效支持充分展示了摩爾線程MUSA生態的成熟度與完備性。在本次Q
    的頭像 發表于 02-26 16:23 ?559次閱讀

    阿里巴巴開源全新一代大模型千問Qwen3.5-Plus

    千問3.5實現了底層模型架構的全面革新,此次發布的Qwen3.5-Plus版本總參數為3970億,激活僅170億,以小勝大,性能超過萬億參數的Qwen3-Max
    的頭像 發表于 02-26 15:40 ?1138次閱讀
    阿里巴巴開源全新一代大<b class='flag-5'>模型</b>千問<b class='flag-5'>Qwen3.5</b>-Plus

    沐曦股份曦云C系列GPU深度適配通義千問Qwen3.5模型

    今天,通義千問今天正式發布 Qwen3.5,并推出Qwen3.5系列的第一款模型 Qwen3.5-397B-A17B 的開放權重版本。沐曦股份曦云C系列GPU
    的頭像 發表于 02-26 14:26 ?673次閱讀
    沐曦股份曦云C系列GPU深度<b class='flag-5'>適配</b>通義千問<b class='flag-5'>Qwen3.5</b><b class='flag-5'>模型</b>

    太初元碁:40+AI大模型覆蓋,新版本即發即適配、上線即可用,實現國產“芯”速度

    日前,國產AI芯片企業太初(無錫)電子科技有限公司(又稱“太初元碁”)完成智譜GLM-5.0、阿里千問Qwen3.5-397B-A17B等大模型的深度適配,截至目前,其已
    的頭像 發表于 02-25 09:21 ?1881次閱讀

    摩爾線程快速完成Qwen3.5模型全面適配

    2月17日,摩爾線程宣布已在旗艦級AI訓推一體全功能GPU MTT S5000上完成對阿里最新大模型Qwen3.5的全方位適配。此次支持充分展示了摩爾線程MUSA生態的成熟度與完備性,
    發表于 02-18 08:32 ?1025次閱讀

    基于米爾瑞芯微RK3576開發板的Qwen2-VL-3B模型NPU模態部署評測

    模型(如 Qwen2-VL-2B)進行專項優化,token 生成速度達 10+每秒,適配本地化模態交互需求; 算力分配:RK3576 的
    發表于 08-29 18:08

    DCU率先展開文心系列模型的深度技術合作 FLOPs利用率(MFU)達47%

    模型的深度技術適配,預訓練模型FLOPs利用率(MFU)達到47%,在多個文本與模態基準測試中取得SOTA水平。此次合作標志著國產算力基
    的頭像 發表于 07-01 14:35 ?2450次閱讀

    壁仞科技完成Qwen3旗艦模型適配

    近日,在高效適配Qwen3系列模型推理后,壁仞科技宣布完成旗艦版Qwen3-235B-A22B模型
    的頭像 發表于 05-16 16:23 ?1093次閱讀

    愛芯通元NPU適配Qwen2.5-VL-3B視覺模態模型

    熟悉愛芯通元NPU的網友很清楚,從去年開始我們在端側模態模型適配上一直處于主動緊跟的節奏。先后適配了國內最早開源的
    的頭像 發表于 04-21 10:56 ?3360次閱讀
    愛芯通元NPU<b class='flag-5'>適配</b><b class='flag-5'>Qwen</b>2.5-VL-3B視覺<b class='flag-5'>多</b><b class='flag-5'>模態</b>大<b class='flag-5'>模型</b>