伦伦影院久久影视,天天操天天干天天射,ririsao久久精品一区 ,一本大道香蕉大久在红桃,999久久久免费精品国产色夜,色悠悠久久综合88,亚洲国产精品久久无套麻豆,亚洲香蕉毛片久久网站,一本一道久久综合狠狠老

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

寒武紀成功適配DeepSeek-V3.2-Exp模型

寒武紀開發者 ? 來源:寒武紀開發者 ? 2025-10-11 17:14 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

2025年9月29日,寒武紀已同步實現對深度求索公司最新模型DeepSeek-V3.2-Exp的適配,并開源大模型推理引擎vLLM-MLU源代碼。代碼地址和測試步驟見文末,開發者可以在寒武紀軟硬件平臺上第一時間體驗DeepSeek-V3.2-Exp的亮點。

寒武紀一直高度重視大模型軟件生態建設,支持以DeepSeek為代表的所有主流開源大模型。借助于長期活躍的生態建設和技術積累,寒武紀得以快速實現對DeepSeek-V3.2-Exp這一全新實驗性模型架構的day 0適配和優化。

寒武紀一直重視芯片和算法的聯合創新,致力于以軟硬件協同的方式,優化大模型部署性能,降低部署成本。此前,我們對DeepSeek系列模型進行了深入的軟硬件協同性能優化,達成了業界領先的算力利用率水平。針對本次的DeepSeek-V3.2-Exp新模型架構,寒武紀通過Triton算子開發實現了快速適配,利用BangC融合算子開發實現了極致性能優化,并基于計算與通信的并行策略,再次達成了業界領先的計算效率水平。依托DeepSeek-V3.2-Exp帶來的全新DeepSeek Sparse Attention機制,疊加寒武紀的極致計算效率,可大幅降低長序列場景下的訓推成本,共同為客戶提供極具競爭力的軟硬件解決方案。

↓ vLLM-MLU DeepSeek-V3.2-Exp適配的源碼(點擊文末“閱讀原文”可直接跳轉)↓

https://github.com/Cambricon/vllm-mlu

基于vLLM-MLU的DeepSeek-V3.2-Exp運行指南

一、環境準備

軟件:需使用寒武紀訓推一體鏡像Cambricon Pytorch Container部署,鏡像內預裝運行vLLM-MLU的各項依賴。

硬件:4臺8卡MLU服務器。

如需獲取完整的軟硬件運行環境,請通過官方渠道聯系寒武紀。

二、運行步驟及結果展示

Step1:模型下載

模型文件請從Huggingface官網自行下載,后文用${MODEL_PATH}表示下載好的模型路徑。

Step 2:啟動容器

加載鏡像,啟動容器,命令如下:

# 加載鏡像
docker load -i cambricon_pytorch_container-torch2.7.1-torchmlu1.28.0-ubuntu22.04-py310.tar.gz

# 啟動容器
docker run -it --net=host 
  --shm-size'64gb'--privileged -it 
  --ulimitmemlock=-1${IMAGE_NAME}
  /bin/bash

# 安裝社區vLLM 0.9.1版本
pushd${VLLM_SRC_PATH}/vllm
  VLLM_TARGET_DEVICE=empty pip install .
popd
# 安裝寒武紀vLLM-mlu
pushd${VLLM_SRC_PATH}/vllm-mlu
  pip install .
popd

Step 3:啟動Ray服務

在執行模型前,需要先啟動ray服務。啟動命令如下:


# 設置環境變量
exportGLOO_SOCKET_IFNAME=${INFERENCE_NAME}
exportNOSET_MLU_VISIBLE_DEVICES_ENV_VAR=1

# 主節點
ray start --head--port${port}
# 從節點
ray start --address='${master_ip}:${port}'

Step 4:運行離線推理

這里提供簡易的離線推理腳本`offline_inference.py`:

importsys

fromvllmimportLLM, SamplingParams


defmain(model_path):
  # Sample prompts.
  prompts = [
    "Hello, my name is",
    "The capital of France is",
    "The future of AI is",
  ]
  sampling_params = SamplingParams(
    temperature=0.6, top_p=0.95, top_k=20, max_tokens=10)

  # Create an LLM.
  engine_args_dict = {
    "model": model_path,
    "tensor_parallel_size":32,
    "distributed_executor_backend":"ray",
    "enable_expert_parallel":True,
    "enable_prefix_caching":False,
    "enforce_eager":True,
    "trust_remote_code":True,
  }
  llm = LLM(**engine_args_dict)
  # Generate texts from the prompts.
  outputs = llm.generate(prompts, sampling_params)

  # Print the outputs.
  foroutputinoutputs:
    prompt = output.prompt
    generated_text = output.outputs[0].text
    print(f"Prompt:{prompt!r}, Generated text:{generated_text!r}")


if__name__ =='__main__':
  main(sys[1])

運行如下命令,完成模型離線推理:


# 運行推理命令
pythonoffline_inference.py --model${MODEL_PATH}

運行結果符合預期,具體結果如下:

e67780d8-9d1d-11f0-8c8f-92fbcf53809c.jpg

Step 5:運行在線推理


分別啟動server和client,完成推理服務,示例如下:

# server
vllmserve${MODEL_PATH}
  --port8100
  --max-model-len40000
  --distributed-executor-backend ray 
  --trust-remote-code 
  --tensor-parallel-size32
  --enable-expert-parallel 
  --no-enable-prefix-caching 
  --disable-log-requests 
  --enforce-eager

# client, we post a single request here.
curl -X POST http://localhost:8100/v1/completions 
  -H"Content-Type: application/json"
  -d'{"model":${MODEL_PATH}, 
     "prompt": "The future of AI is", 
     "max_tokens": 50, "temperature": 0.7 
    }'

運行結果如下:

e6d18b8c-9d1d-11f0-8c8f-92fbcf53809c.png

提取輸入輸出信息如下,符合預期。

Prompt:The futureofAIis
Output:being shapedbya numberofkey trends. These include the riseoflargelanguagemodels, the increasing useofAIinenterprise, the developmentofmore powerfulandefficient AI hardware,andthe growing focusonAI ethicsandsafety.

Largelanguagemodelsare

Step 6:運行交互式對話



使用vLLM-MLU框架,運行交互式對話demo,執行結果如下:

e72e304e-9d1d-11f0-8c8f-92fbcf53809c.png

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 開源
    +關注

    關注

    3

    文章

    4245

    瀏覽量

    46284
  • 寒武紀
    +關注

    關注

    13

    文章

    217

    瀏覽量

    74980
  • DeepSeek
    +關注

    關注

    2

    文章

    836

    瀏覽量

    3320

原文標題:寒武紀Day 0適配DeepSeek-V3.2-Exp,同步開源推理引擎vLLM-MLU

文章出處:【微信號:Cambricon_Developer,微信公眾號:寒武紀開發者】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    寒武紀科技上市了嗎_寒武紀科技股權結構是怎樣的

    寒武紀科技上市了嗎_寒武紀科技股權結構是怎樣的?北京中科寒武紀科技有限公司宣布完成1億美元A輪融資,成為全球AI芯片界首個獨角獸的初創公司。背后“獨角獸”橫空出世,麒麟970的關鍵部件NPU,采用了來自
    發表于 12-29 17:02 ?7.6w次閱讀

    寒武紀芯片量產了嗎_如何看待國產自主的寒武紀芯片

    寒武紀芯片量產了嗎_如何看待國產自主的寒武紀芯片?智能芯片哪家強,還是中國寒武紀寒武紀發布會7顆AI芯片全解析,三年后,寒武紀要力爭占據中
    發表于 12-29 17:16 ?2.8w次閱讀

    寒武紀科技的股東都有誰_寒武紀科技十大股東

    寒武紀科技的戰略投資方和合作方包括頂尖互聯網企業(阿里巴巴)、頂尖服務器廠商(聯想、曙光)、頂尖人工智能公司(科大訊飛,天使輪戰略投資方)下面來了解一下寒武紀科技的十大股東or戰略伙伴吧。
    發表于 01-05 10:37 ?17.4w次閱讀

    寒武紀科技生態爆發,產業伙伴展示寒武紀芯片應用

    業界領先的智能芯片設計公司寒武紀科技今天于上海發布了Cambricon MLU100 云端智能芯片和板卡產品、寒武紀 1M 終端智能處理器 IP 產品。聯想、曙光和科大訊飛作為寒武紀的合作伙伴同時發布了基于
    的頭像 發表于 05-04 17:15 ?1.2w次閱讀

    麒麟980將整合寒武紀科技的最新AI技術:“寒武紀1M”

    麒麟980。華為和臺積電關系密切,比如16nm工藝的麒麟960、10nm工藝的麒麟970,都是雙方合作的成果。 此外,麒麟980將整合寒武紀科技的最新AI技術,基本斷定就是寒武紀剛剛發布的第三代IP產品“寒武紀1M”,后者正是基
    的頭像 發表于 05-16 10:21 ?7492次閱讀

    寒武紀先后推出了用于終端場景的寒武紀1A寒武紀1M系列芯片

    寒武紀董事長、CEO陳天石此前曾表示:“作為一家中立的芯片公司,我們走最正統的芯片設計公司的路徑,把應用場景留給人工智能行業的客戶,而我們自己做大家的墊腳石。我們有遠大的志向,但長跑才剛剛開始,通往偉大芯片公司的賽程很長,寒武紀將沿大路而行。”
    發表于 07-20 17:17 ?2106次閱讀

    寒武紀的思元(MLU)云端智能加速卡與百川智能完成大模型適配,攜手創新生成式AI

    近日,寒武紀思元(MLU)系列云端智能加速卡與百川智能旗下的大模型Baichuan2-53B、Baichuan2-13B、Baichuan2-7B等已完成全面適配寒武紀思元(MLU)
    的頭像 發表于 11-06 20:32 ?2864次閱讀
    <b class='flag-5'>寒武紀</b>的思元(MLU)云端智能加速卡與百川智能完成大<b class='flag-5'>模型</b><b class='flag-5'>適配</b>,攜手創新生成式AI

    寒武紀與智象未來達成戰略合作并完成大模型適配

    1月22日,寒武紀與智象未來 (HiDream.ai) 在北京簽訂戰略合作協議,雙方將通過資源共享、優勢互補,依托各自在大模型領域的技術積累,持續產品適配,攜手推動視覺大模型的創新與落
    的頭像 發表于 01-23 13:46 ?1200次閱讀
    <b class='flag-5'>寒武紀</b>與智象未來達成戰略合作并完成大<b class='flag-5'>模型</b><b class='flag-5'>適配</b>

    寒武紀與智象未來聯手,推動視覺大模型的技術創新與應用

    在大模型領域,寒武紀自底層硬件架構至基礎軟件更新,皆針對大模型的實際應用場景進行了細致優化。依托高效的推理引擎MagicMind,寒武紀思元(MLU)系列云端智能加速卡支持輸入輸出變換
    的頭像 發表于 01-24 09:59 ?2431次閱讀

    寒武紀增資全資子公司上海寒武紀

    近日,寒武紀科技公司發布公告,宣布了一項重要的增資計劃。為了保障募投項目的順利實施,并滿足全資子公司上海寒武紀的實際運營需求,寒武紀決定使用募集資金1500萬元及自有資金1.85億元,合計2億元
    的頭像 發表于 02-05 13:44 ?1821次閱讀

    寒武紀85后創始人陳天石身價超1500億

    芯片生產和DeepSeek適配國產芯片的利好刺激下,加之還有國外投行高盛宣布將寒武紀-U目標價上調50%至1835元,AI芯片龍頭寒武紀股價持續大漲。目前
    的頭像 發表于 08-26 10:37 ?6895次閱讀

    曙光AI超集群系統全面支持DeepSeek-V3.2-Exp

    9月29日,DeepSeek-V3.2-Exp正式發布并開源,引入創新的稀疏Attention架構。基于中國首個AI計算開放架構,芯片層、軟件層、模型層實現“跨層協同”,使得曙光AI超集群系統完成對DeepSeek新版本的深度
    的頭像 發表于 09-30 16:18 ?1763次閱讀

    商湯科技與寒武紀達成戰略合作

    近日,商湯科技與中科寒武紀科技股份有限公司(以下簡稱“寒武紀”)簽署面向新發展階段的戰略合作協議,重點推進軟硬件的聯合優化,并共同構建開放共贏的產業生態。
    的頭像 發表于 10-15 17:54 ?823次閱讀

    寒武紀實現對GLM-5的Day 0適配

    2026年2月11日,寒武紀已基于 vLLM 推理框架同步實現對智譜最新開源旗艦模型 ?GLM-5 的適配寒武紀一直高度重視大模型軟件生態
    的頭像 發表于 02-12 15:07 ?747次閱讀

    寒武紀去年營收增長超400% 凈利潤20.59億同比扭虧 寒武紀首個盈利年度

    AI芯片廠商寒武紀傳來好消息,寒武紀去年營收增長超400% ;據寒武紀2025年年報顯示;25年營收達到64.97億元,同比增加453.21%,凈利潤20.59億元,同比扭虧。該公司迎來上市以來首個
    的頭像 發表于 03-13 11:49 ?540次閱讀