国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

如何在ZYNQ本地部署DeepSeek模型

FPGA技術江湖 ? 來源:OpenFPGA ? 2025-12-19 15:43 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

以下文章來源于OpenFPGA,作者碎碎思

一個將最小號 DeepSeek 模型部署到 AMD Zynq UltraScale+ MPSoC 處理系統的項目。

ccb047e2-da13-11f0-8c8f-92fbcf53809c.png

1. 引言

如果你過去幾年沒注意人工智能的大趨勢,那么你可能不知道大型語言模型(LLM)已在 AI 領域占據重要地位。

這些模型能夠理解人類的文本查詢,并生成文本回應。之所以稱“大模型”,是因為它們通常在大量網頁、書籍、對話、代碼等數據上訓練。

其本質并非“真正的智能”,而是深度學習模型——基于復雜數學運算(如線性代數、優化算法)實現的預測機制。

常見的做法是:若希望獲得良好性能,通常依賴高性能的 GPU(例如 AMD Instinct GPU)進行推理。

但在某些應用場景,我們可能希望將 LLM 部署在 邊緣設備(edge device) 本地執行。出于這個目的,本項目將在 ZUBoard(含 Arm Cortex-A53 內核的 Zynq UltraScale+ MPSoC)上運行一個較小的 DeepSeek 模型。

部署在邊緣設備的優勢包括:

隱私:模型在本地運行,無需上傳數據到云端。

離線訪問:不依賴寬帶或云服務。

成本:節省托管云推理的費用。

但工程中必須在 隱私、成本、性能之間做權衡。

2. 什么是 DeepSeek

如果你還不熟悉 DeepSeek:這是一系列高性能的開放權重 LLM 和大規模多模態模型(LMM),用于推動開放 AI 研究。

這些模型從零開始訓練,使用了數萬億 tokens 的多語言網頁、學術文獻、代碼庫及精編數據集。

架構上基于 Transformer,并加入了諸如:Grouped Query Attention (GQA)、SwiGLU 激活函數、多查詢注意力層,以提升推理效率。

模型尺寸可選范圍:1.5B、7B、13B 參數及以上,以便在資源使用與準確度之間平衡。

DeepSeek-VL(視覺-語言版本)擴展支持圖像數據與文本監督,能夠進行跨模態推理、視覺問答、圖片-文本生成。

其還提供量化版本(4 bit、8 bit)以適配邊緣設備與移動部署。

在多個基準上(如 MMLU、GSM8K、HumanEval、MMMU)表現出接近或達到最先進水平,同時優化 CPU/GPU 推理效率。

3. 在 Zynq UltraScale+ MPSoC 上開始

項目使用 PYNQ 平臺作為 DeepSeek 安裝基礎。

步驟如下:

從 PYNQ 官網下載適用于 Avnet ZUBoard 的鏡像,并將鏡像燒錄至 SD 卡。

cd191a4c-da13-11f0-8c8f-92fbcf53809c.png

將板上的啟動開關設為 SD 卡啟動,插入 SD 卡,并通過 USB UART以太網將 ZUBoard 連接至主機。

cd7b3c22-da13-11f0-8c8f-92fbcf53809c.jpg

啟動后使用瀏覽器訪問 http://pynq:9090,密碼通常為 xilinx。

cddaba08-da13-11f0-8c8f-92fbcf53809c.png

打開終端,準備安裝 DeepSeek 模型。

ce2eddcc-da13-11f0-8c8f-92fbcf53809c.png

4. 準備工作

由于 ZUBoard 僅配備 1 GB 的 LPDDR4 內存,需在 SD 卡上建立足夠的交換(swap)空間,以防止內存耗盡導致系統崩潰。

具體命令示例:

swapon --show 
sudo swapoff /var/swap 
sudo rm /var/swap 
sudo chmod 600 /var/swap 
sudo mkswap /var/swap 
sudo swapon /var/swap

執行完成后,通過 swapon --show 可確認現在有約 4 GB 的 swap 空間。

ce890dba-da13-11f0-8c8f-92fbcf53809c.png

5. 安裝 Ollama 與 DeepSeek

使用開源工具 Ollama 來運行 LLM,本項目使用 Ollama 框架。

安裝命令示例:

curl -fsSL https://ollama.com/install.sh | sh

系統無 GPU,可忽略相應警告。

cee699c6-da13-11f0-8c8f-92fbcf53809c.png

在安裝成功后,下載 DeepSeek 1.5B 參數版本。示例命令:

mkdir deepseek 
exportHOME=/home/xilinx/deepseek 
ollama pull deepseek-r1:1.5b

cf45bf5a-da13-11f0-8c8f-92fbcf53809c.png

6. 測試

在 ZUBoard 上運行模型示例命令:

ollama run deepseek-r1:1.5b

系統將顯示提示符,等待你的輸入。

cf99c51e-da13-11f0-8c8f-92fbcf53809c.png

我做的第一件事就是詢問它關于模型的問題。

cff32190-da13-11f0-8c8f-92fbcf53809c.png

模型信息如下圖所示。

d04c1b6a-da13-11f0-8c8f-92fbcf53809c.png

然后,像操作普通 LLM 一樣與該模型進行交互。

d0a93a84-da13-11f0-8c8f-92fbcf53809c.png

可在另一個終端運行 top 命令來觀察系統資源消耗。

d0fd8300-da13-11f0-8c8f-92fbcf53809c.png

需要注意:

參數較少(1.5B)意味著推理能力有限。

使用 swap 空間意味著性能會受到影響。

7. 總結

該項目展示了:即便沒有 GPU,也能在邊緣設備(如 ZYNQ)上部署 LLM。盡管性能受限,但具備“本地離線自動推理”的能力,在特定應用場景中極具價值。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • amd
    amd
    +關注

    關注

    25

    文章

    5678

    瀏覽量

    139787
  • 模型
    +關注

    關注

    1

    文章

    3730

    瀏覽量

    52046
  • Zynq
    +關注

    關注

    10

    文章

    630

    瀏覽量

    49412
  • DeepSeek
    +關注

    關注

    2

    文章

    833

    瀏覽量

    3211

原文標題:邊緣 AI 新玩法:在 ZYNQ 本地部署 DeepSeek 模型

文章出處:【微信號:HXSLH1010101010,微信公眾號:FPGA技術江湖】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    ElfBoard技術實戰|ELF 2開發板本地部署DeepSeek模型的完整指南

    ELF 2開發板本地部署DeepSeek模型的完整指南
    的頭像 發表于 05-16 11:13 ?2498次閱讀
    ElfBoard技術實戰|ELF 2開發板<b class='flag-5'>本地</b><b class='flag-5'>部署</b><b class='flag-5'>DeepSeek</b>大<b class='flag-5'>模型</b>的完整指南

    本地部署openWebUI + ollama+DeepSeek 打造智能知識庫并實現遠程訪問

    DeepSeek 作為一個開源的大語言模型,我們可以通過 ZeroNews + openWebUI + ollama的方式,輕松的在本地私有化部署
    的頭像 發表于 09-10 16:41 ?5344次閱讀
    <b class='flag-5'>本地</b><b class='flag-5'>部署</b>openWebUI + ollama+<b class='flag-5'>DeepSeek</b> 打造智能知識庫并實現遠程訪問

    添越智創基于 RK3588 開發板部署測試 DeepSeek 模型全攻略

    DeepSeek 模型部署與測試,開啟這場充滿挑戰與驚喜的技術探索之旅。 RK3588 開發板:AI 性能擔當 RK3588 開發板基于先進的 8nm LP 制程工藝精心打造,其硬件配置堪稱豪華,在 AI
    發表于 02-14 17:42

    RK3588開發板上部署DeepSeek-R1大模型的完整指南

    DeepSeek作為國產AI大數據模型的代表,憑借其卓越的推理能力和高效的文本生成技術,在全球人工智能領域引發廣泛關注。DeepSeek-R1作為該系列最新迭代版本,實現了長文本處理效能躍遷、多模態
    發表于 02-27 16:45

    【幸狐Omni3576邊緣計算套件試用體驗】DeepSeek 部署及測試

    【幸狐 Omni3576 邊緣計算套件測評】DeepSeek 部署及測試 本文介紹了幸狐 Omni3576 邊緣計算套件實現 DeepSeek 部署及測試的相關流程,包括
    發表于 03-21 19:31

    DeepSeek-R1本地部署指南,開啟你的AI探索之旅

    春節期間突然被DeepSeek刷屏了,這熱度是真大,到處都是新聞和本地部署的教程,等熱度過了過,簡單記錄下自己本地部署及相關的內容,就當電子
    的頭像 發表于 02-08 10:30 ?9022次閱讀
    <b class='flag-5'>DeepSeek</b>-R1<b class='flag-5'>本地</b><b class='flag-5'>部署</b>指南,開啟你的AI探索之旅

    DeepSeek本地部署硬件配置推薦

    近日,關于 DeepSeek 的話題如同一場風暴,席卷了整個大語言模型領域。
    的頭像 發表于 02-11 10:54 ?4210次閱讀
    <b class='flag-5'>DeepSeek</b><b class='flag-5'>本地</b><b class='flag-5'>部署</b>硬件配置推薦

    何在MATLAB中使用DeepSeek模型

    DeepSeek-R1(https://github.com/deepseek-ai/DeepSeek-R1) AI 模型橫空出世后,人們幾乎就立馬開始詢問如
    的頭像 發表于 02-13 09:20 ?4376次閱讀
    如<b class='flag-5'>何在</b>MATLAB中使用<b class='flag-5'>DeepSeek</b><b class='flag-5'>模型</b>

    DeepSeek R1模型本地部署與產品接入實操

    針對VS680/SL1680系列大算力芯片,我們的研發團隊正在研究將蒸餾后的輕量級DeepSeek模型DeepSeek-R1-Distill-Qwen-1.5B)部署到SOC
    的頭像 發表于 04-19 16:32 ?734次閱讀
    <b class='flag-5'>DeepSeek</b> R1<b class='flag-5'>模型</b><b class='flag-5'>本地</b><b class='flag-5'>部署</b>與產品接入實操

    華為云發布DeepSeek本地部署方案

    華為云正式推出基于華為云Stack混合云的DeepSeek本地部署方案。
    的頭像 發表于 02-18 10:05 ?1605次閱讀

    曙光順利完成DeepSeek模型本地化多點私有部署

    計算中心等政務云服務商,依托本地政務云資源池,順利完成DeepSeek模型本地化多點私有部署,并打造出數字人“撫小智”。撫州市還計劃將
    的頭像 發表于 02-22 14:16 ?1299次閱讀

    行芯完成DeepSeek-R1大模型本地部署

    近日,行芯正式宣布完成 DeepSeek-R1 大模型本地部署,實現在多場景、多產品中應用。解鎖“芯”玩法,開啟“芯”未來!
    的頭像 發表于 02-24 15:17 ?1278次閱讀

    博實結完成DeepSeek模型本地部署

    近日,公司完成DeepSeek R1 671B大模型本地部署。通過構建自主可控的AI基礎設施,公司同步實現研發智能升級、研發成本重構、數據安全閉環與應用場景突破,為產業智能化賦能。
    的頭像 發表于 03-19 16:31 ?1294次閱讀

    ORinNano離線部署Deepseek R1大模型教程

    ORinNano離線部署Deepseek R1大模型教程
    的頭像 發表于 04-10 15:32 ?1306次閱讀
    ORinNano離線<b class='flag-5'>部署</b><b class='flag-5'>Deepseek</b> R1大<b class='flag-5'>模型</b>教程

    DeepSeek模型何在云服務器上部署?

    隨著大型語言模型(LLM)的應用日益普及,許多開發者和企業希望將像DeepSeek這樣的優秀模型部署到自己的云服務器上,以實現私有化、定制化服務并保障數據安全。本文將詳細闡述
    的頭像 發表于 10-13 16:52 ?895次閱讀