国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

OrangePi KunPeng Pro部署AI模型介紹

嵌入式小生 ? 來源:嵌入式小生 ? 2024-11-16 11:03 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

一、OrangePi Kunpeng Pro簡介

OrangePi Kunpeng Pro是一款香橙派聯合華為精心打造的高性能板卡,搭載了鯤鵬處理器,可提供8TOPS INT8計算能力,板卡設計很精致,板載資源也非常多:

?擁有以太網Wi-Fi+藍牙功能,提供多種可選擇的網絡接入方式。

? 2個USB3.0 Host、1個支持USB3.0的Type-C接口:可接入鼠標、鍵盤、USB攝像頭等設備,方便板卡操作。

? 2個HDMI接口、1 個 MIPI DSI 2 Lane接口,提供兩種顯示方案。

?引出了40 pin 擴展口,可擴展UARTI2C、SPI、PWM 和 GPIO 等接口功能。板卡完整接口如下圖所示:

6df431fa-9072-11ef-a511-92fbcf53809c.png

板卡擴展出的功能很多,能夠滿足很多應用場景和行業的開發需求,本文將描述使用OrangePi Kunpeng Pro來部署AI大模型,記錄分析模型運行期間板卡的狀態和模型運行效果。

二、環境搭建

(1)首先取出板卡,為板卡接入一個HDMI顯示屏、一個無線藍牙鼠標、一個有線鍵盤,接著接通電源,完成后如下圖所示:

6e24a308-9072-11ef-a511-92fbcf53809c.png

(2)隨后板卡將自動啟動運行openEuler操作系統,接著我們進入終端:

6e526c20-9072-11ef-a511-92fbcf53809c.png

(3)查看下存儲容量:

6e8af194-9072-11ef-a511-92fbcf53809c.png

從上圖可知目前可用容量很大,可滿足小量級離線模型的存儲。

板卡運行openEuler非常流暢,使用體驗感非常好。

(4)選擇網絡接入方式,本文使用Wifi接入。

(5)更改CPU為AI CPU

6eb4ec10-9072-11ef-a511-92fbcf53809c.png

從上圖中可知目前板卡有3個AI CPU和1個control CPU。

接著就進行模型運行環境搭建和模型部署了。

三、模型運行環境搭建

(1)下載Ollama用于啟動并運行大型語言模型

由于在線下載Ollama速度較慢,故而使用手動方式安裝Ollama,首先從下列地址下載Ollama:

https://ollama.com/download/ollama-linux-arm64

6ed951ea-9072-11ef-a511-92fbcf53809c.png

完成后將其通過ssh方式傳輸到板卡。接著將其重名為ollama,便于命令操作,然后將ollama復制到/usr/bin目錄中并賦予可執行權限:

sudochmod+x/usr/bin/ollama

(2)配置ollama系統服務

使用以下命令創建ollama服務描述文件:

sudotouch/etc/systemd/system/ollama.service

并在文件中編輯如下內容:

[Unit]
Description=OllamaService
After=network-online.target

[Service]
ExecStart=/usr/bin/ollamaserve
User=root
Group=root
Restart=always
RestartSec=3

[Install]
WantedBy=default.target

(3)啟動ollama服務

使用下述命令啟動ollama服務:

sudosystemctldaemon-reload
sudosystemctlenableollama

(4)啟動ollama

使用下述命令啟動ollama:

sudosystemctlstartollama

(5)查看ollama運行狀態

使用如下命令查看ollama運行狀態:

systemctlstatusollama.service

6ef59292-9072-11ef-a511-92fbcf53809c.png

從上圖可知目前ollama啟動成功。

四、模型部署

通過上述第三小節的步驟后,Ollama模型運行環境就搭建完成,本小節將部署五個模型:1.8b的qwen、2b的gemma、3.8b的phi3、4b的qwen和7b的llama2,測試OrangePi Kunpeng Pro運行模型的實際效果。模型細節如下表所示:

序號 模型 參數 描述
1 qwen 1.8b Qwen是阿里云開發的大型語言模型,1.8b,1.1GB
2 gemma 2b Gemma是由Google DeepMind構建的一系列輕量級的開放模型,大小1.7GB
3 phi3 3.8b phi3是微軟開發的開放AI模型系列,3.8b為Mini系列,大小2.4GB
4 qwen 4b Qwen是阿里云開發的大型語言模型,4b,大小2.3GB
5 llama2 7b Llama 2是由Meta平臺公司發行的基礎語言模型,大小3.8GB

(1)部署1.8b的qwen

使用ollama run qwen:1.8b部署1.8b的qwen模型:

6f199cdc-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,對其進行問答測試,如下圖所示:

6f313e78-9072-11ef-a511-92fbcf53809c.png

效果:運行1.8b的qwen模型,CPU負載沒有占滿,進行問答測試,回答速度較快,效果很好!

(2)部署2b的gemma

使用ollama run gemma:2b部署2b的gemma模型:

6f67321c-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,對其進行問答測試,如下圖所示:

6f85ad0a-9072-11ef-a511-92fbcf53809c.png

效果:運行2b的gemma模型和運行1.8b的qwen模型效果相似,CPU負載同樣沒有占滿,進行問答測試,回答速度快,效果好!

(3)部署3.8的phi3

使用ollama run phi3:3.8b部署3.8b的phi3模型:

6fb6d8bc-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,對其進行問答測試,如下圖所示:

6fdb60c4-9072-11ef-a511-92fbcf53809c.png

效果:運行3.8b的phi3模型,進行問答測試,回答速度變慢了。

(4)部署4b的qwen

使用ollama run qwen:4b部署4b的qwen模型:

701cdf18-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,對其進行問答測試,如下圖所示:

70679116-9072-11ef-a511-92fbcf53809c.png

效果:運行4b的qwen模型,進行問答測試,回答問題速度明顯變慢:計算生成答案的速度變慢,打印文字的速度也變慢了。

(5)部署7b的llama2

使用ollama run llama2:7b部署7b的llama2模型:

709d60a2-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,對其進行問答測試,如下圖所示:

70b46414-9072-11ef-a511-92fbcf53809c.png

效果:運行7b的llama2模型,CPU滿負載了,進行問答測試,回答問題速度也明顯變得很慢:計算生成答案的速度變慢,打印文字的速度也變慢了。

五、實際效果

上述第四小節描述了運行五個模型的實際使用效果,本小節附上運行2b的gemma模型的效果,如下圖所示:

(注:因gif圖對視頻有所處理,以實際運行效果為準!)

六、總結

OrangePi Kunpeng Pro板卡是一塊擁有較高計算性能的板卡,本文使用該板卡部署了五個模型(以本文所描述模型為參考),對于1.8b和2b量級的模型來說運行效果還可以,體驗較好;對于3.8b和4b量級的模型來說,體驗感有所下降,一是計算生成答案的過程變長,二是文字輸出存在斷續;對于7b量級的模型,體驗感更是降了一個層次,文字輸出存在明顯的斷續了。

體驗感是一個非理性的名詞,因人而異,不同的場景和模型,不同的使用者都可能存在不同的體驗,本文所有內容僅供參考和評測!

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    91

    文章

    39489

    瀏覽量

    300816
  • 板卡
    +關注

    關注

    3

    文章

    175

    瀏覽量

    17475
  • 模型
    +關注

    關注

    1

    文章

    3730

    瀏覽量

    52039

原文標題:玩玩OrangePi KunPeng Pro部署AI模型

文章出處:【微信號:嵌入式小生,微信公眾號:嵌入式小生】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    AI端側部署開發(SC171開發套件V2)2026版

    AI端側部署開發(SC171開發套件V3)2026版 序列 課程名稱 視頻課程時長 視頻課程鏈接 課件鏈接 工程源碼 1 Fibo AI Stack模型轉化指南 27分19秒 http
    發表于 02-11 11:44

    OPi 6Plus全面適配OpenClaw

    的“智能體”。 如此強大的AI,想必你也心動了吧?那么問題來了:我該怎么部署部署在哪里? 是昂貴的Mac mini,還是復雜的云端服務器? 香橙派給出了一個半小時速通的簡便方案:在Orang
    發表于 02-06 20:00

    AI端側部署開發(SC171開發套件V3)2026版

    AI端側部署開發(SC171開發套件V3)2026版 序列 課程名稱 視頻課程時長 視頻課程鏈接 課件鏈接 工程源碼 1 Fibo AI Stack模型轉化指南 27分19秒 http
    發表于 01-15 10:31

    使用瑞薩RUHMI工具實現AI模型部署過程

    AI無處不在。你在部署AI,你的競爭對手也在部署AI,幾乎所有人都在做AI。然而,
    的頭像 發表于 10-17 10:00 ?2727次閱讀
    使用瑞薩RUHMI工具實現<b class='flag-5'>AI</b><b class='flag-5'>模型</b><b class='flag-5'>部署</b>過程

    AI模型的配置AI模型該怎么做?

    STM32可以跑AI,這個AI模型怎么搞,知識盲區
    發表于 10-14 07:14

    【Sipeed MaixCAM Pro開發板試用體驗】基于MaixCAM-ProAI生成圖像鑒別系統

    能夠有效捕捉AI生成圖像與真實手繪掃描圖像在紋理、筆觸、光影、全局一致性等方面的細微差異。 邊緣端部署:將模型量化、編譯,最終高效運行在算力有限的MaixCAM-Pro開發板上。 實時
    發表于 08-21 13:59

    ai_cube訓練模型最后部署失敗是什么原因?

    ai_cube訓練模型最后部署失敗是什么原因?文件保存路徑里也沒有中文 查看AICube/AI_Cube.log,看看報什么錯?
    發表于 07-30 08:15

    企業部署AI模型怎么做

    當下,AI模型已成為驅動決策自動化、服務智能化與產品創新的核心引擎。然而,企業面對動輒數百億參數的大模型部署時,常陷入算力不足、響應延遲高、成本失控等困境。如何突破瓶頸,實現高效、穩
    的頭像 發表于 06-04 09:26 ?858次閱讀

    如何使用Docker部署模型

    隨著深度學習和大模型的快速發展,如何高效地部署這些模型成為了一個重要的挑戰。Docker 作為一種輕量級的容器化技術,能夠將模型及其依賴環境打包成一個可移植的容器,極大地簡化了
    的頭像 發表于 05-24 16:39 ?1066次閱讀

    AI端側部署開發(SC171開發套件V3)

    AI端側部署開發(SC171開發套件V3) 序列 課程名稱 視頻課程時長 視頻課程鏈接 課件鏈接 工程源碼 1 Fibo AI Stack模型轉化指南------Docker Desk
    發表于 04-16 18:30

    首創開源架構,天璣AI開發套件讓端側AI模型接入得心應手

    模型庫的限制,聯發科還首發了開源彈性架構。區別于過往的開放接口,只能部署特定架構模型,開放彈性架構允許開發者直接調整平臺源代碼,無需等待芯片廠商的支持,即可完成目標或其他自研大模型輕松
    發表于 04-13 19:52

    如何在RAKsmart服務器上實現企業AI模型部署

    AI模型的訓練與部署需要強大的算力支持、穩定的網絡環境和專業的技術管理。RAKsmart作為全球領先的服務器托管與云計算服務提供商,已成為企業部署A
    的頭像 發表于 03-27 09:46 ?913次閱讀

    AI模型端側部署正當時:移遠端側AI模型解決方案,激活場景智能新范式

    AI技術飛速發展的當下,AI模型的應用正從云端向端側加速滲透。作為全球領先的物聯網整體解決方案供應商,移遠通信憑借深厚的技術積累與前瞻性的戰略布局,在AI
    的頭像 發表于 03-26 19:05 ?1232次閱讀
    <b class='flag-5'>AI</b>大<b class='flag-5'>模型</b>端側<b class='flag-5'>部署</b>正當時:移遠端側<b class='flag-5'>AI</b>大<b class='flag-5'>模型</b>解決方案,激活場景智能新范式

    AI Agent 應用與項目實戰》閱讀心得3——RAG架構與部署本地知識庫

    則將檢索到的內容與原始查詢結合,生成最終響應。這種設計使得AI系統能夠突破訓練數據的限制,實現知識的動態更新。書中詳細介紹了RAG的完整工作流程:從數據提取開始,通過文本分割將長文檔切分成適當大小
    發表于 03-07 19:49

    香橙派發布OrangePi 5Plus本地部署Deepseek-R1蒸餾模型指南

    在DeepSeek迅速成為行業焦點之際,香橙派昇騰系列產品已經率先完成了與DeepSeek模型的深度適配,通過在邊緣進行離線部署,幫助用戶實現高效端側智能,確保數據處理的安全性和可控性。緊接著,香橙
    的頭像 發表于 02-19 16:14 ?1804次閱讀
    香橙派發布<b class='flag-5'>OrangePi</b> 5Plus本地<b class='flag-5'>部署</b>Deepseek-R1蒸餾<b class='flag-5'>模型</b>指南