伦伦影院久久影视,天天操天天干天天射,ririsao久久精品一区 ,一本大道香蕉大久在红桃,999久久久免费精品国产色夜,色悠悠久久综合88,亚洲国产精品久久无套麻豆,亚洲香蕉毛片久久网站,一本一道久久综合狠狠老

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

SL1680 SoC本地運行DeepSeek R1 1.5B大模型

jf_59991523 ? 來源:jf_59991523 ? 作者:jf_59991523 ? 2025-04-17 17:09 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

SL1680 SoC本地運行DeepSeek R1 1.5B大模型

自DeepSeek大模型發布以來,深蕾半導體SoC團隊針對在端側運行DeepSeek大模型不斷進行研究,探索將DeepSeek大模型與SoC系列產品相結合的模式。目前已經實現利用深蕾半導體的ASTRA SL1680 SoC本地運行DeepSeek R1 Distill Qwen2.5 1.5B大模型。

DeepSeek R1 Distill Qwen2.5 1.5B是DeepSeek R1發布中最小的模型 - 它可以在ASTRA SL1680上舒適地運行。

一、SL1680本地運行Deepseek-R1-1.5B大模型展示

wKgZO2gAntaAO81xAAeYe0My_Lo217.png

SL1680本地運行Deepseek-R1-1.5B大模型視頻效果

執行過程

要在ASTRA開發板上運行Qwen,我們將使用llama-cpp-python包,它為Georgi Gerganov的llamacpp提供了便捷的Python綁定。

wKgZO2gAnxWAWZV6AAS9_ylq1gM966.png

wKgZO2gAnzCAE_4rAANlmcMqdrY486.png

除了在SL1680本地運行Deepseek-R1-1.5B大模型,還實現了運行Llama 3.2 1B大模型。

運行環境

系統:Linux(yocto)

硬件:SL1680 RDK開發板


產品化路徑

對于SL1680產品如何與大模型結合的問題,建議采用端側大模型與云端大模型相結合的工程化方式處理,本地能處理的用戶任務使用端側大模型快速解決和輸出,而較復雜的邏輯以及聯網功能則通過請求云端大模型API的方式實現。

如視頻所展示的,將Deepseek-R1-1.5B大模型部署到SoC本地,能夠實現知識問答、FuntionCall等AI能力。通過將云端的大模型與端側的語音識別機器視覺功能、端側小參數大模型相結合,從而讓AI賦能我們的產品,提升產品的智能化程度。

二、本地小參數大模型與端云大模型結合的應用場景

1,多媒體終端:本地小參數大模型可在端側如智能大屏,快速處理一些常見的簡單任務,如語音助手對常見指令的快速響應、文本的簡單摘要生成、數據加工整理、設備操控、產品說明、產品售后問題自助解決等。當遇到復雜任務,如深度文本分析、多模態內容生成時,可將任務發送到云側大模型進行處理,利用云側大模型強大的計算能力和豐富的知識儲備來完成。

2,智能辦公設備(MINI PC):本地小參數大模型可以實時處理用戶的語音交互、文字輸入信息處理、智能控制等任務,作為用戶AI助手。而對于一些復雜的邏輯理解、內容生成設計和決策任務等,則借助云側大模型的強大算力和更全面的數據分析能力來完成。

3,零售電商:在商品展示平臺的搜索推薦場景中,本地小參數大模型可以根據用戶在本地設備上的瀏覽歷史、購買行為、環境感知等數據,快速生成初步的推薦結果。當用戶有更復雜的搜索需求,如對比不同商品的詳細參數、詢問商品的使用場景等問題時,云側大模型可以利用其龐大的商品知識庫和強大的語言理解能力,給出更準確、詳細的回答和推薦。

三、ASTRA SL1680 SoC介紹

ASTRA SL1680是一款專為智能應用設計的高性能系統級芯片(SoC),它擁有

1,4*Cortex A73 CPU處理器

Cortex A73是ARM公司設計的一款高性能CPU核心,適用于需要高性能計算的應用場景,能夠提供強大的處理能力和多任務處理能力,為Deepseek-R1-1.5B大模型的運行提供堅實保障。


2,高達7.9 Top NPU算力:

NPU(Neural Processing Unit,神經網絡處理單元)是專門用于加速神經網絡計算的硬件單元。7.9 Top的算力使SL1680在神經網絡計算方面有著極高的性能,為端云結合的應用模式創造了有利條件。


3,64-bit高速內存:

64位內存架構支持更大的內存尋址空間,使得SL1680能夠同時處理更多的數據和運行更復雜的應用程序。高速內存則保證了數據訪問的迅速性,提升了整體性能。

wKgZPGgAn4uAM23GAAvynChu45w281.png




審核編輯 黃宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • soc
    soc
    +關注

    關注

    40

    文章

    4599

    瀏覽量

    229635
  • 大模型
    +關注

    關注

    2

    文章

    3710

    瀏覽量

    5229
  • DeepSeek
    +關注

    關注

    2

    文章

    837

    瀏覽量

    3345
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    基于合眾恒躍rk3576?開發板deepseek-r1-1.5b/7b 部署指南

    ? 核心結論:部署流程分為?5?大核心步驟,依次為基礎環境安裝、模型下載、模型格式轉換、部署程序編譯、開發板運行測試,1.5b?模型適配?4
    的頭像 發表于 12-09 07:08 ?591次閱讀
    基于合眾恒躍rk3576?開發板<b class='flag-5'>deepseek-r1-1.5b</b>/7<b class='flag-5'>b</b> 部署指南

    貿澤開售適用于消費電子和工業應用的 Synaptics全新SL1680嵌入式物聯網處理器

    處理器。SL1680是Synaptics的高度集成、AI原生、支持Android ^?^ 和Linux ^?^ 的嵌入式片上系統 (SoC) 處理器中的新成員,專為多模態企業級、消費級和工業物聯網應用優化
    的頭像 發表于 11-21 14:07 ?649次閱讀
    貿澤開售適用于消費電子和工業應用的 Synaptics全新<b class='flag-5'>SL1680</b>嵌入式物聯網處理器

    廣和通成功部署DeepSeek-R1-0528-Qwen3-8B模型

    近日,廣和通在MediaTek MT8893平臺上成功部署并運行DeepSeek-R1-0528-Qwen3-8B模型,顯著提升了端側AI設備的處理效率與智能化水平,特別是在本地化復
    的頭像 發表于 09-26 13:35 ?938次閱讀

    DeepSeek R1 MTP在TensorRT-LLM中的實現與優化

    。我們在之前的博客[1] 中介紹了 DeepSeek-R1 模型實現超低推理延遲的關鍵優化措施。本文將深入探討 TensorRT-LLM 中的 MTP 實現與優化。
    的頭像 發表于 08-30 15:47 ?4553次閱讀
    <b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b> MTP在TensorRT-LLM中的實現與優化

    如何在NVIDIA Blackwell GPU上優化DeepSeek R1吞吐量

    開源 DeepSeek R1 模型的創新架構包含多頭潛在注意力機制 (MLA) 和大型稀疏混合專家模型 (MoE),其顯著提升了大語言模型
    的頭像 發表于 08-12 15:19 ?4375次閱讀
    如何在NVIDIA Blackwell GPU上優化<b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b>吞吐量

    速看!EASY-EAI教你離線部署Deepseek R1模型

    1.Deepseek簡介DeepSeek-R1,是幻方量化旗下AI公司深度求索(DeepSeek)研發的推理模型DeepSeek-R1采用
    的頭像 發表于 07-25 15:22 ?1474次閱讀
    速看!EASY-EAI教你離線部署<b class='flag-5'>Deepseek</b> <b class='flag-5'>R1</b>大<b class='flag-5'>模型</b>

    【VisionFive 2單板計算機試用體驗】3、開源大語言模型部署

    可以看到有個進度條在拉取0.6B的Qwen模型。當然也可以拉去deepseek模型,如下: ./ollama run deepseek-r1
    發表于 07-19 15:45

    【「DeepSeek 核心技術揭秘」閱讀體驗】書籍介紹+第一章讀后心得

    的展望,大模型的訓練方法、推理部署,到 GPU 硬件及推理模型的發展趨勢,以前瞻性的視角為讀者描繪了大模型的發展藍圖。 技驚四座的DeepSeek -
    發表于 07-17 11:59

    DeepSeek開源新版R1 媲美OpenAI o3

    ;還有一些網友的實測評價都顯示,?DeepSeek新版R1 的性能可以媲美OpenAI最新的o3模型高版本。妥妥的超高性價比的平替。 此外,關于DeepSeek
    的頭像 發表于 05-29 11:23 ?1339次閱讀

    ElfBoard技術實戰|ELF 2開發板本地部署DeepSeek模型的完整指南

    ELF 2開發板本地部署DeepSeek模型的完整指南
    的頭像 發表于 05-16 11:13 ?2641次閱讀
    ElfBoard技術實戰|ELF 2開發板<b class='flag-5'>本地</b>部署<b class='flag-5'>DeepSeek</b>大<b class='flag-5'>模型</b>的完整指南

    瑞薩RZ/V2H平臺支持部署離線版DeepSeek -R1大語言模型

    瑞薩RZ/V2H平臺支持部署離線版DeepSeek -R1大語言模型
    的頭像 發表于 05-13 17:07 ?1772次閱讀
    瑞薩RZ/V2H平臺支持部署離線版<b class='flag-5'>DeepSeek</b> -<b class='flag-5'>R1</b>大語言<b class='flag-5'>模型</b>

    【幸狐Omni3576邊緣計算套件試用體驗】CPU部署DeekSeek-R1模型1B和7B

    ,使用如下命令: ollama pull deepseek-r1:1.5b 拉取deepseek-r1 1.5b模型,過程中會下載速度和進
    發表于 04-21 00:39

    DeepSeek R1模型本地部署與產品接入實操

    針對VS680/SL1680系列大算力芯片,我們的研發團隊正在研究將蒸餾后的輕量級DeepSeek模型DeepSeek-R1-Distill-Qwen-1.5B)部署到
    的頭像 發表于 04-19 16:32 ?822次閱讀
    <b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b><b class='flag-5'>模型</b><b class='flag-5'>本地</b>部署與產品接入實操

    ORinNano離線部署Deepseek R1模型教程

    ORinNano離線部署Deepseek R1模型教程
    的頭像 發表于 04-10 15:32 ?1476次閱讀
    ORinNano離線部署<b class='flag-5'>Deepseek</b> <b class='flag-5'>R1</b>大<b class='flag-5'>模型</b>教程

    如何基于Android 14在i.MX95 EVK上運行Deepseek-R1-1.5B和性能

    Internet,或者您可以手動下載模型。按“ ”并選擇 “從Hugging Face添加” 并搜索1.5B,找到deepseek-R1-1.5B模型,下載
    發表于 04-04 06:59