国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

SL1680 SoC本地運行DeepSeek R1 1.5B大模型

jf_59991523 ? 來源:jf_59991523 ? 作者:jf_59991523 ? 2025-04-17 17:09 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

SL1680 SoC本地運行DeepSeek R1 1.5B大模型

自DeepSeek大模型發布以來,深蕾半導體SoC團隊針對在端側運行DeepSeek大模型不斷進行研究,探索將DeepSeek大模型與SoC系列產品相結合的模式。目前已經實現利用深蕾半導體的ASTRA SL1680 SoC本地運行DeepSeek R1 Distill Qwen2.5 1.5B大模型。

DeepSeek R1 Distill Qwen2.5 1.5B是DeepSeek R1發布中最小的模型 - 它可以在ASTRA SL1680上舒適地運行。

一、SL1680本地運行Deepseek-R1-1.5B大模型展示

wKgZO2gAntaAO81xAAeYe0My_Lo217.png

SL1680本地運行Deepseek-R1-1.5B大模型視頻效果

執行過程

要在ASTRA開發板上運行Qwen,我們將使用llama-cpp-python包,它為Georgi Gerganov的llamacpp提供了便捷的Python綁定。

wKgZO2gAnxWAWZV6AAS9_ylq1gM966.png

wKgZO2gAnzCAE_4rAANlmcMqdrY486.png

除了在SL1680本地運行Deepseek-R1-1.5B大模型,還實現了運行Llama 3.2 1B大模型。

運行環境

系統:Linux(yocto)

硬件:SL1680 RDK開發板


產品化路徑

對于SL1680產品如何與大模型結合的問題,建議采用端側大模型與云端大模型相結合的工程化方式處理,本地能處理的用戶任務使用端側大模型快速解決和輸出,而較復雜的邏輯以及聯網功能則通過請求云端大模型API的方式實現。

如視頻所展示的,將Deepseek-R1-1.5B大模型部署到SoC本地,能夠實現知識問答、FuntionCall等AI能力。通過將云端的大模型與端側的語音識別機器視覺功能、端側小參數大模型相結合,從而讓AI賦能我們的產品,提升產品的智能化程度。

二、本地小參數大模型與端云大模型結合的應用場景

1,多媒體終端:本地小參數大模型可在端側如智能大屏,快速處理一些常見的簡單任務,如語音助手對常見指令的快速響應、文本的簡單摘要生成、數據加工整理、設備操控、產品說明、產品售后問題自助解決等。當遇到復雜任務,如深度文本分析、多模態內容生成時,可將任務發送到云側大模型進行處理,利用云側大模型強大的計算能力和豐富的知識儲備來完成。

2,智能辦公設備(MINI PC):本地小參數大模型可以實時處理用戶的語音交互、文字輸入信息處理、智能控制等任務,作為用戶AI助手。而對于一些復雜的邏輯理解、內容生成設計和決策任務等,則借助云側大模型的強大算力和更全面的數據分析能力來完成。

3,零售電商:在商品展示平臺的搜索推薦場景中,本地小參數大模型可以根據用戶在本地設備上的瀏覽歷史、購買行為、環境感知等數據,快速生成初步的推薦結果。當用戶有更復雜的搜索需求,如對比不同商品的詳細參數、詢問商品的使用場景等問題時,云側大模型可以利用其龐大的商品知識庫和強大的語言理解能力,給出更準確、詳細的回答和推薦。

三、ASTRA SL1680 SoC介紹

ASTRA SL1680是一款專為智能應用設計的高性能系統級芯片(SoC),它擁有

1,4*Cortex A73 CPU處理器

Cortex A73是ARM公司設計的一款高性能CPU核心,適用于需要高性能計算的應用場景,能夠提供強大的處理能力和多任務處理能力,為Deepseek-R1-1.5B大模型的運行提供堅實保障。


2,高達7.9 Top NPU算力:

NPU(Neural Processing Unit,神經網絡處理單元)是專門用于加速神經網絡計算的硬件單元。7.9 Top的算力使SL1680在神經網絡計算方面有著極高的性能,為端云結合的應用模式創造了有利條件。


3,64-bit高速內存:

64位內存架構支持更大的內存尋址空間,使得SL1680能夠同時處理更多的數據和運行更復雜的應用程序。高速內存則保證了數據訪問的迅速性,提升了整體性能。

wKgZPGgAn4uAM23GAAvynChu45w281.png




審核編輯 黃宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • soc
    soc
    +關注

    關注

    40

    文章

    4576

    瀏覽量

    229117
  • 大模型
    +關注

    關注

    2

    文章

    3648

    瀏覽量

    5179
  • DeepSeek
    +關注

    關注

    2

    文章

    835

    瀏覽量

    3257
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    太強了!AI PC搭載70B模型,算力狂飆,內存開掛

    DeepSeek-R1不同模型。相對來說,DeepSeek-R1 70B模型或許是日常AI功能的頂格需求,它也是當前高性能AI PC的著力
    的頭像 發表于 03-24 08:52 ?3586次閱讀
    太強了!AI PC搭載70<b class='flag-5'>B</b>大<b class='flag-5'>模型</b>,算力狂飆,內存開掛

    貿澤開售適用于消費電子和工業應用的 Synaptics全新SL1680嵌入式物聯網處理器

    處理器。SL1680是Synaptics的高度集成、AI原生、支持Android ^?^ 和Linux ^?^ 的嵌入式片上系統 (SoC) 處理器中的新成員,專為多模態企業級、消費級和工業物聯網應用優化
    的頭像 發表于 11-21 14:07 ?519次閱讀
    貿澤開售適用于消費電子和工業應用的 Synaptics全新<b class='flag-5'>SL1680</b>嵌入式物聯網處理器

    如何在NVIDIA Blackwell GPU上優化DeepSeek R1吞吐量

    開源 DeepSeek R1 模型的創新架構包含多頭潛在注意力機制 (MLA) 和大型稀疏混合專家模型 (MoE),其顯著提升了大語言模型
    的頭像 發表于 08-12 15:19 ?4263次閱讀
    如何在NVIDIA Blackwell GPU上優化<b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b>吞吐量

    速看!EASY-EAI教你離線部署Deepseek R1模型

    1.Deepseek簡介DeepSeek-R1,是幻方量化旗下AI公司深度求索(DeepSeek)研發的推理模型DeepSeek-R1采用
    的頭像 發表于 07-25 15:22 ?1372次閱讀
    速看!EASY-EAI教你離線部署<b class='flag-5'>Deepseek</b> <b class='flag-5'>R1</b>大<b class='flag-5'>模型</b>

    DeepSeek開源新版R1 媲美OpenAI o3

    ;還有一些網友的實測評價都顯示,?DeepSeek新版R1 的性能可以媲美OpenAI最新的o3模型高版本。妥妥的超高性價比的平替。 此外,關于DeepSeek
    的頭像 發表于 05-29 11:23 ?1107次閱讀

    瑞薩RZ/V2H平臺支持部署離線版DeepSeek -R1大語言模型

    瑞薩RZ/V2H平臺支持部署離線版DeepSeek -R1大語言模型
    的頭像 發表于 05-13 17:07 ?1638次閱讀
    瑞薩RZ/V2H平臺支持部署離線版<b class='flag-5'>DeepSeek</b> -<b class='flag-5'>R1</b>大語言<b class='flag-5'>模型</b>

    【幸狐Omni3576邊緣計算套件試用體驗】CPU部署DeekSeek-R1模型1B和7B

    ,使用如下命令: ollama pull deepseek-r1:1.5b 拉取deepseek-r1 1.5b模型,過程中會下載速度和進
    發表于 04-21 00:39

    DeepSeek R1模型本地部署與產品接入實操

    針對VS680/SL1680系列大算力芯片,我們的研發團隊正在研究將蒸餾后的輕量級DeepSeek模型DeepSeek-R1-Distill-Qwen-1.5B)部署到
    的頭像 發表于 04-19 16:32 ?758次閱讀
    <b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b><b class='flag-5'>模型</b><b class='flag-5'>本地</b>部署與產品接入實操

    ORinNano離線部署Deepseek R1模型教程

    ORinNano離線部署Deepseek R1模型教程
    的頭像 發表于 04-10 15:32 ?1345次閱讀
    ORinNano離線部署<b class='flag-5'>Deepseek</b> <b class='flag-5'>R1</b>大<b class='flag-5'>模型</b>教程

    如何基于Android 14在i.MX95 EVK上運行Deepseek-R1-1.5B和性能

    Internet,或者您可以手動下載模型。按“ ”并選擇 “從Hugging Face添加” 并搜索1.5B,找到deepseek-R1-1.5B模型,下載
    發表于 04-04 06:59

    VS680/SL1680 HDMI Rx 內容分析解決方案

    VS680 HDMI Rx內容分析解決方案,依托VS680/SL1680智能多媒體處理器,實現高清音視頻處理與內容分析。 該方案廣泛應用于家庭影院、戶外大屏等場景,支持視頻超分、內容審核等功能,為用戶提供卓越的智能多媒體處理體驗。
    的頭像 發表于 03-25 16:34 ?993次閱讀
    VS680/<b class='flag-5'>SL1680</b> HDMI Rx 內容分析解決方案

    【幸狐Omni3576邊緣計算套件試用體驗】DeepSeek 部署及測試

    直接拖拽復制; 同理,將 DeepSeek 模型文件 DeepSeek-R1-Distill-Qwen-1.5B_W4A16_RK3576.rkllm 傳輸至板端; 開發板端運行程序
    發表于 03-21 19:31

    博實結完成DeepSeek模型本地化部署

    近日,公司完成DeepSeek R1 671B模型本地化部署。通過構建自主可控的AI基礎設施,公司同步實現研發智能升級、研發成本重構、數據
    的頭像 發表于 03-19 16:31 ?1332次閱讀

    顯存也能疊疊樂,雙 Intel Arc A770 顯卡低成本部署 DeepSeek R1 32B 蒸餾模型體驗

    今年春節后,DeepSeek R1 風暴般地席卷全國,小到手機 App,大到新能源汽車,似乎一夜間所有產品都接入了 DeepSeek R1。不得不說
    的頭像 發表于 03-18 12:06 ?1979次閱讀
    顯存也能疊疊樂,雙 Intel Arc A770 顯卡低成本部署 <b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b> 32<b class='flag-5'>B</b> 蒸餾<b class='flag-5'>模型</b>體驗

    如何使用OpenVINO運行DeepSeek-R1蒸餾模型

    DeepSeek-R1在春節期間引發了全球科技界的熱度,DeepSeek-R1 是由 DeepSeek 開發的開源推理模型,用于解決需要邏輯推理、數學問題解決和實時決策的任務。
    的頭像 發表于 03-12 13:45 ?2375次閱讀
    如何使用OpenVINO<b class='flag-5'>運行</b><b class='flag-5'>DeepSeek-R1</b>蒸餾<b class='flag-5'>模型</b>