伦伦影院久久影视,天天操天天干天天射,ririsao久久精品一区 ,一本大道香蕉大久在红桃,999久久久免费精品国产色夜,色悠悠久久综合88,亚洲国产精品久久无套麻豆,亚洲香蕉毛片久久网站,一本一道久久综合狠狠老

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

鯤云科技AI芯片CAISA 430成功適配DeepSeek R1模型

鯤云科技 ? 來源:鯤云科技 ? 2025-02-07 09:57 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

鯤云科技全新一代的可重構數據流 AI 芯片 CAISA 430 成功適配 DeepSeek R1 蒸餾模型推理,這一創新舉措為大模型應用的高效部署帶來了全新的解決方案,標志著可重構數據流 AI 技術與大模型融合發展的又一重要里程碑,也展示了鯤云科技的可重構數據流技術的技術通用性和生態友好。

全新一代可重構數據流 AI 芯片 CAISA 430

此次適配的 CAISA 430 芯片是鯤云科技基于第四代可重構數據流架構技術研發,于 2023 年底回片,并于 2024 年實現量產,相較于上一代產品,其實測性能、通用性等關鍵指標實現了跨越性提升。該芯片采用國內成熟的 12nm 制程工藝生產,端到端芯片利用率最高可達 90%,有效算力指標表現突出。此外,憑借鯤云自主研發的 RainBuilder 編譯工具鏈,CAISA 430 支持所有常用的 AI 算子和算法模型,展現出強大的通用性,可以滿足不同深度學習算法的推理需求。

7af83a84-e475-11ef-9310-92fbcf53809c.png

▲ Rainbuilder 編譯工具鏈

鯤云科技基于 CAISA 芯片推出了一系列 AI 算力產品,包括面向邊緣端、數據中心進行深度學習推斷的 AI 專用計算加速的星空加速卡 X3、X3A、N460H,面向低算力場景的星空 X6A、N430S/P/E 邊緣小站,以及基于星空加速卡系列推出的智能計算服務器等,為計算機視覺、語音語義及大模型應用提供高性能、低延時、高算力性價比的 AI 算力支持。

高效適配,為 DeepSeek R1 推理提供底層 AI 算力支持

DeepSeek R1 作為一款先進的推理模型,基于 Transformer 架構,其參數規模龐大,對硬件的計算能力和內存容量提出了極高要求。CAISA 430 芯片憑借其高算力性價比和強大的通用性,能夠為 DeepSeek R1 推理提供有力支持。CAISA 430 的高芯片利用率確保了在處理大規模模型時能夠充分利用硬件資源,減少計算資源的浪費,從而提高推理效率。同時,CAISA 430 的可重構數據流架構能夠根據 DeepSeek R1模型的特點進行動態配置,生成面向該模型的高性能定制化流水線,進一步優化推理性能。

7b11bcd4-e475-11ef-9310-92fbcf53809c.png

▲ DeepSeek R1 Llama 8B模型在RainBuilder上編譯過程圖示

鑒于 CAISA 430 強大的通用性,原生支持 DeepSeek R1 蒸餾模型的開源基礎模型,DeepSeek R1 的QWen和 Llama 模型可直接在 CAISA 430 上運行,不需要復雜的適配工作,技術團隊主要進行了精度驗證和性能優化,適配模型包括已發布的 DeepSeek-R1-Distill-Qwen-1.5B、DeepSeek-R1-Distill-Qwen-7B、DeepSeek-R1-Distill-Qwen-14B、DeepSeek-R1-Distill-Qwen-32B、DeepSeek-R1-Distill-Llama-8B、DeepSeek-R1-Distill-Llama-70B。

7b2d1b28-e475-11ef-9310-92fbcf53809c.png

▲ DeepSeek R1 Llama 8B模型運行圖示

大模型友好:助力 AI 應用高效部署,加速人工智能落地

在大模型時代,如何高效地部署和運行這些模型成為了一個關鍵問題。CAISA 430 芯片的適配為 DeepSeek R1 推理提供了更加靈活和高效的解決方案,能夠為不同規模和需求的 AI 項目提供底層算力支持。

高精度和強大推理能力的應用場景,CAISA 430 能夠充分發揮其高實測性能的優勢,滿足 DeepSeek R1 模型的計算需求。

對資源有限的應用場景,CAISA 430 的通用性和可重構性讓用戶可以根據實際情況對模型進行優化和調整,降低硬件資源的消耗。

基于可重構數據流架構底層優勢,適配后的CAISA430芯片算力產品的優勢主要體現在:

產品形態多樣:支持邊緣盒子、一體機、AI 服務器、算力中心服務器集群等邊緣至中心不同產品形態,適配不客戶不同場景的AI推理需求;

適配算法豐富:配套的星云 AI 開發平臺支持超過 400 種視覺模型、視覺大模型、大語言模型等算法模型,可靈活搭配按需使用,無論是復雜的視覺識別任務還是大規

模的語言處理應用,都能高效運行;

行業方案落地:配套的星空系列算力平臺,提供深入行業、滿足行業需求的 AI 解決方案,當前已落地覆蓋超過 30 個行業,幫助客戶加速落地智能化項目。

截止到目前,CAISA 系列芯片產品已服務上千客戶,落地 5000+項目,實現規模化的業務落地,充分驗證了商業可行性。

CAISA 芯片在短時間內快速完成DeepSeek R1 大模型適配,充分展示了 CAISA 系列可重構數據流架構芯片在高算力利用率的同時,可以做到對于深度學習算法的通用、便捷、快速支持,體現了 CAISA 芯片與工具鏈經過 4 代架構迭代后的深厚積累。未來,鯤云科技將沿著 CAISA 創新架構的全新技術路線,提供下一代計算平臺基座,加速千行百業人工智能產品落地。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    91

    文章

    40579

    瀏覽量

    302225
  • 鯤云科技
    +關注

    關注

    0

    文章

    61

    瀏覽量

    4597
  • DeepSeek
    +關注

    關注

    2

    文章

    837

    瀏覽量

    3354

原文標題:鯤云科技CAISA 430適配DeepSeek R1推理,開啟高效AI應用新時代

文章出處:【微信號:鯤云科技,微信公眾號:鯤云科技】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    【硬核搭檔】迅為RK3588成功適配飛牛FnNAS,你的私有迎來性能猛獸!

    【硬核搭檔】迅為RK3588成功適配飛牛FnNAS,你的私有迎來性能猛獸!
    的頭像 發表于 02-25 15:43 ?938次閱讀
    【硬核搭檔】迅為RK3588<b class='flag-5'>成功</b><b class='flag-5'>適配</b>飛牛FnNAS,你的私有<b class='flag-5'>云</b>迎來性能猛獸!

    廣和通成功部署DeepSeek-R1-0528-Qwen3-8B模型

    近日,廣和通在MediaTek MT8893平臺上成功部署并運行了DeepSeek-R1-0528-Qwen3-8B模型,顯著提升了端側AI設備的處理效率與智能化水平,特別是在本地化復
    的頭像 發表于 09-26 13:35 ?956次閱讀

    DeepSeek R1 MTP在TensorRT-LLM中的實現與優化

    。我們在之前的博客[1] 中介紹了 DeepSeek-R1 模型實現超低推理延遲的關鍵優化措施。本文將深入探討 TensorRT-LLM 中的 MTP 實現與優化。
    的頭像 發表于 08-30 15:47 ?4591次閱讀
    <b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b> MTP在TensorRT-LLM中的實現與優化

    科技AI視頻解決方案推動食品安全智慧監管

    深圳作為全國科技創新高地,持續推動人工智能技術在城市治理中的深度應用。科技憑借自主研發的可重構數據流 AI 芯片 CAISA 及多場景算
    的頭像 發表于 08-20 17:50 ?1425次閱讀

    如何在NVIDIA Blackwell GPU上優化DeepSeek R1吞吐量

    開源 DeepSeek R1 模型的創新架構包含多頭潛在注意力機制 (MLA) 和大型稀疏混合專家模型 (MoE),其顯著提升了大語言模型
    的頭像 發表于 08-12 15:19 ?4421次閱讀
    如何在NVIDIA Blackwell GPU上優化<b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b>吞吐量

    速看!EASY-EAI教你離線部署Deepseek R1模型

    1.Deepseek簡介DeepSeek-R1,是幻方量化旗下AI公司深度求索(DeepSeek)研發的推理模型
    的頭像 發表于 07-25 15:22 ?1509次閱讀
    速看!EASY-EAI教你離線部署<b class='flag-5'>Deepseek</b> <b class='flag-5'>R1</b>大<b class='flag-5'>模型</b>

    【「DeepSeek 核心技術揭秘」閱讀體驗】書籍介紹+第一章讀后心得

    提升,達到 60TPS。 從書上得知,DeepSeek-V3的訓練成本只需五百萬美元,堪比AI領域的拼多多。而且其準確率在某幾項評測指標上也達到了不錯的水平 DeepSeek模型家族
    發表于 07-17 11:59

    信而泰×DeepSeekAI推理引擎驅動網絡智能診斷邁向 “自愈”時代

    DeepSeek-R1:強大的AI推理引擎底座DeepSeek是由杭州深度求索人工智能基礎技術研究有限公司開發的新一代AI模型。其核心優勢
    發表于 07-16 15:29

    超低延時重構AI推理體驗!白山發布“大模型API”產品

    白山科技正式發布“大模型API”產品,首發上線DeepSeek-R1-0528、DeepSeek-R1-0528-Qwen3-8B、Qwen3-32B-FP8等大語言
    的頭像 發表于 07-02 17:26 ?1210次閱讀
    超低延時重構<b class='flag-5'>AI</b>推理體驗!白山<b class='flag-5'>云</b>發布“大<b class='flag-5'>模型</b>API”產品

    DeepSeek開源新版R1 媲美OpenAI o3

    ;還有一些網友的實測評價都顯示,?DeepSeek新版R1 的性能可以媲美OpenAI最新的o3模型高版本。妥妥的超高性價比的平替。 此外,關于DeepSeek
    的頭像 發表于 05-29 11:23 ?1369次閱讀

    瑞薩RZ/V2H平臺支持部署離線版DeepSeek -R1大語言模型

    瑞薩RZ/V2H平臺支持部署離線版DeepSeek -R1大語言模型
    的頭像 發表于 05-13 17:07 ?1793次閱讀
    瑞薩RZ/V2H平臺支持部署離線版<b class='flag-5'>DeepSeek</b> -<b class='flag-5'>R1</b>大語言<b class='flag-5'>模型</b>

    DeepSeek R1模型本地部署與產品接入實操

    針對VS680/SL1680系列大算力芯片,我們的研發團隊正在研究將蒸餾后的輕量級DeepSeek模型DeepSeek-R1-Distill-Qwen-1.5B)部署到SOC本地,以
    的頭像 發表于 04-19 16:32 ?829次閱讀
    <b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b><b class='flag-5'>模型</b>本地部署與產品接入實操

    SL1680 SoC本地運行DeepSeek R1 1.5B大模型

    深蕾半導體SL1680 SoC本地成功運行DeepSeek R1 Distill Qwen2.5 1.5B大模型,展示了執行過程及本地小參數大模型
    的頭像 發表于 04-17 17:09 ?1043次閱讀
    SL1680 SoC本地運行<b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b> 1.5B大<b class='flag-5'>模型</b>

    科大訊飛深度解析DeepSeek-V3/R1推理系統成本

    本篇分析來自科大訊飛技術團隊,深度解析了DeepSeek-V3 / R1 推理系統成本,旨在助力開發者實現高性價比的MoE集群部署方案。感謝訊飛研究院副院長&AI工程院常務副院長龍明康、AI
    的頭像 發表于 04-15 13:46 ?4302次閱讀
    科大訊飛深度解析<b class='flag-5'>DeepSeek</b>-V3/<b class='flag-5'>R1</b>推理系統成本

    ORinNano離線部署Deepseek R1模型教程

    ORinNano離線部署Deepseek R1模型教程
    的頭像 發表于 04-10 15:32 ?1505次閱讀
    ORinNano離線部署<b class='flag-5'>Deepseek</b> <b class='flag-5'>R1</b>大<b class='flag-5'>模型</b>教程