国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

愛芯通元NPU完成Llama 3和Phi-3大模型適配,推動AI大模型技術普及

愛芯元智AXERA ? 來源:愛芯元智AXERA ? 2024-04-26 16:57 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

背景

AI大模型技術的持續(xù)進步正在推動千行百業(yè)智能化升級。近日,Meta、Microsoft相繼發(fā)布具有里程碑意義的Llama 3系列和Phi-3系列模型,其中Llama 3包括8B、70B兩種規(guī)格,Phi-3包括mini(3.8B)、small(7B)、medium(14B)三種規(guī)格。為了進一步給開發(fā)者提供更多嘗鮮,愛芯元智的NPU工具鏈團隊迅速響應,已基于AX650N平臺完成 Llama 3 8B和Phi-3-mini模型適配。

Llama 3

上周五,Meta發(fā)布了Meta Llama 3系列語言模型(LLM),具體包括一個8B模型和一個70B模型在測試基準中,Llama 3模型的表現相當出色,在實用性和安全性評估中,與那些市面上流行的閉源模型不相上下。

ef8a8238-03a9-11ef-a297-92fbcf53809c.png

在架構層面,Llama 3選擇了標準的僅解碼(decoder-only)式Transformer架構,采用包含128K token詞匯表的分詞器。Llama 3使用了超過15T的公開數據進行訓練,其中5%為非英文數據,涵蓋30多種語言,訓練數據量是前代Llama 2的七倍。

根據Meta的測試結果,Llama 3 8B模型在MMLU、GPQA、HumanEval等多項性能基準上均超過了Gemma 7B和Mistral 7B Instruct,70B模型則超越了名聲在外的閉源模型Claude 3的中間版本Sonnet,和谷歌的Gemini Pro 1.5相比三勝兩負。

efa71060-03a9-11ef-a297-92fbcf53809c.png

實際上板結果

目前AX650N已經完成了Llama 3 8B Int8版本的適配,若采用Int4量化,每秒token數還能再翻一倍,能滿足正常的人機交流。

Phi-3

Llama 3剛發(fā)布沒多久,競爭對手就來了,而且是可以在手機上運行的小體量模型。

本周二,微軟發(fā)布了自研小尺寸模型Phi-3。盡管Phi-3-mini被優(yōu)化至可部署在手機上,但它的性能可以與Mixtral 8x7B和GPT-3.5等模型相媲美。微軟表示,該創(chuàng)新主要在于用了質量更好的訓練數據集。

efcbd13e-03a9-11ef-a297-92fbcf53809c.jpg

efe2ec48-03a9-11ef-a297-92fbcf53809c.png

實際上板結果

目前AX650N已經完成了Phi-3-mini Int8版本的適配,已能滿足正常的人機交流。

其他成果

AX650N能第一時間完成Llama 3和Phi-3的適配,源于今年以來相關團隊悄悄完成了現有NPU工具鏈針對大語言模型的支持和調優(yōu)。目前除了Llama 3之外,已經完成了Llama 2、TinyLlama、Phi-2、Qwen1.5、ChatGLM3等國內外主流的開源大語言模型適配。



審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NPU
    NPU
    +關注

    關注

    2

    文章

    373

    瀏覽量

    21101
  • 愛芯元智
    +關注

    關注

    1

    文章

    128

    瀏覽量

    5514
  • LLM
    LLM
    +關注

    關注

    1

    文章

    346

    瀏覽量

    1332
  • AI大模型
    +關注

    關注

    0

    文章

    398

    瀏覽量

    999

原文標題:愛芯通元NPU完成Llama 3和Phi-3大模型適配,推動AI大模型技術應用普及

文章出處:【微信號:愛芯元智AXERA,微信公眾號:愛芯元智AXERA】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    智邊緣AI芯片AX8850完成CosyVoice2大模型適配

    今年下半年,隨著業(yè)務推廣需求增加,我們的大模型適配工作也有了新方向:不再只追求前沿模型的快速適配,而是更聚焦為銷售團隊提供“能打”的實戰(zhàn)“彈藥”——也就是貼近客戶剛需的、可快速落地的大
    的頭像 發(fā)表于 12-11 10:35 ?5248次閱讀
    <b class='flag-5'>愛</b><b class='flag-5'>芯</b><b class='flag-5'>元</b>智邊緣<b class='flag-5'>AI</b>芯片AX8850<b class='flag-5'>完成</b>CosyVoice2大<b class='flag-5'>模型</b><b class='flag-5'>適配</b>

    【CIE全國RISC-V創(chuàng)新應用大賽】基于 K1 AI CPU 的大模型部署落地

    llama.cpp 引擎本身兼容 Q2_K,Spacemit 的硬件加速(X60 NPU)通常對矩陣乘法通用,即使 NPU 不支持 Q2,CPU (RVV) 也會自動接管,保證任務“成功
    發(fā)表于 11-27 14:43

    智邊緣AI芯片AX8850完成Qwen3-VL多模態(tài)大模型適配

    適配 Qwen3-VL-2B/4B/8B 到 AX8850 開發(fā)板和 M.2 算力卡,可在本地完成圖片內容理解和視頻概要生成,可配合“樹莓派5”使用。
    的頭像 發(fā)表于 11-26 13:57 ?2963次閱讀
    <b class='flag-5'>愛</b><b class='flag-5'>芯</b><b class='flag-5'>元</b>智邊緣<b class='flag-5'>AI</b>芯片AX8850<b class='flag-5'>完成</b>Qwen<b class='flag-5'>3</b>-VL多模態(tài)大<b class='flag-5'>模型</b><b class='flag-5'>適配</b>

    如何利用NPU模型壓縮技術優(yōu)化邊緣AI

    AI 模型體積龐大,部署在 NPU上常常面臨困難,這凸顯了模型壓縮技術的重要性。要實現高效的實時邊緣
    的頭像 發(fā)表于 11-07 15:26 ?1262次閱讀
    如何利用<b class='flag-5'>NPU</b>與<b class='flag-5'>模型</b>壓縮<b class='flag-5'>技術</b>優(yōu)化邊緣<b class='flag-5'>AI</b>

    智亮相2025全球AI芯片峰會

    2025全球AI芯片峰會(GACS 2025)近日在上海召開,智聯(lián)合創(chuàng)始人、副總裁劉建偉出席活動,并于“大模型
    的頭像 發(fā)表于 09-26 15:49 ?976次閱讀

    基于米爾瑞微RK3576開發(fā)板的Qwen2-VL-3B模型NPU多模態(tài)部署評測

    關鍵詞:瑞微 RK3576、NPU(神經網絡處理器)、端側小語言模型(SLM)、多模態(tài) LLM、邊緣 AI 部署、開發(fā)板、RKLLM隨著大語言
    發(fā)表于 08-29 18:08

    硬件與應用同頻共振,英特爾Day 0適配騰訊開源混模型

    今日,騰訊正式發(fā)布新一代混開源大語言模型。英特爾憑借在人工智能領域的全棧技術布局,現已在英特爾? 酷睿? Ultra 平臺上完成針對該模型
    的頭像 發(fā)表于 08-07 14:42 ?1370次閱讀
    硬件與應用同頻共振,英特爾Day 0<b class='flag-5'>適配</b>騰訊開源混<b class='flag-5'>元</b>大<b class='flag-5'>模型</b>

    智攜手靈境聲學推出“聲”音頻解決方案

    Umix AI”全景聲行業(yè)大模型的專屬音頻芯片方案——“聲”。該方案搭載靈境聲學自研的“靈境Umix
    的頭像 發(fā)表于 08-01 10:43 ?4842次閱讀

    智亮相2025世界人工智能大會

    近日,2025年世界人工智能大會(WAIC 2025)正式開幕,智作為行業(yè)領先的人工智能感知與邊緣計算芯片創(chuàng)新研發(fā)企業(yè),再次亮相展會。在這場為期3天的展會上,
    的頭像 發(fā)表于 08-01 10:41 ?1684次閱讀

    使用 NPU 插件對量化的 Llama 3.1 8b 模型進行推理時出現“從 __Int64 轉換為無符號 int 的錯誤”,怎么解決?

    安裝了 OpenVINO? GenAI 2024.4。 使用以下命令量化 Llama 3.1 8B 模型: optimum-cli export openvino -m meta-llama
    發(fā)表于 06-25 07:20

    壁仞科技完成Qwen3旗艦模型適配

    近日,在高效適配Qwen3系列模型推理后,壁仞科技宣布完成旗艦版Qwen3-235B-A22B模型
    的頭像 發(fā)表于 05-16 16:23 ?993次閱讀

    MediaTek天璣9400率先完成阿里Qwen3模型部署

    通義大模型團隊在天璣 9400 旗艦移動平臺上率先完成 Qwen3(千問 3)的端側部署。未來,搭載天璣 9400 移動平臺的設備可充分發(fā)揮端側 A
    的頭像 發(fā)表于 05-08 10:11 ?1328次閱讀

    后摩智能NPU適配通義千問Qwen3系列模型

    近日,阿里云重磅推出Qwen3 系列開源混合推理模型。用時不到1天,后摩智能自研NPU迅速實現Qwen3 系列模型(Qwen
    的頭像 發(fā)表于 05-07 16:46 ?1389次閱讀

    NPU適配Qwen2.5-VL-3B視覺多模態(tài)大模型

    熟悉NPU的網友很清楚,從去年開始我們在端側多模態(tài)大模型適配上一直處于主動緊跟的節(jié)奏。先
    的頭像 發(fā)表于 04-21 10:56 ?3153次閱讀
    <b class='flag-5'>愛</b><b class='flag-5'>芯</b>通<b class='flag-5'>元</b><b class='flag-5'>NPU</b><b class='flag-5'>適配</b>Qwen2.5-VL-<b class='flag-5'>3</b>B視覺多模態(tài)大<b class='flag-5'>模型</b>

    首創(chuàng)開源架構,天璣AI開發(fā)套件讓端側AI模型接入得心應手

    AI的演進正在逼近“終端智能涌現”的拐點,從通用模型向場景落地遷移成為關鍵議題。聯(lián)發(fā)科以“AI,應用無界”為主題召開天璣開發(fā)者大會2025(MDDC 2025),不僅聚合了全球生態(tài)
    發(fā)表于 04-13 19:52