国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Ambarella展示了在其CV3-AD芯片上運行LLM的能力

Astroys ? 來源:Astroys ? 2023-11-28 09:05 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Ambarella前不久展示了在其CV3-AD芯片上運行LLM的能力。這款芯片是CV3系列中最強大的,專為自動駕駛設計。

CV3-AD一年前開始出樣,使用Ambarella現有的AI軟件堆棧,運行Llama2-13B模型時,可以實現每秒推理25個token。

Ambarella的CEO Fermi Wang表示:“當transformer在今年早些時候變得流行時,我們開始問自己,我們擁有一個強大的推理引擎,我們能做到嗎?我們進行了一些快速研究,發現我們確實可以。我們估計我們的性能可能接近Nvidia A100。”

Ambarella工程師正在展示Llama2-13B在CV3-AD上的實時演示,CV3-AD是一款50W的自動駕駛芯片。

Ambarella芯片上的CVFlow引擎包括其NVP(Neural Vector Processor)和一個GVP(General Vector Processor),演示中的LLM正在NVP上運行。NVP采用數據流架構,Ambarella已將諸如卷積之類的高級運算符指令組合成圖表,描述數據如何通過處理器進行該運算符的處理。所有這些運算符之間的通信都使用片上內存完成。CV3系列使用LPDDR5(而非HBM),功耗約為50W。

268a3c3c-8d86-11ee-939d-92fbcf53809c.png

Ambarella的CTO Les Kohn表示,LLM演示確實需要一些新軟件。實現transformer架構核心操作的構建模塊,目前這些操作針對的是像Llama2這樣的模型。

他說:“隨著時間的推移,我們將擴展這些功能以覆蓋其它模型,但Llama2正在成為開源世界的事實標準。這絕對是一項不小的投資,但與從頭開始開發軟件相比,還差得遠。”

Edge LLM發展路線圖?????

Wang表示:“現在我們知道我們擁有這項技術,我們可以解決一些實際問題。如果你與LLM的研發人員交談,問他們最頭疼的是什么,一個顯然是價格,另一個是功耗。”

CV3-AD設計用于50W的功率范圍(包括整個芯片的功率,不僅僅是AI加速器)。因此,Wang希望Ambarella能夠以大約四分之一的功耗,為LLM提供與A100相似的性能。

他說:“這意味著對于固定的數據中心功率,我可以增加四倍的AI性能。這是巨大的價值。盡管這種想法很簡單,但我們相信我們可以為渴望使用LLM的任何人提供價值。在過去的六個月里,渴望使用LLM的人數迅速增加。”

雖然超大規模計算中心可能是首批跟進LLM趨勢的,但Ambarella在安防攝像頭和汽車領域的現有客戶開始考慮如何在他們的邊緣系統中實施LLM,以及LLM將如何實施他們的發展路線圖。

Wang說:“我們相信LLM將成為我們需要在路線圖中為當前客戶提供的重要技術。當前的CV3可以運行LLM,而無需Ambarella進行太多額外的工程投資,所以這對我們來說并非分心之事。我們當前的市場在他們的路線圖中已經有了LLM。” 多模態AI???? Kohn指出,在邊緣計算中,具有生成文本和圖像能力的大型多模態生成型AI潛力日益增大。

他說:“對于像機器人這樣的應用,transformer網絡已經可以用于計算機視覺處理,這比任何傳統計算機視覺模型都要強大,因為這種模型可以處理零樣本學習,這是小模型無法做到的。”

零樣本學習指的是模型能夠推斷出在其訓練數據中未出現的對象類別的信息。這意味著模型可以以更強大的方式預測和處理邊緣情況,這在自動系統中尤其重要。

他補充說:“自動駕駛本質上是一種機器人應用:如果你看看L4/L5系統需要什么,很明顯你需要更強大、更通用的AI模型,這些模型能以更類似于人類的方式理解世界,超越我們今天的水平。我們將這看作是為各種邊緣應用獲取更強大的AI處理能力的一種方式。”

LLM發展路線圖??

問及Ambarella是否會制造專門針對LLM的邊緣芯片時,Wang表示:“這可能是我們需要考慮的事情。我們需要一個具有更多AI性能的LLM路線圖。LLM本身需要大量的DRAM帶寬,這幾乎使得在芯片上集成其他功能變得不可能(因為其他功能也需要DRAM帶寬)。”

Wang說,盡管在某些人看來,一個大型信息娛樂芯片應該能夠同時處理其他工作負載和LLM,但目前這是不可能的。LLM所需的性能和帶寬或多或少地需要一個單獨的加速器。

Kohn補充說:“這取決于模型的大小。我們可能會看到目前使用的模型比較小的版本應用于像機器人學這樣的領域,因為它們不需要處理大型模型所做的所有通用事務。但與此同時,人們希望有更強大的性能。所以,我認為最終我們將看到未來更優化的解決方案,它們將被應用于不同的價格/性能點。”

在邊緣計算之外,CV3系列也有可能在數據中心中使用。Kohn說,CV3系列有多個PCIe接口,這在多芯片系統中可能很有用。他還補充說,該公司已經有一個可以利用的PCIe卡。

Wang表示:“對我們來說,真正的問題是,‘我們能否將當前產品和未來產品銷售到超大規模計算中心或基于云的解決方案中?’這是一個我們還沒有回答的問題,但我們已經確認了技術的可行性,并且我們有一些差異化。我們知道我們可以將這種產品銷售到邊緣設備和邊緣服務器。我們正在制定一個計劃,希望如果我們想要進入基于云的解決方案,我們可以證明進一步投資是合理的。”







審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 處理器
    +關注

    關注

    68

    文章

    20170

    瀏覽量

    247988
  • 機器人
    +關注

    關注

    213

    文章

    30665

    瀏覽量

    220033
  • LPDDR5
    +關注

    關注

    2

    文章

    92

    瀏覽量

    13194
  • 自動駕駛芯片

    關注

    3

    文章

    48

    瀏覽量

    5405
  • LLM
    LLM
    +關注

    關注

    1

    文章

    341

    瀏覽量

    1272

原文標題:Ambarella展示在自動駕駛芯片上的LLM推理能力

文章出處:【微信號:Astroys,微信公眾號:Astroys】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    客戶案例 | Imagination GPU助力安霸 CV3-AD655 環視系統

    安霸的CV3-AD655智能駕駛AI域控制器將高能效計算能力與Imagination的IMGBXMGPU相結合,為L2++/L3級車輛實現實時環視可視化。本案例介紹行業正向集中式域控
    的頭像 發表于 11-14 10:29 ?1830次閱讀
    客戶案例 | Imagination GPU助力安霸 <b class='flag-5'>CV3</b>-AD655 環視系統

    【CIE全國RISC-V創新應用大賽】+ 一種基于LLM的可通過圖像語音控制的元件庫管理工具

    成本下長時間的維持運營一個良好的庫存環境。本項目實現多模態同步,在項目中聯合調用了CV(OCR),ASR,LLM。 主要功能構想 ? 1.實現用戶將采購單或元器件標簽或元器件(下文稱輸入資料)放置或
    發表于 11-12 19:32

    NVIDIA TensorRT LLM 1.0推理框架正式上線

    ,TensorRT LLM 還承擔著推理領域新技術載體的角色,通過將前沿創新引入 LLM 推理生態,持續提升整個生態系統合作伙伴的技術能力
    的頭像 發表于 10-21 11:04 ?835次閱讀

    米爾RK3576部署端側多模態多輪對話,6TOPS算力驅動30億參數LLM

    話:基于歷史回答圖中女孩頭發和衣服分別是什么顏色 一次我們詳細講解在RK3576上部署多模態模型的案例,這次將繼續講解多輪對話的部署流程。整體流程基于 rknn-llm 里的多輪對話案例[1
    發表于 09-05 17:25

    如何在魔搭社區使用TensorRT-LLM加速優化Qwen3系列模型推理部署

    TensorRT-LLM 作為 NVIDIA 專為 LLM 推理部署加速優化的開源庫,可幫助開發者快速利用最新 LLM 完成應用原型驗證與產品部署。
    的頭像 發表于 07-04 14:38 ?1800次閱讀

    使用 llm-agent-rag-llamaindex 筆記本時收到的 NPU 錯誤怎么解決?

    使用 conda create -n ov-nb-demos python=3.11 創建運行 llm-agent-rag-llamaindex notebook 的環境。 執行“創建
    發表于 06-23 06:26

    LM Studio使用NVIDIA技術加速LLM性能

    隨著 AI 使用場景不斷擴展(從文檔摘要到定制化軟件代理),開發者和技術愛好者正在尋求以更 快、更靈活的方式來運行大語言模型(LLM)。
    的頭像 發表于 06-06 15:14 ?873次閱讀
    LM Studio使用NVIDIA技術加速<b class='flag-5'>LLM</b>性能

    詳解 LLM 推理模型的現狀

    2025年,如何提升大型語言模型(LLM)的推理能力成了最熱門的話題之一,大量優化推理能力的新策略開始出現,包括擴展推理時間計算、運用強化學習、開展監督微調和進行提煉等。本文將深入探討LLM
    的頭像 發表于 04-03 12:09 ?1306次閱讀
    詳解 <b class='flag-5'>LLM</b> 推理模型的現狀

    無法在OVMS運行來自Meta的大型語言模型 (LLM),為什么?

    無法在 OVMS 運行來自 Meta 的大型語言模型 (LLM),例如 LLaMa2。 從 OVMS GitHub* 存儲庫運行 llama_chat Python* Demo 時
    發表于 03-05 08:07

    新品| LLM630 Compute Kit,AI 大語言模型推理開發平臺

    處理器,集成了3.2TOPs@INT8算力的高能效NPU,提供強大的AI推理能力,能夠高效執行復雜的視覺(CV)及大語言模型(LLM)任務,滿足各類智能應用場景的需求
    的頭像 發表于 01-17 18:48 ?1235次閱讀
    新品| <b class='flag-5'>LLM</b>630 Compute Kit,AI 大語言模型推理開發平臺

    海力士展示AI專用計算內存解決方案AiMX-xPU

    在Hot Chips 2024,海力士專注于AI加速器的標準DRAM之外的產品。該公司展示其在內存計算方面的最新進展,這次是用其AiMX-xPU和LPDDR-AiM進行LLM推理。
    的頭像 發表于 01-09 16:08 ?1294次閱讀
    海力士<b class='flag-5'>展示</b>AI專用計算內存解決方案AiMX-xPU

    小白學大模型:構建LLM的關鍵步驟

    隨著大規模語言模型(LLM)在性能、成本和應用前景的快速發展,越來越多的團隊開始探索如何自主訓練LLM模型。然而,是否從零開始訓練一個LLM,并非每個組織都適合。本文將根據不同的需求
    的頭像 發表于 01-09 12:12 ?1597次閱讀
    小白學大模型:構建<b class='flag-5'>LLM</b>的關鍵步驟

    安霸發布N1-655前端生成式AI芯片

    Ambarella(下稱“安霸”,納斯達克股票代碼:AMBA,AI 視覺感知芯片公司)在 CES 發布 N1-655 前端生成式 AI 芯片
    的頭像 發表于 01-09 10:29 ?1530次閱讀

    ADS1278電后運行一段時間后DRDY信號就沒有,為什么?

    。沒有辦法,我們重新焊接了3塊樣板,但這 3 塊怎么都沒有 DRDY 信號出現,后來我們將第一塊運行一段時間 DRDY 信號丟失的那個 ADS1278 芯片和后來的樣板
    發表于 01-09 07:55

    Neuchips展示大模型推理ASIC芯片

    領先的AI專用集成電路(ASIC)解決方案提供商Neuchips在CES 2024展示其革命性的Raptor Gen AI加速芯片(以前稱為N3000)和Evo PCIe加速卡
    的頭像 發表于 01-06 17:30 ?1306次閱讀