国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

采用創(chuàng)新的FPGA 器件來實(shí)現(xiàn)更經(jīng)濟(jì)且更高能效的大模型推理解決方案

互聯(lián)網(wǎng)資訊 ? 來源:馬華1 ? 作者:馬華1 ? 2024-06-19 15:53 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者:Bob Siller,Achronix半導(dǎo)體產(chǎn)品營銷總監(jiān)

摘要:本文根據(jù)完整的基準(zhǔn)測(cè)試,將Achronix Semiconductor公司推出的Speedster7t FPGAGPU解決方案進(jìn)行比較,在運(yùn)行同一個(gè)Llama2 70B參數(shù)模型時(shí),該項(xiàng)基于FPGA的解決方案實(shí)現(xiàn)了超越性的LLM推理處理。

采用 FPGA器件來加速LLM性能,在運(yùn)行 Llama2 70B參數(shù)模型時(shí),Speedster7t FPGA如何與 GPU解決方案相媲美?證據(jù)是令人信服的——Achronix Speedster7t FPGA通過提供計(jì)算能力、內(nèi)存帶寬和卓越能效的最佳組合,在處理大型語言模型(LLM)方面表現(xiàn)出色,這是當(dāng)今LLM復(fù)雜需求的基本要求。

像 Llama2這樣的 LLM的快速發(fā)展正在為自然語言處理(NLP)開辟一條新路線,有望提供比以往任何時(shí)候都更像人類的交互和理解。這些復(fù)雜的 LLM是創(chuàng)新的催化劑,推動(dòng)了對(duì)先進(jìn)硬件解決方案的需求,以滿足其密集處理需求。

我們的基準(zhǔn)測(cè)試突出了 Speedster7t系列處理 Llama2 70B模型復(fù)雜性的能力,重點(diǎn)關(guān)注 FPGA和 LLM性能。這些測(cè)試(可根據(jù)要求提供結(jié)果)顯示了Achronix FPGA對(duì)于希望將LLM的強(qiáng)大功能用于其NLP應(yīng)用程序的開發(fā)人員和企業(yè)的潛力。這些基準(zhǔn)測(cè)試展示了 Speedster7t FPGA如何超越市場(chǎng),提供無與倫比的性能,同時(shí)降低運(yùn)營成本和環(huán)境影響。

Llama2 70B LLM運(yùn)行在 Speedster7t FPGA上

2023年 7月,Microsoft和 Meta推出了他們的開源 LLM,Llama2開創(chuàng)了 AI驅(qū)動(dòng)語言處理的新先例。Llama2采用多種配置設(shè)計(jì),以滿足各種計(jì)算需求,包括 700億、130億和 700億個(gè)參數(shù),使其處于 LLM創(chuàng)新的最前沿。Achronix和我們的合作伙伴 Myrtle.ai對(duì)700億參數(shù)的Llama2模型進(jìn)行了深入的基準(zhǔn)分析,展示了使用Speedster7t FPGA進(jìn)行LLM加速的優(yōu)勢(shì)。

基準(zhǔn)測(cè)試結(jié)果:Speedster7t FPGA與業(yè)界領(lǐng)先的 GPU對(duì)比

我們?cè)?Speedster7t FPGA上測(cè)試了 Llama2 70B模型的推理性能,并將其與領(lǐng)先的 GPU進(jìn)行了比較。該基準(zhǔn)測(cè)試是通過對(duì)輸入、輸出序列長度(1,128)和批處理大小 =1進(jìn)行建模來完成的。結(jié)果表明,Speedster7t AC7t1500在LLM處理中的有效性。

FPGA成本基于由 Speedster7t FPGA提供支持的 VectorPath加速卡的標(biāo)價(jià)。同樣,我們?cè)诖朔治鲋惺褂昧丝杀菺PU卡的標(biāo)價(jià)。使用這些成本信息和每秒產(chǎn)生的輸出令牌數(shù)量,我們計(jì)算出基于 FPGA的解決方案的 $/token提高了 200%。除了成本優(yōu)勢(shì)外,在比較 FPGA和 GPU卡的相對(duì)功耗時(shí),我們觀察到與基于 GPU的解決方案相比,產(chǎn)生的 kWh/token提高了 200%。這些優(yōu)勢(shì)表明 FPGA如何成為一種經(jīng)濟(jì)且能效高效的 LLM解決方案。

wKgZomZyje-AcBKyAAGXKpdnlrw187.png

面向 LLM的 FPGA:Speedster7t的優(yōu)勢(shì)

Achronix Speedster7t系列FPGA旨在優(yōu)化LLM操作,平衡LLM硬件的關(guān)鍵要求,包括:

高性能計(jì)算 –具有高性能計(jì)算能力的尖端硬件對(duì)于管理 LLM推理核心的復(fù)雜矩陣計(jì)算至關(guān)重要。

高帶寬內(nèi)存 –高效的 LLM推理依賴于高帶寬內(nèi)存,通過模型的網(wǎng)絡(luò)參數(shù)快速饋送數(shù)據(jù),而不會(huì)出現(xiàn)瓶頸。

擴(kuò)展和適應(yīng)能力 –現(xiàn)代 LLM推理需要能夠隨著模型規(guī)模的增長而擴(kuò)展并靈活適應(yīng) LLM架構(gòu)的持續(xù)進(jìn)步的硬件。

高能效處理 –可持續(xù)的 LLM推理需要硬件能夠最大限度地提高計(jì)算輸出,同時(shí)最大限度地降低能耗,從而降低運(yùn)營成本和環(huán)境影響。

Speedster7t FPGA提供以下功能,以應(yīng)對(duì)實(shí)施現(xiàn)代 LLM處理解決方案的挑戰(zhàn):

計(jì)算性能–通過其靈活的機(jī)器學(xué)習(xí)處理器(MLP)模塊支持復(fù)雜的 LLM任務(wù)。

高 GDDR6 DRAM帶寬 –確保以 4 Tbps的內(nèi)存帶寬快速處理大型 LLM數(shù)據(jù)集。

大量的 GDDR6 DRAM容量 –可容納 Llama2等擴(kuò)展的 LLM,每個(gè) FPGA的容量為 32 GB。

用于 LLM的集成 SRAM –提供低延遲、高帶寬的存儲(chǔ),具有 190 Mb的 SRAM,非常適合存儲(chǔ)激活和模型權(quán)重。

多種本機(jī)數(shù)字格式 –適應(yīng) LLM需求,支持塊浮點(diǎn)(BFP)、FP16、bfloat16等。

高效的片上數(shù)據(jù)傳輸 – 2D NoC超過 20 Tbps,簡化片上數(shù)據(jù)流量。

擴(kuò)展橫向擴(kuò)展帶寬 –支持多達(dá)32個(gè)112 Gbps SerDes滿足 LLM需求,增強(qiáng)連接性。

自適應(yīng)邏輯級(jí)可編程 –使用 690K 6輸入 LUT為 LLM的快速發(fā)展做好準(zhǔn)備。

針對(duì) LLM推理優(yōu)化的 FPGA

在快速變化的人工智能和自然語言處理領(lǐng)域,使用 FPGA而不是 GPU來加速 LLM是一個(gè)相當(dāng)新的想法。該基準(zhǔn)測(cè)試展示了設(shè)計(jì)人員如何從使用Achronix的FPGA技術(shù)中受益。Achronix Speedster7t系列FPGA是這一變化的關(guān)鍵技術(shù),在高性能、高帶寬存儲(chǔ)器、易于擴(kuò)展和電源效率之間實(shí)現(xiàn)了出色的平衡。

基于詳細(xì)的基準(zhǔn)分析,將 Speedster7t FPGA與領(lǐng)先的 GPU在處理 Llama2 70B模型方面的能力進(jìn)行比較,結(jié)果表明 Speedster7t FPGA能夠提供高水平的性能,同時(shí)大大降低運(yùn)營成本和環(huán)境影響,突出了它在未來 LLM創(chuàng)建和使用中的重要作用。

如果希望進(jìn)一步了解如何使用FPGA器件來加速您的LLM程序,以及 FPGA加速 LLM解決方案的未來發(fā)展機(jī)遇。請(qǐng)聯(lián)系A(chǔ)chronix,獲取詳細(xì)的基準(zhǔn)測(cè)試結(jié)果,并幫助您確定Achronix FPGA技術(shù)如何加速您的LLM設(shè)計(jì)。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • FPG
    FPG
    +關(guān)注

    關(guān)注

    1

    文章

    54

    瀏覽量

    80562
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3650

    瀏覽量

    5183
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    LLM推理模型是如何推理的?

    這篇文章《(How)DoReasoningModelsReason?》對(duì)當(dāng)前大型推理模型(LRM)進(jìn)行了深刻的剖析,超越了表面的性能宣傳,直指其技術(shù)本質(zhì)和核心局限。以下是基于原文的詳細(xì)技術(shù)原理、關(guān)鍵
    的頭像 發(fā)表于 01-19 15:33 ?489次閱讀
    LLM<b class='flag-5'>推理模型</b>是如何<b class='flag-5'>推理</b>的?

    PCIe通信就是快,RK3576+FPGA解決方案

    今天給大家?guī)砘赑CIe的RK3576+FPGA高速通信方案,實(shí)現(xiàn)快速數(shù)據(jù)交互,解決工業(yè)采集“慢、卡、丟”難題,為工業(yè)自動(dòng)化、能源電力等領(lǐng)域提供創(chuàng)新解決方案。
    的頭像 發(fā)表于 12-26 17:46 ?666次閱讀
    PCIe通信就是快,RK3576+<b class='flag-5'>FPGA</b><b class='flag-5'>解決方案</b>

    Amphenol FlexTraX:創(chuàng)新電纜管理解決方案深度剖析

    Amphenol FlexTraX:創(chuàng)新電纜管理解決方案深度剖析 在電子設(shè)備和網(wǎng)絡(luò)系統(tǒng)中,電纜管理一直是一個(gè)關(guān)鍵具有挑戰(zhàn)性的任務(wù)。合理的電纜管理不僅能提高系統(tǒng)的可靠性和可維護(hù)性,還能提升整體的美觀
    的頭像 發(fā)表于 12-11 14:50 ?394次閱讀

    高能、低功耗、小體積,炬芯科技發(fā)布全新CGM連續(xù)血糖監(jiān)測(cè)方案

    及數(shù)字健康設(shè)備提供小體積、低功耗、高能解決方案 ,為醫(yī)療級(jí)連續(xù)血糖監(jiān)測(cè)系統(tǒng)提供可靠的硬件基礎(chǔ)。 隨著數(shù)字醫(yī)療與生理數(shù)據(jù)監(jiān)測(cè)需求不斷發(fā)展,傳統(tǒng)CGM設(shè)備在功耗、體積及無線傳輸性能上仍面臨挑戰(zhàn)。炬芯科技憑借在低功耗無線通信與系統(tǒng)
    的頭像 發(fā)表于 12-01 16:57 ?753次閱讀
    <b class='flag-5'>高能</b><b class='flag-5'>效</b>、低功耗、小體積,炬芯科技發(fā)布全新CGM連續(xù)血糖監(jiān)測(cè)<b class='flag-5'>方案</b>

    廣和通創(chuàng)新發(fā)布AI Dongle解決方案

    11月20日,廣和通創(chuàng)新發(fā)布AI Dongle解決方案,為個(gè)人PC、NAS等設(shè)備提供移動(dòng)AI算力支持。該方案內(nèi)置高性能、低功耗NPU,使得終端在邊緣側(cè)即可進(jìn)行LLM大模型實(shí)時(shí)
    的頭像 發(fā)表于 11-26 15:47 ?730次閱讀

    AMD利用可重構(gòu)FPGA設(shè)備Moku實(shí)現(xiàn)自定義激光探測(cè)解決方案

    摘要本文介紹了AdvancedMicroDevices,AMD公司如何基于可重構(gòu)FPGA設(shè)備自定義激光探測(cè)解決方案,替代傳統(tǒng)的儀器配置,通過靈活可定制的FPGA設(shè)備Moku提供
    的頭像 發(fā)表于 11-20 17:28 ?1706次閱讀
    AMD利用可重構(gòu)<b class='flag-5'>FPGA</b>設(shè)備Moku<b class='flag-5'>實(shí)現(xiàn)</b>自定義激光探測(cè)<b class='flag-5'>解決方案</b>

    雙碳目標(biāo)下中央空調(diào)系統(tǒng)能理解決方案研究與應(yīng)用

    摘要 隨著中國“2030年碳達(dá)峰、2060年碳中和”戰(zhàn)略目標(biāo)的提出,建筑能源系統(tǒng)尤其是中央空調(diào)系統(tǒng)的節(jié)能降耗成為實(shí)現(xiàn)雙碳目標(biāo)的關(guān)鍵環(huán)節(jié)。本文基于某高科技企業(yè)的中央空調(diào)能理解決方案,結(jié)合多項(xiàng)國家
    的頭像 發(fā)表于 11-20 16:55 ?579次閱讀
    雙碳目標(biāo)下中央空調(diào)系統(tǒng)能<b class='flag-5'>效</b>管<b class='flag-5'>理解決方案</b>研究與應(yīng)用

    什么是AI模型推理能力

    NVIDIA 的數(shù)據(jù)工廠團(tuán)隊(duì)為 NVIDIA Cosmos Reason 等 AI 模型奠定了基礎(chǔ),該模型近日在 Hugging Face 的物理推理模型排行榜中位列榜首。
    的頭像 發(fā)表于 09-23 15:19 ?1276次閱讀

    請(qǐng)問如何在RK3588上使用npu,用onnx模型推理

    請(qǐng)問如何在瑞芯微 RK3588上使用npu,用onnx模型推理。官網(wǎng)上介紹說要把ONNX模型轉(zhuǎn)換成RKNN模型。但是我并不想這么干,請(qǐng)問有
    發(fā)表于 08-09 00:51

    積算科技上線赤兔推理引擎服務(wù),創(chuàng)新解鎖FP8大模型算力

    模型輕量化部署方案。用戶通過遠(yuǎn)程算力平臺(tái)預(yù)置的模型鏡像與AI工具,僅需50%的GPU算力即可解鎖大模型推理、企業(yè)知識(shí)庫搭建、智能體開發(fā),加
    的頭像 發(fā)表于 07-30 21:44 ?908次閱讀

    CES Asia 2025 低空經(jīng)濟(jì)專館:思想碰撞,引領(lǐng)低空經(jīng)濟(jì)規(guī)則升級(jí)

    思想的碰撞,共同引領(lǐng)低空經(jīng)濟(jì)產(chǎn)業(yè)規(guī)則的升級(jí),為產(chǎn)業(yè)的長遠(yuǎn)發(fā)展奠定堅(jiān)實(shí)基礎(chǔ)。 權(quán)威力量齊聚,構(gòu)建產(chǎn)業(yè)規(guī)則創(chuàng)新引擎 CES Asia 2025 低空經(jīng)濟(jì)專館成為各方權(quán)威力量匯聚的平臺(tái)。有關(guān)部門領(lǐng)導(dǎo)
    發(fā)表于 07-04 17:04

    模型推理顯存和計(jì)算量估計(jì)方法研究

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)大模型在各個(gè)領(lǐng)域得到了廣泛應(yīng)用。然而,大模型推理過程對(duì)顯存和計(jì)算資源的需求較高,給實(shí)際應(yīng)用帶來了挑戰(zhàn)。為了解決這一問題,本文將探討大模型
    發(fā)表于 07-03 19:43

    優(yōu)化電機(jī)控制以提高能

    得益于更輕量化高效材料的應(yīng)用,以及熱絕緣和電絕緣技術(shù)的進(jìn)步。更輕巧的電機(jī)對(duì)汽車應(yīng)用尤為有利——既可通過減重提升能,又能將電機(jī)集成到更緊湊的空間。這些技術(shù)進(jìn)步的影響深遠(yuǎn),造就了能更高、性能更優(yōu)
    發(fā)表于 06-11 09:57

    安科瑞中央系統(tǒng)能理解決方案-助力企業(yè)實(shí)現(xiàn)碳達(dá)峰、碳中和

    能耗,成為眾多企業(yè)亟待解決的關(guān)鍵問題。安科瑞中央系統(tǒng)能理解決方案通過數(shù)字化、智能化的能源管理手段,幫助企業(yè)實(shí)現(xiàn)節(jié)能降耗、優(yōu)化能源使用結(jié)構(gòu),從而有效推進(jìn)碳達(dá)峰、碳中和的目標(biāo)。 關(guān)鍵詞:碳達(dá)峰,碳中和,節(jié)能降耗,
    的頭像 發(fā)表于 04-30 13:48 ?827次閱讀
    安科瑞中央系統(tǒng)能<b class='flag-5'>效</b>管<b class='flag-5'>理解決方案</b>-助力企業(yè)<b class='flag-5'>實(shí)現(xiàn)</b>碳達(dá)峰、碳中和

    DeepSeek在昇騰上的模型部署的常見問題及解決方案

    2024年12月26日,DeepSeek-V3橫空出世,以其卓越性能備受矚目。該模型發(fā)布即支持昇騰,用戶可在昇騰硬件和MindIE推理引擎上實(shí)現(xiàn)高效推理,但在實(shí)際操作中,部署流程與常見
    的頭像 發(fā)表于 03-25 16:53 ?2415次閱讀
    DeepSeek在昇騰上的<b class='flag-5'>模型</b>部署的常見問題及<b class='flag-5'>解決方案</b>