国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

AMD助力HyperAccel開發全新AI推理服務器

Xilinx賽靈思官微 ? 來源:Xilinx賽靈思官微 ? 2024-09-18 09:37 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

HyperAccel 是一家成立于 2023 年 1 月的韓國初創企業,致力于開發 AI 推理專用型半導體器件和硬件,最大限度提升推理工作負載的存儲器帶寬使用,并通過將此解決方案應用于大型語言模型來提高成本效率。HyperAccel 針對新興的生成式 AI 應用提供超級加速的芯片 IP/解決方案。HyperAccel 已經打造出一個快速、高效且低成本的推理系統,加速了基于轉換器的大型語言模型( LLM )的推理,此類模型通常具有數十億個參數,例如 OpenAI 的 ChatGPT 和 Meta 的 Llama 3 等 Llama LLM。其 AI 芯片名為時延處理單元( LPU ),是專門用于 LLM 端到端推理的硬件加速器。

項目挑戰

隨著 LLM 應用的擴展,對高效、快速和具成本效益的推理解決方案的需求不斷上升。對于云服務提供商而言,快速且成本效益高的推理硬件對于托管高性能的生成式 AI 應用并降低總擁有成本( TCO )至關重要。對于 AI 企業來說,一個直觀的軟件堆棧平臺是實現其應用或模型無縫部署的必備條件。對于服務業務,提供全面的端到端解決方案也是必要的,有利于將最先進的 AI 技術集成到更有效和先進的服務中。

解決方案

HyperAccel 提出通過開發名為“Orion”的服務器來解決成本和性能問題,該服務器搭載了一個為 LLM 推理量身定制的專用處理器,基于多個高性能 AMD FPGA部署。Orion 充分利用每個 FPGA 的存儲器帶寬和硬件資源以獲得最高水平的性能。這種可擴展的架構支持最新的 LLM,此類模型通常包含數十億個參數。

Orion 擁有 16 個時延處理單元( LPU ),它們分布在兩個 2U 機架中,提供總共 7.36TB/s 的 HBM 帶寬和 14.4 萬個 DSP。LPU 能加速內存和計算都非常密集的超大規模生成式 AI 工作負載。Orion 及其 256GB 的 HBM 容量支持多達千億參數的最先進 LLM。上圖展示了兩個 2U 機箱之一,配有 8 個 LPU。

下圖顯示了 LPU 架構,其中矢量執行引擎由 AMD Alveo U55C 高性能計算卡支持。Alveo U55C 卡具有高帶寬存儲器( HBM2 ),解決了提供低時延AI 的最關鍵性能瓶頸——存儲器帶寬。此外,它們能夠將 200 Gbps的高速網絡集成到單個小型板卡中,并且經過精心設計可在任何服務器中部署。

反過來,每個 Alveo 加速卡都由 FPGA 架構驅動。鑒于 FPGA 的大規模硬件并行性和靈活應變的存儲器層次結構,FPGA 固有的低時延特性非常適合 LLM 所需的實時 AI 服務。Alveo 卡采用了強大的 Virtex XCU55P UltraScale+ FPGA,可提供高達 38 TOPS 的 DSP 計算性能,有助于 AI 推理優化,包括用于定點與浮點計算的 INT8。這款 FPGA 能夠根據客戶反饋調整其處理器( LPU )的架構,例如,根據要求在Llama模型中實現一些非標準的處理,進而提供靈活的解決方案,能夠適應不斷變化的市場和 LLM 參數條件。

wKgaombqLxCAdBaIAAGAxEvslZA335.png

設計成效

Orion 的高性能和可擴展性是通過 LPU 實現的,由 AMD Alveo 加速卡和相關的 FPGA 以及HyperAccel 的可擴展同步鏈路( ESL )技術提供支持。這些技術最大限度提升了 P2P 傳輸中的存儲器帶寬使用,有利于靈活處理,同時消除了 P2P 計算的同步開銷 ESL 屬于為 LLM 推理中的數據傳輸優化的通信鏈路。值得注意的是,Orion 在支持標準 FP16 數據精度的硬件上保持了卓越的準確性。

HyperAccel Orion

的性能

針對時延進行優化的 HyperAccel Orion 與基于轉換器的 LLM(如 GPT、Llama 和 OPT)無縫集成,能夠在 1.3B 模型上每秒生成超過 520 個令牌,在 7B 模型上每秒生成 175 個令牌。除了卓越的性能外,Orion 還展示了出色的能源效率,在 66B 模型上生成單個令牌只需 24 毫秒,而功耗僅為 600W。

wKgaombqLxWAduahAADVjgfBfyc650.png

HyperAccel LPU 的性能(來源:https://www.hyperaccel.ai)

HyperAccel Orion

—— 工作負載多樣性

Orion 提供端到端的解決方案服務,可作為云端服務部署。對于擁有專有 LLM 的AI 企業或存在內部數據隱私與安全需求的專業部門,Orion 也能夠以本地解決方案的形式進行安裝。Orion 能夠處理以下工作負載/應用:

客戶服務:通過虛擬聊天機器人和虛擬助手實時處理查詢,因此人工客服將有時間處理更復雜的問題。

人機界面:在自助服務終端、機器人和其它設備中支持與語言相關的功能,以增強客戶互動體驗。

文本生成:協助生產、總結和精煉復雜的文本內容,為用戶提供便利。

語言翻譯:翻譯客戶查詢和回復信息,打破語言障礙,擴大企業的全球影響力。

問答:根據大量數據以及此前的互動和偏好記錄,定制針對個別客戶的回復,以提高客戶滿意度。

進一步了解AMD Virtex UltraScale+ FPGA和Alveo U55C 加速卡,請訪問產品專區。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • FPGA
    +關注

    關注

    1660

    文章

    22410

    瀏覽量

    636273
  • amd
    amd
    +關注

    關注

    25

    文章

    5683

    瀏覽量

    139945
  • 服務器
    +關注

    關注

    14

    文章

    10251

    瀏覽量

    91480
  • AI
    AI
    +關注

    關注

    91

    文章

    39775

    瀏覽量

    301372

原文標題:HyperAccel 借助 AMD 加速卡與 FPGA 打造全新 AI 推理服務器

文章出處:【微信號:賽靈思,微信公眾號:Xilinx賽靈思官微】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    利用BigQuery MCP服務器開發面向數據分析的生成式AI應用

    AI 智能體接入企業數據,其實不需要復雜的自定義集成或耗費數周開發。12 月,我們推出了面向 Google 服務的全托管式遠程 Model Context Protocol (MCP)
    的頭像 發表于 02-25 10:22 ?165次閱讀
    利用BigQuery MCP<b class='flag-5'>服務器</b><b class='flag-5'>開發</b>面向數據分析的生成式<b class='flag-5'>AI</b>應用

    普通服務器電源與AI服務器電源的區別(上)

    引言服務器是數據中心的核心設備,其穩定運行依賴可靠的電源供應。隨著AI技術的飛速發展,AI服務器大量涌現,與普通服務器在應用場景等方面存在顯
    的頭像 發表于 01-12 09:31 ?1035次閱讀
    普通<b class='flag-5'>服務器</b>電源與<b class='flag-5'>AI</b><b class='flag-5'>服務器</b>電源的區別(上)

    Microchip推出模型語境協議(MCP)服務器助力AI驅動的產品數據訪問

    服務器支持跨AI平臺獲取可信產品信息,簡化工作流程、加速設計并提高生產力 為進一步兌現公司為嵌入式工程師開發AI解決方案的承諾,Microchip Technology Inc.(微
    的頭像 發表于 12-04 16:45 ?994次閱讀

    對話|AI服務器電源對磁性元件提出的新需求

    編者按: 自ChatGPT、DeepSeek等大型AI模型應用爆發以來,市場對AI服務器的需求激增,其配套電源的發展前景已成為行業共識。目前,I服務器電源企業的出貨規模仍有限,
    的頭像 發表于 10-11 14:55 ?981次閱讀
    對話|<b class='flag-5'>AI</b><b class='flag-5'>服務器</b>電源對磁性元件提出的新需求

    ROHM推出全新100V功率MOSFET助力AI服務器和工業電源高效能

    近期,ROHM半導體公司發布了一款全新的100V功率MOSFET——RY7P250BM。這款器件專為48V電源架構中的熱插拔電路設計,廣泛應用于AI服務器及工業電源,尤其是在需要電池保護的場合。隨著
    的頭像 發表于 07-03 10:23 ?993次閱讀
    ROHM推出<b class='flag-5'>全新</b>100V功率MOSFET<b class='flag-5'>助力</b><b class='flag-5'>AI</b><b class='flag-5'>服務器</b>和工業電源高效能

    ai服務器是什么?與普通服務器有什么區別

    AI服務器并非簡單的硬件堆砌,而是專門為人工智能任務設計的高性能計算系統。其核心目標是高效處理海量數據并行計算(如矩陣乘法、模型推理),并針對AI工作負載(如深度學習訓練、大模型
    的頭像 發表于 06-24 16:39 ?4201次閱讀

    AI 服務器電源如何迭代升級?

    AI 算力需求增長的今天,AI 服務器電源正陷入 “性能瓶頸與國產替代并行、場景適配與技術創新交織” 的雙重挑戰。 由Big-Bit商務網、廣東省磁性元器件行業協會主辦的2025中國電子熱點
    的頭像 發表于 06-23 14:51 ?1370次閱讀

    RAKsmart服務器如何助力企業破解AI轉型的難題

    當今,企業AI轉型已成為提升競爭力的核心戰略。然而,算力不足、成本失控、部署復雜等問題卻成為橫亙在轉型路上的“三座大山”。面對這一挑戰,RAKsmart服務器憑借其技術創新與全球化資源整合能力,為企業提供了一套從底層硬件到上層應用的全棧解決方案,
    的頭像 發表于 05-27 10:00 ?446次閱讀

    基于RAKsmart云服務器AI大模型實時推理方案設計

    面對高并發請求、嚴格的響應延遲要求及波動的業務負載,傳統本地化部署的算力瓶頸愈發顯著。RAKsmart云服務器憑借其彈性計算資源池、分布式網絡架構與全棧AI加速能力,為AI大模型實時推理
    的頭像 發表于 05-13 10:33 ?603次閱讀

    RAKsmart服務器如何賦能AI開發與部署

    AI開發與部署的復雜性不僅體現在算法設計層面,更依賴于底層基礎設施的支撐能力。RAKsmart服務器憑借其高性能硬件架構、靈活的資源調度能力以及面向AI場景的深度優化,正在成為企業突破
    的頭像 發表于 04-30 09:22 ?779次閱讀

    AI 推理服務器都有什么?2025年服務器品牌排行TOP10與選購技巧

    根據行業數據,AI推理服務器的性能差異可以達到10倍以上。比如,用普通服務器跑一個700億參數的大模型,可能需要30秒才能出結果,而用頂級服務器
    的頭像 發表于 04-09 11:06 ?8579次閱讀
    <b class='flag-5'>AI</b> <b class='flag-5'>推理</b><b class='flag-5'>服務器</b>都有什么?2025年<b class='flag-5'>服務器</b>品牌排行TOP10與選購技巧

    RAKsmart服務器如何重塑AI高并發算力格局

    AI大模型參數量突破萬億級、實時推理需求激增的當下,傳統服務器架構的并發處理能力已逼近物理極限。RAKsmart通過“硬件重構+軟件定義”的雙引擎創新,推出新一代AI
    的頭像 發表于 04-03 10:37 ?912次閱讀

    國產推理服務器如何選擇?深度解析選型指南與華頡科技實戰案例

    人工智能技術的爆發催生了對推理算力的迫切需求,而進口服務器的高成本與技術依賴性,推動了國產推理服務器的快速發展。據IDC預測,到2025年,中國AI
    的頭像 發表于 03-24 17:11 ?1235次閱讀
    國產<b class='flag-5'>推理</b><b class='flag-5'>服務器</b>如何選擇?深度解析選型指南與華頡科技實戰案例

    NVIDIA 推出開放推理 AI 模型系列,助力開發者和企業構建代理式 AI 平臺

    月 18 日 —— ?NVIDIA 今日發布具有推理功能的開源 Llama Nemotron 模型系列,旨在為開發者和企業提供業務就緒型基礎,助力構建能夠獨立工作或以團隊形式完成復雜任務的高級
    發表于 03-19 09:31 ?390次閱讀
    NVIDIA 推出開放<b class='flag-5'>推理</b> <b class='flag-5'>AI</b> 模型系列,<b class='flag-5'>助力</b><b class='flag-5'>開發</b>者和企業構建代理式 <b class='flag-5'>AI</b> 平臺

    助力AI服務器!思瑞浦提供高性能產品與技術應用方案

    聚焦模擬和數模混合當前,AIGC(人工智能生成內容)正蓬勃發展并成為全球關注焦點,AIGC技術的爆發式增長對算力基礎設施提出了更高要求。AI服務器作為算力核心,需處理海量數據并支持復雜模型推理,其
    的頭像 發表于 03-17 17:52 ?1156次閱讀
    <b class='flag-5'>助力</b><b class='flag-5'>AI</b><b class='flag-5'>服務器</b>!思瑞浦提供高性能產品與技術應用方案