国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

為AI推理打造高達24Gb/s的GDDR6 PHY,Rambus全面支持中國市場的AI升級

晶芯觀察 ? 來源:電子發燒友網 ? 作者:黃晶晶 ? 2023-05-26 16:38 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

人工智能在通過大量的數據進行訓練之后,神經網絡打造的完整模型將被集成在邊緣或實際應用場之中,往往大量的AI正是應用在于邊緣AI推理。與AI訓練需要大量的數據和算力不同,AI推理對算力的需求大幅下降,但對成本和功耗更為敏感。

在AI推理應用越來越多的趨勢下,Rambus率先研判與推出GDDR6 IP產品組合。Rambus IP核產品營銷高級總監Frank Ferro先生表示,作為更加理想的方案,GDDR6有著高帶寬以及低時延的特性,能夠幫助邊緣端更好地處理數據。

Rambus GDDR6 PHY以及控制器的配套產品,已經達到了業界領先的24Gb/s的數據傳輸速率,這也是全新的一個行業標桿,可以為AI推理等應用場景帶來巨大性能優勢和收益。

除性能之外,另一大優勢是對功耗的管理。因為當設備在高速和高帶寬環境下運行時,良好的功耗管理非常重要。

還有系統層面的設計。如果要確保系統在24Gb/s環境下運行,需要良好的系統級信號完整性。Rambus信號完整性的工程師,也會與客戶進行非常緊密的從設計初期開始的合作,能夠確保客戶運行系統的時候達到最高的性能。

另外,Rambus提供的產品已經實現了PHY以及控制器的完整集成。在客戶收到產品之后,可以直接對這些子系統進行定制化應用。

GDDR6內存接口子系統的結構


下圖的結構包括PHY物理層、控制器、DRAM以及客戶端的ASIC。



Frank Ferro解析,PHY的物理層與DRAM進行直接連接,這個接口是由兩個16位的插槽所組成,加起來是32位。

另外一側是DFI接口與內存的控制器進行連接,控制器直接接入到整個系統的邏輯控制。Rambus提供的是中間標藍的兩個非常重要的環節,也就是完整的子系統,Rambus會根據客戶具體應用場景和實際的訴求對子系統來進行優化,并將其作為完整的子系統來交付給客戶。

GDDR的“G”代表的是graphic (圖形),因此它可以用于圖形處理,同時也可以用于人工智能以及機器學習算法中,以及網絡應用等。

在GDDR6擁有的諸多特點中,值得一提的是clamshell模式,具體指的是每個信道可以支持兩個GDDR6的設備。換句話說,在clamshell模式之下整個容量是直接翻倍乘以2的。



另外,GDDR6現在已經支持比較先進的FinFET工藝節點,實際上從2019年開始Rambus就已經支持非常先進的制程工藝。

同時,也會針對PCB以及封裝提供相關的參考設計。在內部有專門的信號完整度和邊緣完整性的專家,來幫助客戶去完成整個的設計工作。

Frank Ferro表示,Rambus的GDDR6接口子系統可以實現高達24Gb/s的卓越性能,可以為每個GDDR6內存設備提供最高達到96Gb/s的帶寬。GDDR6是在AI應用場景下比較合理的產品和選擇,因為可以在成本和性能之間達成不錯的平衡。

邊緣AI推理,GDDR6是更合適的選擇


實際上內存的形式有很多種,DDR、LPDDR、GDDR以及HBM等,那么邊緣AI推理用哪種內存最合適,在Frank Ferro看來GDDR6將是脫穎而出的那一個。

他說,GDDR6有著優秀的數據傳輸速率,可適用于很多AI推理場景。尤其在一些網絡應用中,GDDR6能具有重要作用?!艾F在非常多的具體網絡應用場景都已經開始在邊緣端實現了。尤其是有的應用要求所有傳入的數據必須在本地進行實時處理,這種需求的增加對本身產品架構的要求會很高。因此傳統的DDR方案已經遠遠不能滿足要求,因為需要有很多的DDR設備。而部署GDDR6在邊緣設備,能夠大幅度降低網絡邊緣設備對DDR數量的需求?!?br />
一般來說,AI推理對帶寬的需求在200到500Gb/s的范圍之間。而每一個GDDR6設備的帶寬可以達到96Gb/s,通過將4-5個GDDR6設備組合,就可以輕松滿足500Gb/s及以下的帶寬需求。

以DDR4為例,它的速度可能最高能達到3.2Gb/s。雖然它的成本相對較低,但是速度是一大劣勢。GDDR技術在幾年前就能夠實現16Gb/s的帶寬,已經超過DDR技術的三到四倍之多。當然,DDR、GDDR和LPDDR這些不同的產品都是以標準的DRAM為基礎,LPDDR更關注低功耗管理,DDR本身的數據存儲密度會更高一點,而GDDR是更關注于速度。

此外,如果用到一個HBM3設備就能夠達到接近800Gb的帶寬,但它會使得成本增加3至4倍。因此,對于對帶寬和低延遲有很高要求的AI訓練場景,HBM可能是更好的選擇。而對于需要更大容量、更高帶寬的AI推理場景,則GDDR6是更合適的選擇。

全面的產品組合,滿足中國客戶不同的AI需求

Rambus作為一家業界領先的半導體IP和芯片供應商,技術實力強勁,擁有3000多項技術專利,企業使命是讓數據傳輸更快、更安全。經過三十多年的發展和創新,Rambus現在的主要業務包含基礎專利授權、芯片IP授權和內存接口芯片。Rambus的技術和產品面向的市場是數據密集型市場,包括數據中心5G物聯網IoT、汽車等細分市場。其產品組合,與AIGC應用對數據傳輸的需求十分契合。



以ChatGPT為代表的AIGC應用熱潮襲卷到中國,我們可以看到中國不少互聯網大廠都發布了自己的AI大模型。那么Rambus如何支持中國客戶的AI數據傳輸需求呢?

Rambus大中華區總經理蘇雷先生長期投身中國市場,他表示Rambus在和芯片廠商的溝通中發現更多廠商聚焦于AI訓練,因此他們的方案更多需求在于HBM;在與云廠商的溝通中,他們更多是關注數據中心推出的一系列產品,即中國式ChatGPT產品,他們需要更多的算力。在內存產品上,Rambus有非常好的接口芯片,向云廠商提供我們的服務和產品。



還有一類客戶是中國的OEM和ODM廠商,他們把目光轉向了當前非常新的技術CXL。因為CXL可以帶來更多內存帶寬和內存容量,所以我們正在緊密合作提供方案,以加大整個系統內存的帶寬,幫助他們的產品推向市場。

蘇雷說,Rambus China立足于中國市場,愿意更多、更緊密地支持中國公司在ChatGPT產業的發展,以最好的技術、最快的響應和最好的技術支持來服務中國市場,給廣大客戶保駕護航。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • Rambus
    +關注

    關注

    0

    文章

    67

    瀏覽量

    19308
  • PHY
    PHY
    +關注

    關注

    2

    文章

    335

    瀏覽量

    54083
  • GDDR6
    +關注

    關注

    0

    文章

    52

    瀏覽量

    11606
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    高通挑戰英偉達,發布768GB內存AI推理芯片,“出征”AI數據中心

    億美元的數據中心市場中搶占一席之地。 就在10月28日,高通面向數據中心連發兩款AI芯片,AI200 和 AI250 芯片,打造下一代
    的頭像 發表于 10-29 10:36 ?3643次閱讀
    高通挑戰英偉達,發布768<b class='flag-5'>GB</b>內存<b class='flag-5'>AI</b><b class='flag-5'>推理</b>芯片,“出征”<b class='flag-5'>AI</b>數據中心

    高通挑戰英偉達!發布768GB內存AI推理芯片,“出征”AI數據中心

    億美元的數據中心市場中搶占一席之地。 ? 就在10月28日,高通面向數據中心連發兩款AI芯片,AI200 和 AI250 芯片,打造下一代
    的頭像 發表于 10-29 09:14 ?6456次閱讀
    高通挑戰英偉達!發布768<b class='flag-5'>GB</b>內存<b class='flag-5'>AI</b><b class='flag-5'>推理</b>芯片,“出征”<b class='flag-5'>AI</b>數據中心

    使用NORDIC AI的好處

    原始傳感器數據,可顯著降低功耗、延長電池壽命。[Edge AI 概述; Nordic Edge AI 技術頁] 降低云依賴與時延 直接在設備上做推理,很多決策可以“本地實時”完成,不必等云端響應
    發表于 01-31 23:16

    R480-X8面向下一代AI集群的高密度算力模塊:技術架構與應用分析

    基于開放計算標準(OCP OAI/OAM)設計的高密度AI加速器組,通過模塊化集成,在單一節點內聚合高達1 PFLOPS(FP16)與2 POPS(INT8)的峰值算力。其配備大容量GDDR6內存
    的頭像 發表于 12-14 13:15 ?1245次閱讀
    R480-X8面向下一代<b class='flag-5'>AI</b>集群的高密度算力模塊:技術架構與應用分析

    昆侖芯R200 AI加速卡技術規格解析

    昆侖芯R200加速卡基于7nm XPU-R架構,在150W功耗下提供256 TOPS INT8算力,側重高性能推理。配備最高32GB GDDR6內存(512GB/
    的頭像 發表于 12-14 13:12 ?1591次閱讀
    昆侖芯R200 <b class='flag-5'>AI</b>加速卡技術規格解析

    RK3576驅動高端顯控系統升級:多屏拼控與AI視覺融合解決方案

    系統依賴多工控主機、外接顯卡和解碼器,存在功耗高、延遲大的問題。而瑞芯微 RK3576 打造的新一代 AI 多媒體平臺,憑借 “三屏異顯 + 八路攝像頭輸入 + AI 邊緣計算” 的架構,全面
    發表于 11-21 17:51

    BPI-AIM7 RK3588 AI與 Nvidia Jetson Nano 生態系統兼容的低功耗 AI 模塊

    Banana Pi BPI-AIM7 RK3588 AI Module7 (AIM7) 配備 64 位八核處理器、6 TOPS NPU、8 GB 內存、PCIe 3.0 支持以及軟件定
    發表于 10-11 09:08

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI的科學應用

    和關聯性 AI驅動科學:研究和模擬人類思維和認識過程。 本章節作者我們講解了第五范式,介紹了科學發現的一般方法和流程等。一、科學發現的5個范式 第一范式:產生于公元1000年左右的阿拉伯世界和歐洲
    發表于 09-17 11:45

    華為亮相2025金融AI推理應用落地與發展論壇

    創新技術——UCM推理記憶數據管理器,旨在推動AI推理體驗升級,提升推理性價比,加速AI商業正循
    的頭像 發表于 08-15 09:45 ?1224次閱讀

    睿海光電以高效交付與廣泛兼容助力AI數據中心800G光模塊升級

    器件敏捷調配。 定制化服務:支持OEM/ODM/JDM模式,滿足客戶從標準品到液冷模塊的多元化需求。 這一優勢已助力多家頭部云服務商在AI云平臺部署中搶占市場窗口期。 三、廣泛兼容性:平滑升級
    發表于 08-13 19:01

    信而泰×DeepSeek:AI推理引擎驅動網絡智能診斷邁向 “自愈”時代

    網絡智能診斷平臺。通過對私有化網絡數據的定向訓練,信而泰打造了高性能、高可靠性的網絡診斷模型,顯著提升了AI輔助診斷的精準度與實用性。該方案實現了網絡全流量深度解析能力與AI智能推理
    發表于 07-16 15:29

    首創開源架構,天璣AI開發套件讓端側AI模型接入得心應手

    ,聯發科帶來了全面升級的天璣AI開發套件2.0,在模型庫規模、架構開放程度、前沿端側AI技術支持和端側LoRA訓練落地等方面均迎來
    發表于 04-13 19:52

    曙光存儲全新升級AI存儲方案

    近日,曙光存儲全新升級AI存儲方案,秉持“AI加速”理念,面向AI訓練、AI推理
    的頭像 發表于 03-31 11:27 ?1341次閱讀

    BK200-800S24GB1N6 BK200-800S24GB1N6

    電子發燒友網你提供AIPULNION(AIPULNION)BK200-800S24GB1N6相關產品參數、數據手冊,更有BK200-800S24GB1N6的引腳圖、接線圖、封裝手冊、中文資料、英文
    發表于 03-21 18:40
    BK200-800<b class='flag-5'>S24GB1N6</b> BK200-800<b class='flag-5'>S24GB1N6</b>

    Banana Pi 發布 BPI-AI2N &amp; BPI-AI2N Carrier,助力 AI 計算與嵌入式開發

    RZ/V2N——近期在嵌入式世界2025上新發布, AI 計算、嵌入式系統及工自動化提供強大支持。這款全新的計算平臺旨在滿足開發者和企業用戶對高性能、低功耗和靈活擴展的需求。 []() 領先的計算
    發表于 03-19 17:54