国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

IPU 與 GPU 間無縫銜接,未來聚焦數據中心的AI訓練和推理部署

工程師鄧生 ? 來源:DeepTech深科技 ? 作者:DeepTech深科技 ? 2021-01-02 10:22 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

“不管是在今天 GPU 能夠做的事情上,還是 GPU 不能做的事情上,IPU 都有它的價值點和價值定位。” 日前,在英國 AI 芯片初創公司 Graphcore 中國區的媒體溝通會上,Graphcore 高級副總經理兼中國區總經理盧濤和 Graphcore 中國工程總負責人、AI 算法科學家金琛,就 Graphcore 的新產品性能以及該公司在中國的落地策略向 DeepTech 等媒體進行了同步。

溝通會上,Graphcore 解讀了其于本月公布的大規模系統級產品 IPU-M2000 的應用測試數據。公布數據顯示,在典型 CV 模型 ResNet、基于分組卷積的 ResNeXt、EfficientNet、語音模型、BERT-Large 等自然語言處理模型以及 MCMC 等傳統機器學習模型中,IPU-M2000 在吞吐量、訓練時間和學習結果生成時間方面都有較好表現。比如,在 IPU-M2000 上 EfficientNet 的吞吐量達到 A100 的 18 倍。

圖 | IPU-M2000 與 GPU 的吞吐量、訓練及結果生成時間對比(來源:Graphcore)

66e3cb43bec8442f90d9105440bb1a58.jpeg

此前,IPU-M2000 與 Graphcore 第二代 IPU 處理器 GC200 已于今年 7 月 15 日發布。據介紹,GC200 芯片基于臺積電的 7nm 工藝制造,集成 250 TFlops AI-Float 算力和 900MB 處理器內存,相較第一代產品性能提升 8 倍。而對于第三代 IPU,盧濤在此次溝通會上并未透露發布的具體時間表,不過他表示下一代產品正在研發中,將依舊重點解決存儲問題。

支持 PyTorch、TensorFlow,在 IPU 與 GPU 間無縫銜接

另外,Graphcore 還發布了 Poplar SDK 1.4 版本和 PyTorch 的 IPU 版本。

Graphcore 對 Poplar SDK 1.4 版本在易用性和速度上進行了優化,能夠支持模型和數據并行,同時能夠實現模型的橫向擴展 —— 從 1 個 IPU 橫向擴展到 64 個 IPU。金琛表示,下一版本的 Poplar SDK 有望實現橫向擴展到 128 個 IPU。

值得關注的是,除支持 Graphcore 的自研框架 PopART 外,Poplar SDK 1.4 還支持 Facebook 的 PyTorch 框架、以及 Google 的 TensorFlow 框架。

據金琛介紹,Graphcore 在 PyTorch 代碼中引入了 PopTorch 輕量級接口,通過這一接口,用戶可基于當前的 PyTorch 模型進行封裝,以實現 IPU 和 CPU 之間的無障礙銜接。

對于實現這一功能的核心技術,金琛做進一步解釋說,Graphcore 采用 PyTorch 里的 jit.trace 機制對計算圖進行編譯,轉化為 IPU 和 PyTorch 兼容的表達格式,最后用 Graphcore 自研框架 PopART 后端的 audiff 功能自動生成反向圖,便可以實現同一個模型在不同平臺的無差別運行。

目前,PyTorch 因其直觀易懂、靈活易用等優勢受到開發者的廣泛喜愛和應用。Poplar SDK 1.4 增加了對 PyTorch 的支持,策略上是希望用戶在 IPU 上也能體驗 PyTorch,讓用戶多一個轉戰 IPU 的理由。不過目前英偉達的 GPU 已經在 AI 計算領域占據大部分市場,此時 IPU 能夠提供的價值、轉場到 IPU 的成本等,都是用戶所要考慮的問題。

在遷移成本上,盧濤表示,經過幾年來對 Poplar SDK 的打磨,現在從 GPU 到 IPU 的軟硬件遷移難度已經比大家認為的小得多。

金琛補充道,在訓練上,針對一個不太復雜的模型,一般一周可以遷移完成,對于復雜的模型大概需要兩周;在推理上,基本上是 1-2 天的工作量。

談及性能,盧濤表示:“IPU 在訓練推理、語音、圖像模型處理上基本全面超越 GPU。” 不過他也坦言:“不能說 100% 超越了 GPU,因為算法模型確實非常多,比如說語音有不同的語音模型、圖像也是有不同的圖像模型。”

未來:持續優化性能,進一步壓縮遷移成本

IPU 在機器學習性能上的明顯優勢是不可否認的,但前有身強體壯且努力奔跑的巨頭英偉達,Graphcore 更是一刻也不容懈怠。盧濤在溝通會上也多次提到,“目前 Graphcore 面對的壓力最主要還是來自英偉達”。

“重壓” 之下,Graphcore 短期內的計劃是聚焦在數據中心高性能訓練和推理市場上,持續打磨 IPU 和軟件平臺,持續優化性能和提高可用性。盧濤說,“只有在我們聚焦的領域跑得更快,Graphcore 和英偉達之間的距離才會越來越短,甚至在某些領域超過英偉達”。

他還表示,Graphcore 希望未來數年內,能在數據中心的 AI 訓練、推理批量部署、以及發貨和體量上做到除英偉達以外的另一個頭部地位。

為實現該目標,Graphcore 也將從增加 AI 框架支持、以及模型覆蓋兩個維度著手,以期進一步減少用戶的遷移成本。此外,除目前 AI 應用最廣泛的互聯網和云計算兩個場景外,盧濤表示公司明年還將在金融、汽車、智慧醫療、智慧教育、智慧城市和政府服務等領域,至少突破一到兩個比較主流的領域。

責任編輯:PSY

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • gpu
    gpu
    +關注

    關注

    28

    文章

    5194

    瀏覽量

    135460
  • 數據中心
    +關注

    關注

    18

    文章

    5651

    瀏覽量

    75021
  • IPU
    IPU
    +關注

    關注

    0

    文章

    35

    瀏覽量

    15962
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    數據中心缺電,英偉達又有新動作!

    電子發燒友網報道(文/李彎彎)近日,英偉達宣布將舉辦一場私人峰會,邀請聚焦數據中心電力問題的初創公司參會,共同應對可能阻礙人工智能發展的電力難題。當下,大模型訓練推理對算力的需求呈指
    的頭像 發表于 12-14 00:06 ?1.3w次閱讀
    <b class='flag-5'>數據中心</b>缺電,英偉達又有新動作!

    高通挑戰英偉達,發布768GB內存AI推理芯片,“出征”AI數據中心

    電子發燒友網報道(文/莫婷婷)隨著生成式AI應用的爆發式增長,數據中心對高效、低成本、低功耗AI推理能力的需求急劇上升。高通憑借其在移動計算和通信領域的技術積累,正試圖通過差異化戰略,
    的頭像 發表于 10-29 10:36 ?3644次閱讀
    高通挑戰英偉達,發布768GB內存<b class='flag-5'>AI</b><b class='flag-5'>推理</b>芯片,“出征”<b class='flag-5'>AI</b><b class='flag-5'>數據中心</b>

    高通挑戰英偉達!發布768GB內存AI推理芯片,“出征”AI數據中心

    電子發燒友網報道(文/莫婷婷)隨著生成式AI應用的爆發式增長,數據中心對高效、低成本、低功耗AI推理能力的需求急劇上升。高通憑借其在移動計算和通信領域的技術積累,正試圖通過差異化戰略,
    的頭像 發表于 10-29 09:14 ?6457次閱讀
    高通挑戰英偉達!發布768GB內存<b class='flag-5'>AI</b><b class='flag-5'>推理</b>芯片,“出征”<b class='flag-5'>AI</b><b class='flag-5'>數據中心</b>

    睿海光電以高效交付與廣泛兼容助力AI數據中心800G光模塊升級

    NVIDIA Quantum-2交換機等主流設備。 平滑擴展:與現有400G/100G設備無縫互通,降低數據中心升級成本。 多場景覆蓋:從AI訓練集群的“大象流”到
    發表于 08-13 19:01

    加速AI未來,睿海光電800G OSFP光模塊重構數據中心互聯標準

    客戶的共同選擇 超算中心應用 :為某國家實驗室提供800G OSFP SR8模塊,構建E級超算互聯網絡 AI訓練集群 :某自動駕駛企業采用我們的解決方案,GPU
    發表于 08-13 16:38

    PCIe協議分析儀在數據中心中有何作用?

    數據中心的整體可靠性。以下是其核心作用及具體應用場景的詳細分析:一、性能優化:突破帶寬瓶頸,提升計算效率 鏈路帶寬利用率分析 場景:在AI訓練集群中,GPU通過PCIe與CPU交換
    發表于 07-29 15:02

    PCIe協議分析儀能測試哪些設備?

    :提升數據中心的整體效率,降低CPU負載。 四、異構計算與擴展設備 多GPU系統 測試場景:利用PCIe協議分析儀模擬高負載的GPU通信,測試PCIe交換機的性能和穩定性。 應用價
    發表于 07-25 14:09

    中型數據中心中的差分晶體振蕩器應用與匹配方案

    中型數據中心的定義與特點 中型數據中心通常服務于中大型企業、科研機構或地方行業節點,具備50至200個機柜,部署多臺服務器、交換設備、存儲系統與光通信鏈路等,強調高帶寬、低延遲與高可用性。關鍵設備
    發表于 07-01 16:33

    施耐德電氣發布數據中心高密度AI集群部署解決方案

    在人工智能(AI)驅動的產業革命浪潮中,數據中心正迎來深刻變革。面對迅猛增長的人工智能算力需求,部署高密度AI集群已成為數據中心發展的必然選
    的頭像 發表于 04-19 16:54 ?1548次閱讀
    施耐德電氣發布<b class='flag-5'>數據中心</b>高密度<b class='flag-5'>AI</b>集群<b class='flag-5'>部署</b>解決方案

    是德科技推出AI數據中心構建器以驗證和優化網絡架構和主機設計

    : KEYS )推出Keysight AI (KAI)數據中心構建器,這是一款先進的軟件套件,通過模擬真實工作負載來評估新算法、組件和協議對AI訓練性能的影響。KAI
    的頭像 發表于 04-10 08:50 ?650次閱讀

    是德科技推出AI數據中心構建器

    是德科技(NYSE:KEYS)推出Keysight AI (KAI)數據中心構建器,這是一款先進的軟件套件,通過模擬真實工作負載來評估新算法、組件和協議對AI訓練性能的影響。KAI
    的頭像 發表于 04-07 11:06 ?1004次閱讀

    適用于數據中心AI時代的800G網絡

    ,成為新一代AI數據中心的核心驅動力。 AI時代的兩大數據中心AI工廠與AI
    發表于 03-25 17:35

    DeepSeek推動AI算力需求:800G光模塊的關鍵作用

    隨著人工智能技術的飛速發展,AI算力需求正以前所未有的速度增長。DeepSeek等大模型的訓練推理任務對算力的需求持續攀升,直接推動了服務器、光通信設備以及數據中心基礎設施的升級。特
    發表于 03-25 12:00

    華為全新升級星河AI數據中心網絡

    在華為中國合作伙伴大會2025期,以 “星河AI數據中心網絡,賦AI時代新動能”為主題的數據中心網絡分論壇圓滿落幕。本次論壇匯聚了來自全國
    的頭像 發表于 03-24 14:46 ?1093次閱讀

    Cadence顛覆AI數據中心設計

    日前舉辦的英偉達 GTC 2025 開發者大會匯聚了眾多行業精英,共同探討人工智能的未來。而人工智能正在重塑全球數據中心的格局。據預測,未來將有 1 萬億美元用于 AI 驅動的
    的頭像 發表于 03-21 15:43 ?1164次閱讀