国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

使用RAPIDS在NVIDIA GPU上分析腦細胞基準

星星科技指導員 ? 來源:NVIDIA ? 作者:Corey Nolet ? 2022-04-18 16:34 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

單細胞基因組學研究繼續推進疾病預防藥物的發現。例如,它在為當前的新冠肺炎大流行開發治療、識別易受感染的細胞以及揭示受感染患者免疫系統的變化方面起著關鍵作用。然而,隨著大規模單細胞數據集可用性的不斷提高,計算效率的低下明顯影響了科學研究的速度。將這些計算瓶頸轉移到 GPU 已經證明了有趣的結果。

在最近的一篇博客文章中, NVIDIA 對 100 萬個小鼠腦細胞進行了基準分析,這些腦細胞通過 10 倍基因組學測序。結果表明,在 GCP CPU 實例上運行端到端工作流需要三個多小時,而在單個 NVIDIA V100 GPU 上處理整個數據集只需 11 分鐘。此外,在 GCP GPU 實例上運行 RAPIDS 分析的成本也比 CPU 版本低 3 倍。此處閱讀博客。

按照Jupyter 筆記本對該數據集進行 RAPIDS 分析。要運行筆記本,文件rapids_scanpy_funcs.py和utils.py必須與筆記本位于同一文件夾中。我們提供了第二個筆記本,其中包含 CPU 版本的分析here。在與 Google Dataproc 團隊的合作下,我們構建了一個入門指南,以幫助開發人員快速運行這個轉錄組學用例。最后,看看這個 NVIDIA 和谷歌云共同撰寫博客文章,它展示了工作的影響。

對 GPU 進行單細胞 RNA 分析

執行單細胞分析的典型工作流程通常從一個矩陣開始,該矩陣映射每個細胞中測量的每個基因腳本的計數。執行預處理步驟以濾除噪聲,并對數據進行歸一化以獲得在數據集的每個單獨單元中測量的每個基因的表達。在這一步中,機器學習也常用于糾正數據收集中不需要的偽影?;虻臄盗客ǔO喈敶?,這會產生許多不同的變異,并在計算細胞之間的相似性時增加很多噪音。在識別和可視化具有相似基因表達的細胞簇之前,特征選擇和降維可以減少這種噪聲。這些細胞簇的轉錄表達也可以進行比較,以了解為什么不同類型的細胞行為和反應不同。

pYYBAGJdIo2AKRF-AACorE0hJv8584.png

圖 1 :顯示單細胞 RNA 測序數據分析步驟的管道。從每個細胞中的基因活性矩陣開始, RAPIDS 文庫可用于將矩陣轉換為基因表達,對細胞進行聚類和布局以供可視化,并幫助分析具有不同活性的基因。

該分析證明了使用RAPIDS加速使用單個 GPU 分析 100 萬個細胞的單細胞 RNA 序列數據。然而,實驗只處理了前 100 萬個細胞,而不是整個 130 萬個細胞。因此,在單細胞 RNA 數據的工作流中處理所有 130 萬個細胞的時間幾乎是單個 V100 GPU 的兩倍。另一方面,相同的工作流在單個 NVIDIA A100 40GB GPU 上只需 11 分鐘。不幸的是, V100 的性能下降了近 2 倍,主要原因是 GPU 的內存被超額訂閱,從而在需要時溢出到主機內存。在下一節中,我們將更詳細地介紹這種行為,但需要明確的是, GPU 的內存是擴展的限制因素。因此,更快地處理更大的工作負載需要更強大的 GPU 服務器,如 A100 或/或將處理分散到多個 GPU 服務器上。

將預處理擴展到多個 GPU 的好處

當工作流的內存使用量超過單個 GPU 的容量時,統一虛擬內存( UVM )可用于超額訂閱 GPU ,并自動溢出到主內存。這種方法在探索性數據分析過程中是有利的,因為適度的超額訂閱率可以消除在 GPU 內存不足時重新運行工作流的需要。

但是,嚴格依靠 UVM 將 GPU 的內存超額訂閱 2 倍或更多可能會導致性能不佳。更糟糕的是,當任何單個計算需要的內存超過 NVIDIA 上的可用內存時,它可能會導致執行無限期掛起。將計算擴展到多個 GPU 可以提高并行性并減少每個 GPU 上的內存占用。在某些情況下,它可以消除超額認購的需要。圖 2 表明,我們可以通過將預處理計算擴展到多個 GPU 來實現線性縮放,與單個 GPU V100 GPU 相比, 8 個 GPU s 會產生略微超過 8 倍的加速比??紤]到這一點,需要不到 2 分鐘才能將 130 萬個細胞和 18k 基因的數據集減少到約 129 萬個細胞和 8 GPU上 4k 個高度可變的基因。這超過了 8 。 55 倍的加速,因為單個 V100 需要 16 分鐘來運行相同的預處理步驟。

poYBAGJdIo-AERPgAAAswdnhv9s667.png

圖 2 :具有不同硬件配置的 130 萬小鼠腦細胞上典型單細胞 RNA 工作流的運行時間(秒)比較。在 GPU 上執行這些計算表明性能大幅提高。

pYYBAGJdIo-Ab7tOAACgAw0wGOo335.png

圖 3 :單個 GPU 配置的運行時主要由預處理步驟控制,在單個 V100 上占據 75% 的端到端運行時,在單個 A100 上占據 70% 的運行時。利用 DGX1 上的所有 GPU 將比率降低到略高于 32%.

使用 Dask 和 RAPIDS 將單細胞 RNA 筆記本擴展到多個 GPU

許多預處理步驟,如加載數據集、過濾嘈雜的轉錄本和細胞、將計數標準化為表達式以及特征選擇,本質上是并行的,每個 GPU 獨立負責其子集。糾正數據收集噪音影響的一個常見步驟是使用不需要的基因(如核糖體基因)的貢獻比例,并擬合許多小型線性回歸模型,數據集中每個轉錄本對應一個模型。由于轉錄本的數量通??梢赃_到數萬個,因此通常使用分散性或可變性的度量方法,只選擇幾千個最具代表性的基因。

Dask是一個優秀的庫,用于在一組工作進程上分發數據處理工作流。 RAPIDS 通過將每個工作進程映射到自己的 GPU ,使 Dask 也能夠使用 GPU s 。此外, Dask 提供了一個分布式陣列對象,非常類似于 NumPy 陣列的分布式版本(或CuPy,其 GPU 加速外觀相似),它允許用戶在多個 GPU 上,甚至跨多臺物理機器,分發上述預處理操作的步驟,操作和轉換數據的方式與 NumPy 或 CuPy 數組大致相同。

在預處理之后,我們還通過對數據子集進行訓練并分配推理來分配主成分分析( PCA )縮減步驟,通過僅將前 50 個主成分恢復到單個 GPU 來降低通信成本,用于剩余的聚類和可視化步驟。該數據集的 PCA 簡化單元矩陣僅為 260 MB ,允許在單個 GPU 上執行剩余的聚類和可視化步驟。使用這種設計,即使包含 500 萬個單元的數據集也只需要 1GB 內存。

poYBAGJdIpCAdFAgAAGLFqhWmy8515.png

圖 4 : 1 。 3M 小鼠腦細胞的樣本可視化,使用 cuML 的 UMAP 縮小為二維,并使用 cuGraph 的 Louvain 聚集

結論

以我們計算工具的發展速度,我們可以假設數據處理量很快就會迎頭趕上,特別是對于單細胞分析工作負載,這迫使我們需要更高的擴展。同時,通過將聚類和可視化步驟分布在多個 RAPIDS 上,仍有機會進一步減少探索性數據分析過程的迭代次數。更快的迭代意味著更好的模型,縮短洞察時間,以及更明智的結果。除 T-SNE 外,多 GPU 工作流筆記本的所有集群和可視化步驟都可以通過 GPU cuML 和 cuGraph 分布在 GPU 上的 Dask 工作人員上。

關于作者

Corey Nolet 是 NVIDIA 的 RAPIDS ML 團隊的數據科學家兼高級工程師,他專注于構建和擴展機器學習算法,以支持光速下的極端數據負載。在 NVIDIA 工作之前, Corey 花了十多年時間為國防工業的 HPC 環境構建大規模探索性數據科學和實時分析平臺??评锍钟杏砉W士學位計算機科學碩士學位。他還在攻讀博士學位。在同一學科中,主要研究圖形和機器學習交叉點的算法加速??评餆嶂杂诶脭祿玫亓私馐澜?。

審核編輯:郭婷

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    5592

    瀏覽量

    109719
  • gpu
    gpu
    +關注

    關注

    28

    文章

    5194

    瀏覽量

    135431
  • 機器學習
    +關注

    關注

    66

    文章

    8553

    瀏覽量

    136928
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    借助NVIDIA CUDA Tile IR后端推進OpenAI Triton的GPU編程

    NVIDIA CUDA Tile 是基于 GPU 的編程模型,其設計目標是為 NVIDIA Tensor Cores 提供可移植性,從而釋放 GPU 的極限性能。CUDA Tile 的
    的頭像 發表于 02-10 10:31 ?238次閱讀

    NVIDIA RTX PRO 5000 Blackwell GPU的深度評測

    NVIDIA RTX PRO 5000 Blackwell 是 NVIDIA RTX 5000 Ada Generation 的升級迭代產品,其各項核心指標均針對 GPU 加速工作流的高性能
    的頭像 發表于 01-06 09:51 ?2247次閱讀
    <b class='flag-5'>NVIDIA</b> RTX PRO 5000 Blackwell <b class='flag-5'>GPU</b>的深度評測

    NVIDIA RTX PRO 4000 Blackwell GPU性能測試

    Generation 的全面超越。那么,這款劃時代的專業 GPU 真實應用場景中的表現究竟如何?今天,我們將通過深度實測,為您揭曉 NVIDIA RTX PRO 4000 Blackwell 相較于前代產品的性能躍遷。
    的頭像 發表于 12-29 15:30 ?1327次閱讀
    <b class='flag-5'>NVIDIA</b> RTX PRO 4000 Blackwell <b class='flag-5'>GPU</b>性能測試

    NVIDIA RTX PRO 5000 72GB Blackwell GPU現已全面上市

    NVIDIA RTX PRO 5000 72GB Blackwell GPU 現已全面上市,將基于 NVIDIA Blackwell 架構的強大代理式與生成式 AI 能力帶到更多桌面和專業用戶手中。
    的頭像 發表于 12-24 10:32 ?824次閱讀
    <b class='flag-5'>NVIDIA</b> RTX PRO 5000 72GB Blackwell <b class='flag-5'>GPU</b>現已全面上市

    Python中借助NVIDIA CUDA Tile簡化GPU編程

    NVIDIA CUDA 13.1 版本新增了基于 Tile 的GPU 編程模式。它是自 CUDA 發明以來 GPU 編程最核心的更新之一。借助 GPU tile kernels,可以用
    的頭像 發表于 12-13 10:12 ?1190次閱讀
    <b class='flag-5'>在</b>Python中借助<b class='flag-5'>NVIDIA</b> CUDA Tile簡化<b class='flag-5'>GPU</b>編程

    NVIDIA RTX PRO 2000 Blackwell GPU性能測試

    越來越多的應用正在使用 AI 加速,而無論工作站的大小或形態如何,都有越來越多的用戶需要 AI 性能。NVIDIA RTX PRO 2000 Blackwell 是全新 NVIDIA
    的頭像 發表于 11-28 09:39 ?6280次閱讀
    <b class='flag-5'>NVIDIA</b> RTX PRO 2000 Blackwell <b class='flag-5'>GPU</b>性能測試

    NVIDIA Isaac Lab多GPU多節點訓練指南

    NVIDIA Isaac Lab 是一個適用于機器人學習的開源統一框架,基于 NVIDIA Isaac Sim 開發,其模塊化高保真仿真適用于各種訓練環境,可提供各種物理 AI 功能和由 GPU 驅動的物理仿真,縮小仿真與現實世
    的頭像 發表于 09-23 17:15 ?2403次閱讀
    <b class='flag-5'>NVIDIA</b> Isaac Lab多<b class='flag-5'>GPU</b>多節點訓練指南

    NVIDIA RAPIDS 25.06版本新增多項功能

    RAPIDS 是一套面向 Python 數據科學的 NVIDIA CUDA-X 庫,最新發布的 25.06 版本引入了多項亮眼新功能,其中包括 Polars GPU 流執行引擎——這是一種面向圖
    的頭像 發表于 09-09 09:54 ?1061次閱讀

    NVIDIA RTX PRO 4500 Blackwell GPU測試分析

    今天我們帶來全新 NVIDIA Blackwell 架構 GPU —— NVIDIA RTX PRO 4500 Blackwell 的測試,對比上一代產品 NVIDIA RTX 450
    的頭像 發表于 08-28 11:02 ?3982次閱讀
    <b class='flag-5'>NVIDIA</b> RTX PRO 4500 Blackwell <b class='flag-5'>GPU</b>測試<b class='flag-5'>分析</b>

    NVIDIA桌面GPU系列擴展新產品

    NVIDIA 桌面 GPU 系列擴展,推出 NVIDIA RTX PRO 4000 SFF Edition GPU 和 RTX PRO 2000 Blackwell
    的頭像 發表于 08-18 11:50 ?1408次閱讀

    【「算力芯片 | 高性能 CPU/GPU/NPU 微架構分析」閱讀體驗】+NVlink技術從應用到原理

    。。) 原理學習 「算力芯片 | 高性能 CPU/GPU/NPU 微架構分析」書中,作者詳解了從帕斯卡架構到40系的Hopper架構的技術演變進化,按照出版時間算是囊括了NVIDIA
    發表于 06-18 19:31

    如何在Ubuntu安裝NVIDIA顯卡驅動?

    專有顯卡驅動。本文將詳細介紹Ubuntu系統安裝NVIDIA顯卡驅動的多種方法,幫助用戶根據自身情況選擇最適合的安裝方式。 二,硬件參數 平臺:PX22_GPU CPU:I7-11
    的頭像 發表于 05-07 16:05 ?2488次閱讀
    如何在Ubuntu<b class='flag-5'>上</b>安裝<b class='flag-5'>NVIDIA</b>顯卡驅動?

    NVIDIA NVLink 深度解析

    引言 NVIDIA NVLink 是一種關鍵的高速互連技術,專為加速計算而設計,尤其是GPU 系統以及 GPU 和支持 CPU 之間 ^1^。NVLink 的出現標志著傳統互連瓶
    的頭像 發表于 05-06 18:14 ?5188次閱讀

    使用NVIDIA RTX PRO Blackwell系列GPU加速AI開發

    NVIDIA GTC 推出新一代專業級 GPU 和 AI 賦能的開發者工具—同時,ChatRTX 更新現已支持 NVIDIA NIM,RTX Remix 正式結束測試階段,本月的 NVIDIA
    的頭像 發表于 03-28 09:59 ?1300次閱讀

    無法GPU運行ONNX模型的Benchmark_app怎么解決?

    CPU 和 GPU 運行OpenVINO? 2023.0 Benchmark_app推斷的 ONNX 模型。 CPU 推理成功
    發表于 03-06 08:02