国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

使用VS2022對GPU進行CUDA編程

雷達通信電子戰(zhàn) ? 來源:軟硬件技術開發(fā) ? 2023-01-10 09:54 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在異構計算架構中,GPUCPU通過PCIe總線連接在一起來協(xié)同工作,CPU所在位置稱為為主機端(host),而GPU所在位置稱為設備端(device),兩者優(yōu)勢互補。

CUDA作為GPU的編程模型,提供了對其他編程語言的支持,例如常用的C/C++Python等。

下面在windows系統(tǒng)下,使用VS2022對GPU進行CUDA編程。

開始之前你需要準備的硬件是:一塊GPU顯卡。并假設你已經(jīng)提前安裝了VS2022,而且具備一定的軟件編程經(jīng)驗。

安裝CUDA

首先進行CUDA編程模型的安裝,根據(jù)自己的系統(tǒng)情況到CUDA官網(wǎng)下載安裝包。下載完成后進行安裝,過程很簡單。

4ad74652-9034-11ed-bfe3-dac502259ad0.png

4aef7600-9034-11ed-bfe3-dac502259ad0.png

安裝完成后,“win+R”輸入cmd打開終端后輸入:nvcc -V檢驗安裝是否成功。

4b03222c-9034-11ed-bfe3-dac502259ad0.png

若需要下載以前的版本,你還可以點擊查看你需要下載的CUDA版本:

4b0c1f08-9034-11ed-bfe3-dac502259ad0.png

4b156aae-9034-11ed-bfe3-dac502259ad0.png4accc088-9034-11ed-bfe3-dac502259ad0.png

創(chuàng)建VS2022項目

CUDA安裝完成后,打開VS2022創(chuàng)建新項目,選擇CUDA runtime。

4b46ccd4-9034-11ed-bfe3-dac502259ad0.png

4b65daac-9034-11ed-bfe3-dac502259ad0.png

4b820b5a-9034-11ed-bfe3-dac502259ad0.png

新建完成后有一個簡單的例程,直接進行調(diào)試即可看到下面的結(jié)果:

4b934dd4-9034-11ed-bfe3-dac502259ad0.png

在CUDA中,用host指代CPU及其內(nèi)存,用device指代GPU及其內(nèi)存。

CUDA程序既包含host程序,又包含device程序,它們分別在CPU和GPU上運行。

同時,host與device之間可以進行數(shù)據(jù)拷貝。

在CUDA中是通過函數(shù)類型限定詞開區(qū)別host和device上的函數(shù),主要的三個函數(shù)類型限定詞如下:

__global__:在device上執(zhí)行,從host中調(diào)用(一些特定的GPU也可以從device上調(diào)用),返回類型必須是void,不支持可變參數(shù),不能成為類成員函數(shù)。

注意用__global__定義的kernel是異步的,這意味著host不會等待kernel執(zhí)行完就執(zhí)行下一步。

__device__:在device上執(zhí)行,僅可以從device中調(diào)用,不可以和__global__同時用。

__host__:在host上執(zhí)行,僅可以從host上調(diào)用,一般省略不寫,不可以和__global__同時用,但可和__device__,此時函數(shù)會在device和host都編譯。


4ba55a6a-9034-11ed-bfe3-dac502259ad0.png

4bc45776-9034-11ed-bfe3-dac502259ad0.png

4bec1b3a-9034-11ed-bfe3-dac502259ad0.png

該例程雖然簡單,也反映了典型的CUDA程序流程:

分配host內(nèi)存,并進行數(shù)據(jù)初始化;

分配device內(nèi)存,并從host將數(shù)據(jù)拷貝到device上;

在device上調(diào)用CUDA的核函數(shù)(kernel)完成進行并行計算;

將device上的運算結(jié)果拷貝到host上;

釋放device和host上分配的內(nèi)存。

其中,kernel是在device上線程中并行執(zhí)行的函數(shù),核函數(shù)用__global__符號聲明,在調(diào)用時需要用<<>>來指定kernel要執(zhí)行的線程數(shù)量,在CUDA中,每個線程都要執(zhí)行核函數(shù),并且每個線程會分配一個唯一的線程號thread ID,這個ID值可以通過核函數(shù)的內(nèi)置變量threadIdx來獲得。





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • PCIE總線
    +關注

    關注

    0

    文章

    58

    瀏覽量

    14019
  • python
    +關注

    關注

    57

    文章

    4876

    瀏覽量

    90030
  • CUDA
    +關注

    關注

    0

    文章

    127

    瀏覽量

    14475

原文標題:安裝CUDA,并使用VS2022開始CUDA編程

文章出處:【微信號:雷達通信電子戰(zhàn),微信公眾號:雷達通信電子戰(zhàn)】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    在K520上能使用兩個GPU進行CUDA作業(yè)嗎

    如果沒有其他用戶共享K520,您是否可以抓取兩個GPU進行CUDA計算作業(yè)?我們的應用程序使用GPU進行顯示和計算。當我們在AWS K520
    發(fā)表于 09-26 15:23

    CUDA編程教程

    Nvidia CUDA 2.0編程教程
    發(fā)表于 03-05 07:30

    linux安裝GPU顯卡驅(qū)動、CUDA和cuDNN庫

    /deviceQuery若看到類似以下信息則說明 cuda 已安裝成功: 7、安裝cuDNN cuDNN是GPU加速計算深層神經(jīng)網(wǎng)絡的庫。首先去官網(wǎng) https://developer.nvidia.com
    發(fā)表于 07-09 07:45

    GPU加速的L0范數(shù)圖像平滑(L0 Smooth)【CUDA

    GPU 加速的 L0 范數(shù)圖像平滑(L0 Smooth)【CUDA
    發(fā)表于 07-08 12:10

    計算機組成原理 — GPU 圖形處理器 精選資料分享

    目錄文章目錄目錄顯卡GPUCPU 與 GPU 的區(qū)別GPU 的架構CUDA 編程模式CUDA 的架構利用
    發(fā)表于 07-23 08:56

    VS2022破解vMicro

    VS2022破解vMicro以前一直在用VS2019來進行Arduino的開發(fā),用的也是Visual Micro這款擴展。今天發(fā)現(xiàn)VS2022上也上架了這個擴展,就想著能不能把這個版本
    發(fā)表于 01-10 08:02

    GPU高性能運算之CUDA

      全面介紹使用CUDA進行通用計算所需   要的語法、硬件架構、程序優(yōu)化技巧等知識,是進行GPU通用計算程序開發(fā)的入門教材和參考書。   本書共分5章。第1章
    發(fā)表于 08-16 16:21 ?0次下載

    CUDA學習筆記第一篇:一個基本的CUDA C程序

    1、CUDA的簡介 2、GPU架構和CUDA介紹3、CUDA架構4、開發(fā)環(huán)境說明和配置5、開始第一個Hello CUDA程序????5.1、
    的頭像 發(fā)表于 12-14 23:40 ?1792次閱讀

    CUDA簡介: CUDA編程模型概述

    CUDA 編程模型中,線程是進行計算或內(nèi)存操作的最低抽象級別。 從基于 NVIDIA Ampere GPU 架構的設備開始,CUDA
    的頭像 發(fā)表于 04-20 17:16 ?4013次閱讀
    <b class='flag-5'>CUDA</b>簡介: <b class='flag-5'>CUDA</b><b class='flag-5'>編程</b>模型概述

    國產(chǎn)GPU繞不開的CUDA生態(tài)

    CUDA(Compute Unified Device Architecture,統(tǒng)一計算架構)是由英偉達所推出的一種集成技術,是該公司對于GPGPU的正式名稱。通過這個技術,用戶可利用NVIDIA的GPU進行圖像處理之外的運算
    的頭像 發(fā)表于 11-29 09:36 ?5791次閱讀

    使用CUDA進行編程的要求有哪些

    CUDA是NVIDIA的一種用于GPU編程的技術,CUDA核心是GPU上的一組小型計算單元,它們可以同時執(zhí)行大量的計算任務。
    的頭像 發(fā)表于 01-08 09:20 ?3457次閱讀

    GPU平臺生態(tài),英偉達CUDA和AMD ROCm對比分析

    CUDA 除了是并行計算架構外,還是 CPU 和 GPU 協(xié)調(diào)工作的通用語言。在CUDA 編程模型中,主要有 Host(主機)和 Device(設備)兩個概念,Host 包含 CPU
    的頭像 發(fā)表于 05-18 09:57 ?3800次閱讀
    <b class='flag-5'>GPU</b>平臺生態(tài),英偉達<b class='flag-5'>CUDA</b>和AMD ROCm對比分析

    介紹CUDA編程模型及CUDA線程體系

    CUDA 編程模型主要有三個關鍵抽象:層級的線程組,共享內(nèi)存和柵同步(barrier synchronization)。
    的頭像 發(fā)表于 05-19 11:32 ?3080次閱讀
    介紹<b class='flag-5'>CUDA</b><b class='flag-5'>編程</b>模型及<b class='flag-5'>CUDA</b>線程體系

    在Python中借助NVIDIA CUDA Tile簡化GPU編程

    NVIDIA CUDA 13.1 版本新增了基于 Tile 的GPU 編程模式。它是自 CUDA 發(fā)明以來 GPU
    的頭像 發(fā)表于 12-13 10:12 ?1195次閱讀
    在Python中借助NVIDIA <b class='flag-5'>CUDA</b> Tile簡化<b class='flag-5'>GPU</b><b class='flag-5'>編程</b>

    借助NVIDIA CUDA Tile IR后端推進OpenAI Triton的GPU編程

    NVIDIA CUDA Tile 是基于 GPU編程模型,其設計目標是為 NVIDIA Tensor Cores 提供可移植性,從而釋放 GPU 的極限性能。
    的頭像 發(fā)表于 02-10 10:31 ?243次閱讀