国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

使用NVIDIA GPU和SmartNIC的邊緣AI

星星科技指導員 ? 來源:NVIDIA ? 作者:Jacob Liberman ? 2022-04-15 09:20 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

第一篇文章描述了 如何使用預裝驅動程序集成英偉達 GPU 和網絡運營商 。

本文介紹了以下任務:

清理預安裝的驅動程序集成

使用自定義驅動程序容器安裝網絡運營商

使用自定義驅動程序容器安裝 GPU 操作員

NVIDIA 驅動程序集成

預安裝的驅動程序集成方法適用于需要簽名驅動程序的邊緣部署,以實現安全和可測量的引導。當邊緣節點具有不可變的操作系統時,請使用驅動程序容器方法。當并非所有邊緣節點都有加速器時,驅動程序容器也適用。

清理預安裝的驅動程序集成

首先,卸載以前的配置并重新啟動以清除預安裝的驅動程序。

刪除測試播客和網絡附件。

$ kubectl delete pod roce-shared-pod
pod "roce-shared-pod" deleted $ kubectl delete macvlannetwork roce-shared-macvlan-network
macvlannetwork.mellanox.com "roce-shared-macvlan-network" deleted
  1. 卸載網絡運營商掌舵圖。
$ helm delete -n network-operator network-operator
release "network-operator" uninstalled

3 .卸載 MOFED 以刪除預安裝的驅動程序和庫。

$ rmmod nvidia_peermem $ /etc/init.d/openibd stop
Unloading HCA driver: [ OK ] $ cd ~/MLNX_OFED_LINUX-5.4-1.0.3.0-rhel7.9-x86_64 $ ./uninstall.sh 

4 .拆下 GPU 測試盒。

$ kubectl delete pod cuda-vectoradd
pod "cuda-vectoradd" deleted

5 .卸載英偉達 Linux 驅動程序。

$ ./NVIDIA-Linux-x86_64-470.57.02.run --uninstall

6 .拆下 GPU 操作器。

$ helm uninstall gpu-operator-1634173044

7 .重新啟動。

$ sudo shutdown -r now

使用自定義驅動程序容器安裝網絡運營商

本節介紹使用自定義驅動程序容器安裝網絡運營商的步驟。

在容器映像中執行的驅動程序構建腳本需要訪問目標內核的內核開發包。在本例中,內核開發包是通過 ApacheWeb 服務器提供的。

構建容器后,將其上載到網絡運營商 Helm chart 可以從主機訪問的存儲庫。

GPU 操作員將在下一節中使用相同的 web 服務器構建自定義 GPU 操作員驅動程序容器。

安裝 Apache web 服務器并啟動它。

$ sudo firewall-cmd --state
not running $ sudo yum install createrepo yum-utils httpd -y $ systemctl start httpd.service && systemctl enable httpd.service && systemctl status httpd.service
● httpd.service - The Apache HTTP Server Loaded: loaded (/usr/lib/systemd/system/httpd.service; enabled; vendor preset: disabled) Active: active (running) since Wed 2021-10-20 18:10:43 EDT; 4h 45min ago
...
  1. 創建上游 CentOS 7 基本軟件包存儲庫的鏡像。自定義包存儲庫在/ var 分區上需要 500 GB 的可用空間。請注意,將所有 CentOS Base 軟件包下載到 web 服務器可能需要 10 分鐘或更長時間。
$ cd /var/www/html
$ mkdir -p repos/centos/7/x86_64/os
$ reposync -p /var/www/html/repos/centos/7/x86_64/os/ --repo=base --download-metadata -m

3 .將 Linux 內核源文件復制到 web 服務器上的 Base packages 目錄中。本例假設使用 rpmbuild 將自定義內核編譯為 RPM 。

$ cd repos/centos/7/x86_64/os
$ sudo cp ~/rpmbuild/RPMS/x86_64/*.rpm .

網絡運營商需要以下文件:

  • kernel-headers-${KERNEL_VERSION}
  • kernel-devel-${KERNEL_VERSION}

確保 GPU 操作員有這些附加文件:

  • gcc-${GCC_VERSION}
  • elfutils-libelf.x86_64
  • elfutils-libelf-devel.x86_64
$ for i in $(rpm -q kernel-headers kernel-devel elfutils-libelf elfutils-libelf-devel gcc | grep -v "not installed"); do ls $i*; done
kernel-headers-3.10.0-1160.42.2.el7.custom.x86_64.rpm
kernel-devel-3.10.0-1160.42.2.el7.custom.x86_64.rpm
elfutils-libelf-0.176-5.el7.x86_64.rpm
elfutils-libelf-devel-0.176-5.el7.x86_64.rpm
gcc-4.8.5-44.el7.x86_64.rpm

4 .瀏覽到 web 存儲庫以確保可通過 HTTP 訪問該存儲庫。

$ elinks http://localhost/repos/centos/7/x86_64/os --dump Index of /repos/centos/7/x86_64/os [1][ICO] [2]Name [3]Last modified [4]Size [5]Description -------------------------------------------------------------------------- [6][PARENTDIR] [7]Parent Directory - [8][DIR] [9]base/ 2021-10-21 22:55 - [10][DIR] [11]extras/ 2021-10-02 00:29 - -------------------------------------------------------------------------- References Visible links 2. http://localhost/repos/centos/7/x86_64/os/?C=N;O=D 3. http://localhost/repos/centos/7/x86_64/os/?C=M;O=A 4. http://localhost/repos/centos/7/x86_64/os/?C=S;O=A 5. http://localhost/repos/centos/7/x86_64/os/?C=D;O=A 7. http://localhost/repos/centos/7/x86_64/ 9. http://localhost/repos/centos/7/x86_64/os/base/ 11. http://localhost/repos/centos/7/x86_64/os/extras/

5.MOFED 驅動程序容器映像是根據 Github 上mellanox/ofed-docker存儲庫中的源代碼構建的。克隆 ofed docker 存儲庫。

$ git clone https://github.com/Mellanox/ofed-docker.git
$ cd ofed-docker/

6 .為自定義驅動程序容器創建生成目錄。

$ mkdir centos
$ cd centos/

7 .創建 Dockerfile ,將 MOFED 依賴項和源存檔安裝到 CentOS 7.9 基本映像中。指定 MOFED 和 CentOS 版本。

$ sudo cat << EOF | tee Dockerfile
FROM centos:centos7.9.2009 ARG D_OFED_VERSION="5.4-1.0.3.0"
ARG D_OS_VERSION="7.9"
ARG D_OS="rhel${D_OS_VERSION}"
ENV D_OS=${D_OS}
ARG D_ARCH="x86_64"
ARG D_OFED_PATH="MLNX_OFED_LINUX-${D_OFED_VERSION}-${D_OS}-${D_ARCH}"
ENV D_OFED_PATH=${D_OFED_PATH} ARG D_OFED_TARBALL_NAME="${D_OFED_PATH}.tgz"
ARG D_OFED_BASE_URL="https://www.mellanox.com/downloads/ofed/MLNX_OFED-${D_OFED_VERSION}"
ARG D_OFED_URL_PATH="${D_OFED_BASE_URL}/${D_OFED_TARBALL_NAME}" ARG D_WITHOUT_FLAGS="--without-rshim-dkms --without-iser-dkms --without-isert-dkms --without-srp-dkms --without-kernel-mft-dkms --without-mlnx-rdma-rxe-dkms"
ENV D_WITHOUT_FLAGS=${D_WITHOUT_FLAGS} # Download and extract tarball
WORKDIR /root
RUN yum install -y curl && (curl -sL ${D_OFED_URL_PATH} | tar -xzf -) RUN yum install -y atk \ cairo \ ethtool \ gcc-gfortran \ git \ gtk2 \ iproute \ libnl3 \ libxml2-python \ lsof \ make \ net-tools \ numactl-libs \ openssh-clients \ openssh-server \ pciutils \ perl \ python-devel \ redhat-rpm-config \ rpm-build \ tcl \ tcsh \ tk \ wget ADD ./entrypoint.sh /root/entrypoint.sh ENTRYPOINT ["/root/entrypoint.sh"]
EOF

8 .修改 ofed docker 存儲庫中包含的 RHEL entrypoint.sh 腳本,以從 web 服務器安裝自定義內核源程序包。在_install_prerequsities()函數中指定 web 服務器上base/Packages目錄的路徑。

在本例中, 10.150.168.20 是本節前面創建的 web 服務器 IP 地址。

$ cp ../rhel/entrypoint.sh .
$ cat entrypoint.sh
...
# Install the kernel modules header/builtin/order files and generate the kernel version string.
_install_prerequisites() { echo "Installing dependencies" yum -y --releasever=7 install createrepo elfutils-libelf-devel kernel-rpm-macros numactl-libs initscripts grubby linux-firmware libtool echo "Installing Linux kernel headers..." rpm -ivh http://10.150.168.20/repos/centos/7/x86_64/os/base/Packages/kernel-3.10.0-1160.45.1.el7.custom.x86_64.rpm rpm -ivh http://10.150.168.20/repos/centos/7/x86_64/os/base/Packages/kernel-devel-3.10.0-1160.45.1.el7.custom.x86_64.rpm rpm -ivh http://10.150.168.20/repos/centos/7/x86_64/os/base/Packages/kernel-headers-3.10.0-1160.45.1.el7.custom.x86_64.rpm # Prevent depmod from giving a WARNING about missing files touch /lib/modules/${KVER}/modules.order touch /lib/modules/${KVER}/modules.builtin depmod ${KVER}
...

9OFED 驅動程序容器從主機文件系統裝載一個目錄以共享驅動程序文件。創建目錄。

$ mkdir -p /run/mellanox/drivers

10 將新的 CentOS 驅動程序映像上載到注冊表。此示例使用 NGC 專用注冊表。登錄到注冊表。

$ sudo yum install -y podman $ sudo podman login nvcr.io
Username: $oauthtoken
Password: *****************************************
Login Succeeded!

11 使用 Podman 構建驅動程序容器映像并將其推送到注冊表。

$ sudo podman build --no-cache --tag nvcr.io/nv-ngc5g/mofed-5.4-1.0.3.0:centos7-amd64 .

12 標記圖像并將其推送到注冊表。

$ sudo podman images nvcr.io | grep mofed
nvcr.io/nv-ngc5g/mofed-5.4-1.0.3.0 centos7-amd64 d61e555bddda 2 minutes ago 1.13 GB

13 覆蓋英偉達網絡運營商頭盔圖中包含的 Value.YAML 文件,以安裝自定義驅動程序映像。指定自定義驅動程序容器的映像名稱、存儲庫和版本。

$ cat << EOF | sudo tee roce_shared_values_driver.yaml nfd: enabled: false
deployCR: true
ofedDriver: deploy: true image: mofed repository: nvcr.io/nv-ngc5g version: 5.4-1.0.3.0
sriovDevicePlugin: deploy: false
rdmaSharedDevicePlugin: deploy: true resources: - name: rdma_shared_device_a vendors: [15b3] deviceIDs: [101d] ifNames: [ens13f0]
EOF

14 安裝英偉達網絡運營商的新價值。

$ helm install -f ./roce_shared_values_driver.yaml -n network-operator --create-namespace --wait network-operator mellanox/network-operator

15 查看網絡運營商部署的 POD 。 MOFED 吊艙應處于運行狀態。這是自定義驅動程序容器。請注意,在啟動 pod 之前編譯驅動程序可能需要幾分鐘的時間。

$ kubectl -n nvidia-network-operator-resources get pods
NAME READY STATUS RESTARTS AGE
cni-plugins-ds-zr9kf 1/1 Running 0 10m
kube-multus-ds-w57rz 1/1 Running 0 10m
mofed-centos7-ds-cbs74 1/1 Running 0 10m
rdma-shared-dp-ds-ch8m2 1/1 Running 0 2m27s
whereabouts-z947f 1/1 Running 0 10m

16 驗證主機上是否加載了 MOFED 驅動程序。

$ lsmod | egrep '^ib|^mlx|^rdma'
rdma_ucm 27022 0 rdma_cm 65212 1 rdma_ucm
ib_ipoib 124872 0 ib_cm 53085 2 rdma_cm,ib_ipoib
ib_umad 27744 0 mlx5_ib 384793 0 mlx5_core 1360822 1 mlx5_ib
ib_uverbs 132833 2 mlx5_ib,rdma_ucm
ib_core 357959 8 rdma_cm,ib_cm,iw_cm,mlx5_ib,ib_umad,ib_uverbs,rdma_ucm,ib_ipoib
mlx_compat 55063 11 rdma_cm,ib_cm,iw_cm,auxiliary,mlx5_ib,ib_core,ib_umad,ib_uverbs,mlx5_core,rdma_ucm,ib_ipoib
mlxfw 22321 1 mlx5_core

17 驅動程序容器的根文件系統應綁定到主機上的/run/mellanox/drivers目錄。

$ ls /run/mellanox/drivers
anaconda-post.log bin boot dev etc home host lib lib64 media mnt opt proc root run sbin srv sys tmp usr var

使用自定義驅動程序容器安裝 GPU 操作員

本節介紹使用自定義驅動程序容器安裝 GPU 操作符的步驟。

與網絡運營商一樣, GPU 運營商容器執行的驅動程序構建腳本需要訪問目標內核的開發包。

本例使用的 web 服務器與上一節中向網絡運營商交付開發包的 web 服務器相同。

構建容器后,將其上載到 GPU 操作員 Helm chart 可以從主機訪問的存儲庫。與網絡運營商示例一樣, GPU 運營商也使用 NGC 上的專用注冊表。

構建自定義驅動程序容器。

$ cd ~
$ git clone https://gitlab.com/nvidia/container-images/driver.git
$ cd driver/centos7

2 .更新 CentOS Dockerfile 以使用驅動程序版本 470.74 。注釋掉未使用的參數。

$ grep ARG Dockerfile ARG BASE_URL=http://us.download.nvidia.com/XFree86/Linux-x86_64
#ARG BASE_URL=https://us.download.nvidia.com/tesla
ARG DRIVER_VERSION=470.74
ARG DRIVER_TYPE=passthrough
ARG VGPU_LICENSE_SERVER_TYPE=FNE
ARG PUBLIC_KEY=''
#ARG PUBLIC_KEY=empty
ARG PRIVATE_KEY

3 .構建 GPU 驅動程序容器映像并將其推送到 NGC 。

$ sudo podman build --no-cache --tag nvcr.io/nv-ngc5g/driver:470.74-centos7 .

4 .查看 GPU 驅動程序容器圖像。

$ podman images nvcr.io | grep 470
nvcr.io/nv-ngc5g/driver 470.74-centos7 630f0f8e77f5 2 minutes ago 1.28 GB

5 .驗證為網絡運營商安裝創建的自定義存儲庫中是否存在以下文件:

  • elfutils-libelf.x86_64
  • elfutils-libelf-devel.x86_64
  • kernel-headers-${KERNEL_VERSION}
  • kernel-devel-${KERNEL_VERSION}
  • gcc-${GCC_VERSION}

編譯自定義內核映像的驅動程序需要這些文件。

$ cd /var/www/html/repos/centos/7/x86_64/os/base/Packages/ $ for i in $(rpm -q kernel-headers kernel-devel elfutils-libelf elfutils-libelf-devel gcc | grep -v "not installed"); do ls $i*; done
kernel-headers-3.10.0-1160.45.1.el7.custom.x86_64.rpm
kernel-devel-3.10.0-1160.45.1.el7.custom.x86_64.rpm
elfutils-libelf-0.176-5.el7.x86_64.rpm
elfutils-libelf-devel-0.176-5.el7.x86_64.rpm
gcc-4.8.5-44.el7.x86_64.rpm

6 .與網絡運營商不同, GPU 運營商使用自定義的 Yum 存儲庫配置文件。創建引用自定義鏡像存儲庫的 Yum repo 文件。

$ cd /var/www/html/repos $ cat << EOF | sudo tee custom-repo.repo [base]
name=CentOS Linux $releasever - Base
baseurl=http://10.150.168.20/repos/centos/$releasever/$basearch/os/base/
gpgcheck=0
enabled=1
EOF

7.GPU 運算符使用 Kubernetes ConfigMap 來配置自定義存儲庫。 ConfigMap 必須在gpu-operator-resources命名空間中可用。創建名稱空間和 ConfigMap 。

$ kubectl create ns gpu-operator-resources $ kubectl create configmap repo-config -n gpu-operator-resources --from-file=/var/www/html/repos/custom-repo.repo
configmap/repo-config created $ kubectl describe cm -n gpu-operator-resources repo-config Name: repo-config
Namespace: gpu-operator-resources
Labels: 
Annotations:  Data
====
custom-repo.repo:
----
[base]
name=CentOS Linux $releasever - Base
baseurl=http://10.150.168.20/repos/centos/$releasever/$basearch/os/base/
gpgcheck=0
enabled=1

8 .安裝 GPU 操作員舵圖。指定自定義存儲庫位置、自定義驅動程序版本以及自定義驅動程序映像名稱和位置。

$ helm install nvidia/gpu-operator --generate-name --set driver.repoConfig.configMapName=repo-config --set driver.repoConfig.destinationDir=/etc/yum.repos.d --set driver.image=driver --set driver.repository=nvcr.io/nv-ngc5g --set-string driver.version="470.74" --set toolkit.version=1.7.1-centos7 --set operator.defaultRuntime=crio

9 查看已部署的吊艙。

$ kubectl get pods -n gpu-operator-resources
NAME READY STATUS RESTARTS AGE
gpu-feature-discovery-r6kq6 1/1 Running 0 3m33s
nvidia-container-toolkit-daemonset-62pbj 1/1 Running 0 3m33s
nvidia-cuda-validator-ljd5l 0/1 Completed 0 119s
nvidia-dcgm-9nsfx 1/1 Running 0 3m33s
nvidia-dcgm-exporter-zm82v 1/1 Running 0 3m33s
nvidia-device-plugin-daemonset-bp66r 1/1 Running 0 3m33s
nvidia-device-plugin-validator-8pbmv 0/1 Completed 0 108s
nvidia-driver-daemonset-4tx24 1/1 Running 0 3m33s
nvidia-mig-manager-kvcgc 1/1 Running 0 3m32s
nvidia-operator-validator-g9xz5 1/1 Running 0 3m33s

10 驗證驅動程序是否已加載。

$ lsmod | grep nvidia
nvidia_modeset 1195268 0 nvidia_uvm 995356 0 nvidia 35237551 114 nvidia_modeset,nvidia_uvm
drm 456166 5 ast,ttm,drm_kms_helper,nvidia

11 從驅動程序守護程序盒運行 nvidia smi 。

Defaulted container "nvidia-driver-ctr" out of: nvidia-driver-ctr, k8s-driver-manager (init)
Thu Oct 28 02:37:50 2021 +-----------------------------------------------------------------------------+
| NVIDIA-SMI 470.74 Driver Version: 470.74 CUDA Version: 11.4 |
|-------------------------------+----------------------+----------------------+
| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
| | | MIG M. |
|===============================+======================+======================|
| 0 NVIDIA A100-PCI... On | 00000000:23:00.0 Off | 0 |
| N/A 25C P0 32W / 250W | 0MiB / 40536MiB | 0% Default |
| | | Disabled |
+-------------------------------+----------------------+----------------------+
| 1 NVIDIA A100-PCI... On | 00000000:E6:00.0 Off | 0 |
| N/A 27C P0 32W / 250W | 0MiB / 40536MiB | 0% Default |
| | | Disabled |
+-------------------------------+----------------------+----------------------+ +-----------------------------------------------------------------------------+
| Processes: |
| GPU GI CI PID Type Process name GPU Memory |
| ID ID Usage |
|=============================================================================|
| No running processes found |
+-----------------------------------------------------------------------------+

啟用 GPUnDeID-RDMA 的英偉達對等存儲器驅動器不是自動構建的。

重復此過程以構建自定義 nvidia peermem 驅動程序容器。

對于 GPU 運營商中的 nvidia peermem 安裝程序尚不支持的任何 Linux 操作系統,都需要此附加步驟。

英偉達加速器的未來

NVIDIA 加速器有助于在傳感器數據呈指數級增長的情況下,對未來的邊緣 AI 投資進行驗證。 NVIDIA 運營商是云本地軟件,可簡化 Kubernetes 上的加速器部署和管理。運營商支持流行的 Kubernetes 開箱即用平臺,并且可以定制以支持替代平臺。

關于作者

Jacob Liberman 是 NVIDIA 企業和邊緣加速集團的產品經理。他利用 20 多年的技術計算經驗提供高性能、云計算原生邊緣人工智能解決方案。此前,他曾在紅帽、 AMD 和戴爾擔任產品管理和工程職務。

審核編輯:法人

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 傳感器
    +關注

    關注

    2576

    文章

    54937

    瀏覽量

    790322
  • NVIDIA
    +關注

    關注

    14

    文章

    5581

    瀏覽量

    109553
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    基于NVIDIA模組與軟件套件推動邊緣與機器人AI推理

    NVIDIA 正式推出 NVIDIA Jetson T4000,將高性能 AI 與實時推理能力帶入更廣泛的機器人和邊緣 AI 應用。T400
    的頭像 發表于 01-14 09:46 ?451次閱讀
    基于<b class='flag-5'>NVIDIA</b>模組與軟件套件推動<b class='flag-5'>邊緣</b>與機器人<b class='flag-5'>AI</b>推理

    NVIDIA RTX PRO 5000 Blackwell GPU的深度評測

    NVIDIA RTX PRO 5000 Blackwell 是 NVIDIA RTX 5000 Ada Generation 的升級迭代產品,其各項核心指標均針對 GPU 加速工作流的高性能
    的頭像 發表于 01-06 09:51 ?1684次閱讀
    <b class='flag-5'>NVIDIA</b> RTX PRO 5000 Blackwell <b class='flag-5'>GPU</b>的深度評測

    如何在NVIDIA Jetson平臺上運行最新的開源AI模型

    在小型、低功耗的邊緣設備上運行先進的 AI 和計算機視覺工作流正變得越來越具有挑戰性。機器人、智能攝像頭和自主設備需要實時智能來感知、理解并做出反應,而無需依賴云端。NVIDIA Jetson 平臺通過緊湊的
    的頭像 發表于 12-24 10:38 ?1487次閱讀
    如何在<b class='flag-5'>NVIDIA</b> Jetson平臺上運行最新的開源<b class='flag-5'>AI</b>模型

    NVIDIA RTX PRO 5000 72GB Blackwell GPU現已全面上市

    NVIDIA RTX PRO 5000 72GB Blackwell GPU 現已全面上市,將基于 NVIDIA Blackwell 架構的強大代理式與生成式 AI 能力帶到更多桌面和
    的頭像 發表于 12-24 10:32 ?756次閱讀
    <b class='flag-5'>NVIDIA</b> RTX PRO 5000 72GB Blackwell <b class='flag-5'>GPU</b>現已全面上市

    NVIDIA RTX PRO 2000 Blackwell GPU性能測試

    越來越多的應用正在使用 AI 加速,而無論工作站的大小或形態如何,都有越來越多的用戶需要 AI 性能。NVIDIA RTX PRO 2000 Blackwell 是全新 NVIDIA
    的頭像 發表于 11-28 09:39 ?5983次閱讀
    <b class='flag-5'>NVIDIA</b> RTX PRO 2000 Blackwell <b class='flag-5'>GPU</b>性能測試

    NVIDIA Isaac Lab多GPU多節點訓練指南

    NVIDIA Isaac Lab 是一個適用于機器人學習的開源統一框架,基于 NVIDIA Isaac Sim 開發,其模塊化高保真仿真適用于各種訓練環境,可提供各種物理 AI 功能和由 GP
    的頭像 發表于 09-23 17:15 ?2344次閱讀
    <b class='flag-5'>NVIDIA</b> Isaac Lab多<b class='flag-5'>GPU</b>多節點訓練指南

    適應邊緣AI全新時代的GPU架構

    電子發燒友網站提供《適應邊緣AI全新時代的GPU架構.pdf》資料免費下載
    發表于 09-15 16:42 ?43次下載

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片的需求和挑戰

    的工作嗎? 從書中也了解到了AI芯片都有哪些?像CPU、GPU、FPGA、ASIC都是AI芯片。 其他的還是知道的,FPGA屬于AI芯片這個真不知道,以為它是數字芯片的,不曉得屬于
    發表于 09-12 16:07

    研華科技推出基于NVIDIA Jetson Thor平臺的邊緣AI新品MIC-743

    研華重磅推出基于NVIDIA Jetson Thor平臺的邊緣AI新品 MIC-743,這款突破性產品以高達2070 FP4 TOPS的AI算力重新定義
    的頭像 發表于 08-29 14:53 ?2008次閱讀

    NVIDIA RTX PRO 4500 Blackwell GPU測試分析

    今天我們帶來全新 NVIDIA Blackwell 架構 GPU —— NVIDIA RTX PRO 4500 Blackwell 的測試,對比上一代產品 NVIDIA RTX 450
    的頭像 發表于 08-28 11:02 ?3873次閱讀
    <b class='flag-5'>NVIDIA</b> RTX PRO 4500 Blackwell <b class='flag-5'>GPU</b>測試分析

    NVIDIA桌面GPU系列擴展新產品

    NVIDIA 桌面 GPU 系列擴展,推出 NVIDIA RTX PRO 4000 SFF Edition GPU 和 RTX PRO 2000 Blackwell
    的頭像 發表于 08-18 11:50 ?1361次閱讀

    邊緣AI盒子技術解析:ASIC/FPGA/GPU芯片及邊緣-云端協同與自適應推理

    ? 電子發燒友網綜合報道 邊緣AI盒子是一種集成了高性能芯片、AI算法和數據處理能力的硬件設備,部署在數據源的邊緣側,如工廠、商場、交通路口等,能在本地進行數據采集、預處理、分析和決策
    的頭像 發表于 07-13 08:25 ?4468次閱讀

    NVIDIA計劃打造全球首個工業AI云平臺

    NVIDIA 宣布,其正在為歐洲制造商構建全球首個工業 AI 云。這家總部位于德國的 AI 工廠將配備 1 萬個 GPU,包括通過 NVIDIA
    的頭像 發表于 06-16 14:17 ?1369次閱讀

    使用NVIDIA RTX PRO Blackwell系列GPU加速AI開發

    NVIDIA GTC 推出新一代專業級 GPUAI 賦能的開發者工具—同時,ChatRTX 更新現已支持 NVIDIA NIM,RTX Remix 正式結束測試階段,本月的
    的頭像 發表于 03-28 09:59 ?1268次閱讀

    AI賦能邊緣網關:開啟智能時代的新藍海

    在數字化轉型的浪潮中,AI邊緣計算的結合正掀起一場深刻的產業變革。邊緣網關作為連接物理世界與數字世界的橋梁,在AI技術的加持下,正從簡單的數據采集傳輸節點,進化為具備智能決策能力的
    發表于 02-15 11:41