從云端到邊緣完善的系統(tǒng)組合,支持NVIDIA HGX H100系統(tǒng)、L40和L4 GPU及OVX 3.0系統(tǒng)
【2023 年 3 月 21 日美國(guó)加州圣何塞訊】Super Micro Computer, Inc. (NASDAQ:SMCI) 為AI/ML、云端、存儲(chǔ)和5G/智能邊緣應(yīng)用的全方位IT解決方案供應(yīng)商,宣布其配備最新NVIDIA HGX H100 8-GPU系統(tǒng)的頂級(jí)全新GPU服務(wù)器開(kāi)始出貨。該服務(wù)器整合了最新的NVIDIA L4 Tensor Core GPU至從邊緣到數(shù)據(jù)中心的各種應(yīng)用優(yōu)化服務(wù)器中。
Supermicro總裁暨首席執(zhí)行官梁見(jiàn)后(Charles Liang)表示:“Supermicro提供業(yè)界最全面的 GPU系統(tǒng)產(chǎn)品組合,包含 8U、6U、5U、4U、2U 和 1U 外形尺寸的服務(wù)器,并支持全系列新NVIDIA H100 GPU的工作站和SuperBlade系統(tǒng)。 通過(guò)這款NVIDIA HGX H100 Delta-Next 服務(wù)器,客戶將獲得相較上一代 AI 訓(xùn)練應(yīng)用9倍的性能提升。 我們的GPU服務(wù)器采用創(chuàng)新的氣流設(shè)計(jì),能全面降低風(fēng)扇轉(zhuǎn)速、噪音和功耗,進(jìn)而降低總擁有成本(TCO)。 此外,對(duì)于正在尋找符合未來(lái)需求的數(shù)據(jù)中心的客戶,我們也為其提供完整的機(jī)柜級(jí)(rack-scale)液冷選項(xiàng)。 ”
Supermicro的高性能新型8U GPU服務(wù)器現(xiàn)已大量出貨。 這款全新 Supermicro 8U 服務(wù)器特別針對(duì)AI、DL、ML和HPC工作負(fù)載進(jìn)行了優(yōu)化,搭載能達(dá)到高GPU-to-GPU通信的NVIDIA HGX H100 8-GPU,使用高速NVIDIA NVLink? 4.0技術(shù)、NVSwitch 互連,以及 NVIDIA Quantum-2 InfiniBand 和 Spectrum-4 以太網(wǎng),從而大幅突破 AI 的障礙。 此外,Supermicro還提供多種性能優(yōu)化的GPU服務(wù)器配置,包括直連/單根(single-root)/ 雙根(dual-root) CPU-to-GPU,另外還有前置或后置 I/O 機(jī)型,在標(biāo)準(zhǔn)和OCP DC機(jī)柜 配置中使用AC與DC 電源。 Supermicro X13 SuperBlade? 機(jī)殼可在一個(gè) 8U 機(jī)殼內(nèi)放入 20 個(gè) NVIDIA H100 Tensor Core PCIe GPU 或 40 個(gè) NVIDIA L40 GPU,6U機(jī)殼則最多可使用10個(gè)NVIDIA H100 PCIe GPU或20個(gè)NVIDIA L4 TensorCore GPU。 這些新系統(tǒng)為運(yùn)行NVIDIA AI 平臺(tái)軟件層 NVIDIA AI Enterprise提供理想的優(yōu)化加速功能。
此類服務(wù)器內(nèi)置的液冷系統(tǒng)也適用于其他眾多GPU 服務(wù)器。 此外,Supermicro 發(fā)布了一款液冷式 AI 開(kāi)發(fā)系統(tǒng) (塔式或機(jī)架式配置皆可),內(nèi)含兩個(gè) CPU 和四個(gè)NVIDIA A100 Tensor Core GPU,適合辦公室和家庭辦公環(huán)境,并能部署在部門和企業(yè)集群中。
Supermicro系統(tǒng)支持新的 NVIDIA L4 GPU,與前幾代產(chǎn)品相比,加速和能效均提升數(shù)倍。 此系統(tǒng)同樣適用于企業(yè)、云和邊緣的 AI 推理、視頻流、虛擬工作站和圖形應(yīng)用程序。 L4 采用NVIDIA的AI平臺(tái)和全堆疊方法,經(jīng)過(guò)優(yōu)化調(diào)整,適合進(jìn)行各種 AI 應(yīng)用程序的大規(guī)模推理,包括推薦、語(yǔ)音型 AI 虛擬人物助理、聊天機(jī)器人、視覺(jué)搜索和客服中心自動(dòng)化等,能提供出色的個(gè)性化體驗(yàn)。 L4是適用于主流服務(wù)器的高效NVIDIA加速器,擁有高達(dá)4倍的AI性能、更高的能源使用效率,還有3倍以上的視頻流容量與效率,因此能支持 AV1 編碼/解碼。 L4 GPU擁有多樣化的推理和可視化功能,加上輕巧、節(jié)能、單插槽、薄型、72W的低功耗規(guī)格,是包括邊緣位置在內(nèi)全局部署的理想選擇。
NVIDIA 加速計(jì)算產(chǎn)品主管Dave Salvator 表示:“Supermicro 服務(wù)器配備新的 NVIDIA L4 Tensor Core GPU,擁有無(wú)與倫比的強(qiáng)大性能,讓客戶能高效且可持續(xù)地加快工作負(fù)載速度。 NVIDIA L4經(jīng)過(guò)優(yōu)化,適合用于主流部署,加上外型輕薄,可在72W的低功耗范圍內(nèi)作業(yè),將邊緣AI性能和效率提升至全新境界。”
Supermicro最新的PCIe加速解決方案支持打造3D世界、數(shù)字孿生、3D模擬模型和工業(yè)元宇宙。 除了支持前幾代NVIDIA OVX?系統(tǒng),Supermicro也提供OVX 3.0 配置,配備四個(gè)NVIDIA L40 GPU、兩個(gè)NVIDIA ConnectX-7? SmartNIC、一個(gè)NVIDIA BlueField-3? DPU及新的NVIDIA Omniverse Enterprise?軟件。
?
深入了解所有 Supermicro 先進(jìn)的新GPU系統(tǒng),請(qǐng)?jiān)L問(wèn):https://www.supermicro.com/en/accelerators/nvidia
歡迎至2023 NVIDIA GTC深入了解Supermicro:- https://register.nvidia.com/events/widget/nvidia/gtcspring2023/sponsorcatalog/exhibitor/1564778120132001ghs2/?ncid=ref-spo-128510
?
?
Supermicro推出配備NVIDIA HGX及PCIe型H100 8-GPU尖端服務(wù)器系統(tǒng),適用于AI 訓(xùn)練、深度學(xué)習(xí)、HPC和生成式AI,加速AI和
- AI(298911)
- Supermicro(9677)
- H100(570)
- 生成式AI(1051)
相關(guān)推薦
熱點(diǎn)推薦
云服務(wù)、OEM 借助 NVIDIA AI讓AI訓(xùn)練更上層樓
借助 NVIDIA AI,戴爾、浪潮、Microsoft Azure 和 Supermicro 在今天發(fā)布的新 MLPerf 基準(zhǔn)測(cè)試中創(chuàng)下快速訓(xùn)練 AI 模型的記錄。
2021-12-03 10:19:52
1853
1853
深度學(xué)習(xí)模型部署與優(yōu)化:策略與實(shí)踐;L40S與A100、H100的對(duì)比分析
隨著生成式AI應(yīng)用的迅猛發(fā)展,我們正處在前所未有的大爆發(fā)時(shí)代。在這個(gè)時(shí)代,深度學(xué)習(xí)模型的部署成為一個(gè)亟待解決的問(wèn)題。盡管GPU在訓(xùn)練和推理中扮演著關(guān)鍵角色,但關(guān)于它在生成式AI領(lǐng)域的誤解仍然存在。近期英偉達(dá)L40S GPU架構(gòu)成為了熱門話題,那么與A100和H100相比,L40S有哪些優(yōu)勢(shì)呢?
2023-10-07 09:43:18
2930
2930
基于NVIDIA GPU的加速服務(wù) 為AI、機(jī)器學(xué)習(xí)和AI工作負(fù)載提速
2019年8月26日 ——NVIDIA和VMware今日宣布將為VMware Cloud on AWS推出基于NVIDIA GPU的加速服務(wù),為AI、機(jī)器學(xué)習(xí)和數(shù)據(jù)分析工作流程等現(xiàn)代化企業(yè)應(yīng)用提供支持。
2019-08-30 09:36:37
1696
1696華碩推出最新一代支持11路PCIe 4.0的2U單插槽GPU服務(wù)器
華碩這個(gè)服務(wù)器適用于數(shù)據(jù)中心,適合執(zhí)行AI、數(shù)據(jù)分析及HPC運(yùn)算,因?yàn)樗瑫r(shí)支持AMD及NVIDIA最新產(chǎn)品,包括EYPC 7002系列CPU及NVIDIA A100加速卡,這兩款都是最新的7nm工藝芯片。
2020-09-15 16:23:44
4001
4001Supermicro推出直接液冷優(yōu)化的NVIDIA Blackwell解決方案
機(jī)架中的NVIDIA HGX B200 8-GPU系統(tǒng)數(shù)量,與Supermicro目前領(lǐng)先業(yè)界的搭載NVIDIA HGX H100和H200的液冷型SuperCluster相比,GPU計(jì)算密度得到大幅提升。此
2024-11-25 10:39:23
1214
1214
AI開(kāi)發(fā)者福音!阿里云推出國(guó)內(nèi)首個(gè)基于英偉達(dá)NGC的GPU優(yōu)化容器
云計(jì)算服務(wù)異構(gòu)加速平臺(tái),為人工智能產(chǎn)業(yè)提供多場(chǎng)景化的全球加速能力。2017年11月,阿里云發(fā)布了國(guó)內(nèi)首個(gè)支持 NVIDIA ?Tesla ?V100 GPU 的實(shí)例GN6,可帶來(lái)數(shù)倍的深度學(xué)習(xí)性能提升
2018-04-04 14:39:24
AI芯片界的領(lǐng)頭羊進(jìn)軍機(jī)器人行業(yè)
戰(zhàn)略合作,共同設(shè)計(jì)開(kāi)發(fā)新型超級(jí)計(jì)算機(jī)系統(tǒng)和服務(wù)器。英偉達(dá)開(kāi)發(fā)的圖形處理單元芯片(GPU),很好適用于浮點(diǎn)計(jì)算,表現(xiàn)勝于英特爾的傳統(tǒng)CPU Xeon和AMD的Opteron。排名第二位的“泰坦”也搭載了
2018-06-11 08:20:23
NVIDIA 在首個(gè)AI推理基準(zhǔn)測(cè)試中大放異彩
分為四個(gè)場(chǎng)景:與數(shù)據(jù)中心應(yīng)用關(guān)聯(lián)性最高的服務(wù)器和離線場(chǎng)景,以及用于滿足邊緣設(shè)備地芯片系統(tǒng)需求的單流和多流場(chǎng)景。 NVIDIA在兩個(gè)數(shù)據(jù)中心場(chǎng)景(離線和服務(wù)器)的全部五項(xiàng)基準(zhǔn)測(cè)試中均排在第一位
2019-11-08 19:44:51
深度學(xué)習(xí)推理和計(jì)算-通用AI核心
商業(yè)發(fā)行之前就已經(jīng)過(guò)時(shí)了。算法明天需要對(duì)架構(gòu)、內(nèi)存/數(shù)據(jù)進(jìn)行徹底改革資源和能力。推理的夢(mèng)幻建筑重新定義重寫在計(jì)算和交付突破性的人工智能加速和靈活的計(jì)算能力超越了服務(wù)器級(jí)CPU和比GPU/ASIC通用
2020-11-01 09:28:57
適用于數(shù)據(jù)中心和AI時(shí)代的800G網(wǎng)絡(luò)
100Gbps,整體速率高達(dá)800Gbps。這意味著在AI模型訓(xùn)練過(guò)程中,服務(wù)器之間的數(shù)據(jù)傳輸速率更快,顯著提升訓(xùn)練效率。相比NRZ,PAM4在相同頻譜范圍內(nèi)可以承載雙倍數(shù)據(jù)量,從而提升網(wǎng)絡(luò)吞吐能力
2025-03-25 17:35:05
Arm Neoverse NVIDIA Grace CPU 超級(jí)芯片:為人工智能的未來(lái)設(shè)定步伐
和數(shù)據(jù)吞吐量進(jìn)行優(yōu)化的服務(wù)器和數(shù)據(jù)中心人工智能和機(jī)器學(xué)習(xí) (ML) 的需求。否則,人工智能所需的成本、電力和碳將開(kāi)始超過(guò)收益。NVIDIA 率先使用 GPU 來(lái)提高數(shù)據(jù)中心中 HPC 和 AI 的性能
2022-03-29 14:40:21
BPI-AIM7 RK3588 AI與 Nvidia Jetson Nano 生態(tài)系統(tǒng)兼容的低功耗 AI 模塊
.264)
主要接口
12x MIPI CSI-2(多攝像頭同步);PCIe 3.0 x4(AI 加速器支持);HDMI 2.1 + DP 1.4(雙 8K 輸出)
操作系統(tǒng)支持
Linux 5.10
2025-10-11 09:08:33
Banana Pi BPI-CM6 計(jì)算模塊將 8 核 RISC-V 處理器帶入 CM4 外形尺寸
具有顯著優(yōu)勢(shì)。
該模塊通過(guò)載板提供 PCIe 和以太網(wǎng)接口,可用于構(gòu)建 NAS 設(shè)備、小型網(wǎng)絡(luò)設(shè)備或輕量級(jí)服務(wù)器。其顯示和 USB 功能也可供開(kāi)發(fā)者用于制作小型 PC、自助服務(wù)終端和嵌入式 Linux
2025-12-20 09:01:01
FPGA在深度學(xué)習(xí)應(yīng)用中或?qū)⑷〈?b class="flag-6" style="color: red">GPU
、筆記本電腦或機(jī)架式服務(wù)器上訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí),這不是什么大問(wèn)題。但是,許多部署深度學(xué)習(xí)模型的環(huán)境對(duì) GPU 并不友好,比如自動(dòng)駕駛汽車、工廠、機(jī)器人和許多智慧城市環(huán)境,在這些環(huán)境中硬件必須忍受熱、灰塵、濕度
2024-03-21 15:19:45
ST MCU邊緣AI開(kāi)發(fā)者云 - STM32Cube.AI
STM32微控制器生成優(yōu)化的C代碼,無(wú)需事先安裝軟件。數(shù)據(jù)科學(xué)家和開(kāi)發(fā)人員受益于STM32Cube.AI久經(jīng)考驗(yàn)的神經(jīng)網(wǎng)絡(luò)優(yōu)化性能,以開(kāi)發(fā)邊緣AI項(xiàng)目。? 訪問(wèn)STM32模型庫(kù),這是一個(gè)可訓(xùn)練的深度學(xué)習(xí)
2023-02-02 09:52:43
《AI Agent 應(yīng)用與項(xiàng)目實(shí)戰(zhàn)》----- 學(xué)習(xí)如何開(kāi)發(fā)視頻應(yīng)用
再次感謝發(fā)燒友提供的閱讀體驗(yàn)活動(dòng)。本期跟隨《AI Agent 應(yīng)用與項(xiàng)目實(shí)戰(zhàn)》這本書學(xué)習(xí)如何構(gòu)建開(kāi)發(fā)一個(gè)視頻應(yīng)用。AI Agent是一種智能應(yīng)用,能夠根據(jù)用戶需求和環(huán)境變化做出相應(yīng)響應(yīng)。通?;?b class="flag-6" style="color: red">深度
2025-03-05 19:52:08
【CC3200AI實(shí)驗(yàn)教程11】瘋殼·AI語(yǔ)音人臉識(shí)別-AI語(yǔ)音系統(tǒng)架構(gòu)
傳送到CC3200,CC3200通過(guò)wifi把采集到的語(yǔ)音信號(hào)發(fā)送給服務(wù)器,服務(wù)器再使用百度AI語(yǔ)音識(shí)別的API把語(yǔ)音信號(hào)傳送到百度AI的服務(wù)器上;當(dāng)語(yǔ)音識(shí)別成功后,百度AI返回識(shí)別后的字符串給到服務(wù)器
2022-08-30 14:54:38
【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI芯片的需求和挑戰(zhàn)
當(dāng)今社會(huì),AI已經(jīng)發(fā)展很迅速了,但是你了解AI的發(fā)展歷程嗎?本章作者將為我們打開(kāi)AI的發(fā)展歷程以及需求和挑戰(zhàn)的面紗。
從2017年開(kāi)始生成式AI開(kāi)創(chuàng)了新的時(shí)代,經(jīng)歷了三次熱潮和兩次低谷。
生成式
2025-09-12 16:07:57
【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+第二章 實(shí)現(xiàn)深度學(xué)習(xí)AI芯片的創(chuàng)新方法與架構(gòu)
運(yùn)算符用于編碼器層和解碼器層。
②LightSeq2采用了混合精度更新進(jìn)行訓(xùn)練。
③LightSeq2推出了加速整個(gè)Transformer訓(xùn)練過(guò)程的方案。
4、基于FPGA的大模型計(jì)算
4.1加速矩陣
2025-09-12 17:30:42
【產(chǎn)品活動(dòng)】阿里云GPU云服務(wù)器年付5折!阿里云異構(gòu)計(jì)算助推行業(yè)發(fā)展!
用于搭建深度學(xué)習(xí)訓(xùn)練加速平臺(tái)的云端利器。GN5采用了NVIDIA Pascal架構(gòu)P100 GPU,可在云端按需構(gòu)建敏捷彈性、高性能和高性價(jià)比的深度學(xué)習(xí)平臺(tái),讓用戶以最簡(jiǎn)便地方式享用阿里云遍布全球的高效
2017-12-26 11:22:09
【米爾FZ3深度學(xué)習(xí)計(jì)算卡試用體驗(yàn)】搭建Vitis Ai系統(tǒng)平臺(tái)并測(cè)試
1 Vitis AiVitis? AI 開(kāi)發(fā)環(huán)境是 Xilinx 的開(kāi)發(fā)平臺(tái),適用于在 Xilinx 硬件平臺(tái)(包括邊緣器件和 Alveo 卡)上進(jìn)行人工智能推斷。它由優(yōu)化的 IP、工具、庫(kù)、模型
2020-12-03 19:22:13
人工智能AI-卷積神經(jīng)網(wǎng)絡(luò)LabVIEW之Yolov3+tensorflow深度學(xué)習(xí)有用嗎?
python編程語(yǔ)言的前提下,使用labview訓(xùn)練和部署深度學(xué)習(xí)模型,并配備相關(guān)案例視頻以及源碼。適用人群:1、適用于工業(yè)自動(dòng)化行業(yè)從業(yè)者利用labview或者C#進(jìn)行深度學(xué)習(xí)應(yīng)用;2、適用于plc
2020-11-27 11:19:37
華迅光通AI計(jì)算加速800G光模塊部署
,都需要更多的光模塊來(lái)進(jìn)行光纖通信。對(duì)于使用gpu的廣泛AI訓(xùn)練應(yīng)用,在NVIDIA的DGX H100服務(wù)器中,集成了8個(gè)H100 gpu,對(duì)計(jì)算和存儲(chǔ)網(wǎng)絡(luò)的需求相當(dāng)于大約12個(gè)800G光模塊和18個(gè)
2024-11-13 10:16:44
可以在同一臺(tái)服務(wù)器上混合使用不同的NVIDIA GPU
擁有相同的(Dell R740xd)服務(wù)器是否可能(或甚至有意義):1. P40- 用于VMWare Horizo??n VDI圖形2. V100- 用于深度學(xué)習(xí)/ HPC開(kāi)發(fā)或者是否需要/建議在
2018-10-10 16:11:04
如何加速電信領(lǐng)域AI開(kāi)發(fā)?
在即將開(kāi)展的“中國(guó)移動(dòng)全球合作伙伴大會(huì)”上,華為將發(fā)布一款面向運(yùn)營(yíng)商電信領(lǐng)域的一站式AI開(kāi)發(fā)平臺(tái)——SoftCOM AI平臺(tái),幫助電信領(lǐng)域開(kāi)發(fā)者解決AI開(kāi)發(fā)在數(shù)據(jù)準(zhǔn)備、模型訓(xùn)練、模型發(fā)布以及部署驗(yàn)證
2021-02-25 06:53:41
嵌入式AI的相關(guān)資料下載
,小網(wǎng)絡(luò)是一個(gè)學(xué)生讓小網(wǎng)絡(luò)逐漸學(xué)習(xí)到大網(wǎng)絡(luò)的能力三、邊緣側(cè)的訓(xùn)練方法傳統(tǒng)的機(jī)器學(xué)習(xí)訓(xùn)練方法是把數(shù)據(jù)在服務(wù)器上訓(xùn)練好,然后使用聯(lián)邦學(xué)習(xí)是用戶不把數(shù)據(jù)上傳,而是把模型下發(fā)到對(duì)應(yīng)的用戶那里用戶訓(xùn)練以后用戶會(huì)把訓(xùn)練好的模型上傳到服務(wù)器,服務(wù)器再把訓(xùn)練的模型進(jìn)行合成,
2021-12-14 06:57:15
嵌入式邊緣AI應(yīng)用開(kāi)發(fā)指南
、PyTorch和MXNet框架中常用的開(kāi)源深度學(xué)習(xí)模型。這些模型在公共數(shù)據(jù)集上經(jīng)過(guò)預(yù)訓(xùn)練和優(yōu)化,可以在TI適用于邊緣AI的處理器上高效運(yùn)行。TI會(huì)定期使用開(kāi)源社區(qū)中的新模型以及TI設(shè)計(jì)的模型對(duì)Model Zoo
2022-11-03 06:53:28
當(dāng)AI遇上FPGA會(huì)產(chǎn)生怎樣的反應(yīng)
、LSTM以及強(qiáng)化學(xué)習(xí)網(wǎng)絡(luò)等算法在內(nèi)的應(yīng)用加速平臺(tái)和完整的生態(tài)系統(tǒng)。深度學(xué)習(xí)包含兩個(gè)計(jì)算環(huán)節(jié),即線下訓(xùn)練和線上推理環(huán)節(jié)。GPU在深度學(xué)習(xí)算法模型訓(xùn)練上非常高效,但在推理時(shí),一次性只能對(duì)于一個(gè)輸入項(xiàng)進(jìn)行
2021-09-17 17:08:32
新思科技發(fā)布業(yè)界首款全棧式AI驅(qū)動(dòng)型EDA解決方案Synopsys.ai
技(Synopsys, Inc.,納斯達(dá)克股票代碼:SNPS)隆重推出了業(yè)界首款全棧式AI驅(qū)動(dòng)型EDA解決方案Synopsys.ai,覆蓋了先進(jìn)數(shù)字與模擬芯片的設(shè)計(jì)、驗(yàn)證、測(cè)試和制造環(huán)節(jié)?;诖?,開(kāi)發(fā)者第一次
2023-04-03 16:03:26
海思SD3403邊緣計(jì)算AI數(shù)據(jù)訓(xùn)練概述
AI數(shù)據(jù)訓(xùn)練:基于用戶特定應(yīng)用場(chǎng)景,用戶采集照片或視頻,通過(guò)AI數(shù)據(jù)訓(xùn)練工程師**(用戶公司****員工)** ,進(jìn)行特征標(biāo)定后,將標(biāo)定好的訓(xùn)練樣本,通過(guò)AI訓(xùn)練服務(wù)器,進(jìn)行AI學(xué)習(xí)訓(xùn)練獲得訓(xùn)練
2025-04-28 11:11:47
硬件幫助將AI移動(dòng)到邊緣
工廠中,機(jī)器學(xué)習(xí)技術(shù)可能適用于工業(yè)過(guò)程控制中的復(fù)雜傳感器融合,或工業(yè)機(jī)器中的異常檢測(cè)和預(yù)測(cè)性維護(hù)方案。AspenCore Media深入研究了人工智能在邊緣的應(yīng)用,超越了收集大部分媒體的語(yǔ)音和視覺(jué)系統(tǒng)
2019-05-29 10:38:09
請(qǐng)問(wèn)FP_AI_VISION1工程是否可以適用于stm32f746 discovery開(kāi)發(fā)板?
FP_AI_VISION1工程是否可以適用于stm32f746discovery開(kāi)發(fā)板?使用STM32CUBEIDE打開(kāi)FP_AI_VISION1工程為什么沒(méi)有stm32可運(yùn)行文件,不能編譯?
2023-08-07 08:37:02
進(jìn)一步解讀英偉達(dá) Blackwell 架構(gòu)、NVlink及GB200 超級(jí)芯片
架構(gòu)打造的頂尖生成式 AI 系統(tǒng)可應(yīng)用于數(shù)據(jù)中心,為企業(yè)提供高效的人工智能解決方案。
**4.**科學(xué)研究
Blackwell 架構(gòu)的 GPU 可用于科學(xué)研究中的數(shù)據(jù)分析、模擬和計(jì)算,加速研究進(jìn)程
2024-05-13 17:16:22
阿里云CPFS在人工智能/深度學(xué)習(xí)領(lǐng)域的實(shí)踐
眾多的計(jì)算核心可以大量并行的運(yùn)行更多的AI訓(xùn)練/推理線程,使得AI訓(xùn)練/推理在更短的時(shí)間內(nèi)完成更多的計(jì)算任務(wù)。簡(jiǎn)單的說(shuō),GPU讓AI更快,更準(zhǔn)。這種變化使得服務(wù)器的形態(tài)發(fā)生了很大的變化,用于AI/DL
2018-08-23 17:39:35
英偉達(dá)首推HGX-2云服務(wù)器平臺(tái),統(tǒng)合AI與計(jì)算
HGX-2云服務(wù)器平臺(tái)可加速多精度工作負(fù)載;2千萬(wàn)億次浮點(diǎn)計(jì)算處理能力創(chuàng)下全新AI性能紀(jì)錄。
2018-06-01 15:31:38
5989
5989英偉達(dá)HGX-2 GPU加速平臺(tái)構(gòu)建更強(qiáng)大的AI服務(wù)
百度、騰訊借助 HGX-2 構(gòu)建更強(qiáng)大的AI服務(wù);浪潮、聯(lián)想、華為和曙光推出基于全新 HGX-2 的服務(wù)器。
2018-11-23 09:23:24
4405
4405浪潮推出全新5款AI服務(wù)器,可應(yīng)對(duì)多種人工智能計(jì)算場(chǎng)景
5月14日,全球領(lǐng)先的AI計(jì)算基礎(chǔ)架構(gòu)廠商浪潮宣布全新發(fā)布5款AI服務(wù)器,全面支持全新的NVIDIA A100 Tensor Core GPU。浪潮此次發(fā)布的5款AI服務(wù)器將應(yīng)對(duì)多種人工智能計(jì)算場(chǎng)景,可支持8到16顆最新NVIDIA A100 Tensor Core GPU。
2020-05-18 14:58:27
3289
3289NVIDIA發(fā)布了首款基于NVIDIA Ampere架構(gòu)的GPU ——NVIDIA A100 GPU
全球超強(qiáng)大的AI和HPC服務(wù)器平臺(tái)HGX A100,最大可組成AI算力達(dá)10 PFLOPS的超大型服務(wù)器。
2020-06-02 17:11:45
5102
5102NVIDIA GPU加速AI推理洞察,推動(dòng)跨行業(yè)創(chuàng)新
這些AI模型被運(yùn)行在裝載了V100Tensor Core GPU的NVIDIADGX系統(tǒng)上的數(shù)據(jù)中心服務(wù)器上,以及裝載了JetsonAGX Xavier模塊的邊緣計(jì)算網(wǎng)絡(luò)中。該硬件運(yùn)行NVIDIA
2020-07-02 15:00:54
2470
2470浪潮宣布支持NVIDIA最新GPU的AI服務(wù)器全球量產(chǎn)供貨
美國(guó)當(dāng)?shù)貢r(shí)間11月16日,SC20大會(huì)期間,浪潮宣布支持NVIDIA最新的A100 80G GPU的AI服務(wù)器NF5488M5-D和NF5488A5全球量產(chǎn)供貨。 浪潮NF5488A5
2020-11-18 17:50:20
3126
3126NVIDIA公布通過(guò)NVIDIA認(rèn)證系統(tǒng)測(cè)試的全球首批加速服務(wù)器 企業(yè) AI 使用量倍增
芯東西1月27日?qǐng)?bào)道,剛剛,NVIDIA公布通過(guò)NVIDIA認(rèn)證系統(tǒng)測(cè)試的全球首批加速服務(wù)器,它們是目前業(yè)內(nèi)唯一通過(guò)現(xiàn)代工作負(fù)載測(cè)試的服務(wù)器,可用于機(jī)器學(xué)習(xí)和分析。 通過(guò)NVIDIA認(rèn)證系統(tǒng)的產(chǎn)品
2021-01-27 16:25:59
2431
2431Microsoft Azure推出VIDIA A100 GPU VM系列
近日 Microsoft Azure 宣布正式推出 ND A100 v4 VM 系列,這是適用于超級(jí)計(jì)算級(jí) AI 和 HPC 負(fù)載的強(qiáng)大虛擬機(jī),由 NVIDIA A100 Tensor Core
2021-06-11 16:53:54
2913
2913VIDIA宣布在AI超級(jí)計(jì)算平臺(tái)中加入融合了AI與高性能計(jì)算的新技術(shù)
NVIDIA A100 80G PCIe、NVIDIA NDR 400G InfiniBand和NVIDIA Magnum IO三箭齊發(fā)!超強(qiáng)HGX助力廣大HPC系統(tǒng)和云服務(wù) NVIDIA宣布在
2021-06-29 09:50:06
2928
2928GTC2022大會(huì)亮點(diǎn):NVIDIA發(fā)布全新AI計(jì)算系統(tǒng)—DGX H100
GTC2022大會(huì)亮點(diǎn):NVIDIA發(fā)布全新AI計(jì)算系統(tǒng)—DGX H100,借助NVLink連接,DGX使八塊H100成為了一個(gè)巨型GPU。
2022-03-24 15:06:31
2414
2414
NVIDIA發(fā)布DGX H100系統(tǒng) 羅德與施瓦茨提供O-RAN無(wú)線電單元方案
NVIDIA 近日宣布推出第四代 NVIDIA? DGX? 系統(tǒng),這是世界上第一個(gè)使用全新NVIDIA H100 Tensor Core GPU 構(gòu)建的 AI 平臺(tái)。
2022-03-25 11:44:23
5729
5729藍(lán)海大腦服務(wù)器全力支持NVIDIA H100 GPU
藍(lán)海大腦宣布服務(wù)器產(chǎn)品線全力支持最新的 NVIDIA H100 GPU。藍(lán)海大腦服務(wù)器產(chǎn)品在單機(jī)上最多可支持4、8甚至9個(gè)H100 GPU,可為多種人工智能場(chǎng)景提供超強(qiáng)算力、靈活的資源調(diào)度和成熟的生態(tài)支持。
2022-03-31 11:47:09
1979
1979利用NVIDIA HGX H100加速計(jì)算數(shù)據(jù)中心平臺(tái)應(yīng)用
HGX H100 8- GPU 是新一代 Hopper GPU 服務(wù)器的關(guān)鍵組成部分。它擁有八個(gè) H100 張量核 GPU 和四個(gè)第三代 NV 交換機(jī)。每個(gè) H100 GPU 都有多個(gè)第四代
2022-04-20 10:54:19
4180
4180
NVIDIA GPU助力加速先進(jìn)對(duì)話式AI技術(shù)
NVIDIA Riva 是一種 GPU 加速應(yīng)用程序框架,允許公司使用視頻和語(yǔ)音數(shù)據(jù),為自己的行業(yè)、產(chǎn)品和客戶定制最先進(jìn)的對(duì)話式 AI 服務(wù)。
2022-05-06 14:28:33
2247
2247
關(guān)于NVIDIA H100 GPU的問(wèn)題解答
今年的 GTC22 上 NVIDIA 發(fā)布其首款基于 Hopper 架構(gòu)的 GPU —NVIDIA H100。
2022-07-18 10:35:23
2913
2913AI服務(wù)器的應(yīng)用場(chǎng)景有哪些?
關(guān)鍵詞:人工智能、高性能計(jì)算、HPC、GPU、CPU、服務(wù)器、人工智能服務(wù)器、人工智能工作站、深度學(xué)習(xí)、機(jī)器學(xué)習(xí)、液冷散熱、冷板式液冷、水冷工作站、液冷服務(wù)器、AI服務(wù)器 如今,市場(chǎng)上有越來(lái)越多熟悉
2023-01-30 10:06:42
3990
3990
NVIDIA 推出用于邊緣 AI、5G 和 Omniverse 數(shù)字孿生的 GPU 加速 AI-on-5G 系統(tǒng)
上運(yùn)行 5G、AI 應(yīng)用和沉浸式圖形工作負(fù)載的行業(yè)標(biāo)準(zhǔn)解決方案,以用于計(jì)算機(jī)視覺(jué)和元宇宙等領(lǐng)域。 為了滿足這一需求,NVIDIA 正在開(kāi)發(fā)一款新的 AI-on-5G 解決方案, 它將 5G vRAN、邊緣 AI 和數(shù)字孿生工作負(fù)載整合于同一個(gè)一體化、超融合的 GPU 加速系統(tǒng)上。 該系統(tǒng)的較低擁
2023-03-13 09:25:02
1537
1537NVIDIA 為全球企業(yè)帶來(lái)生成式 AI 推出用于創(chuàng)建大型語(yǔ)言模型和視覺(jué)模型的云服務(wù)
為AI驅(qū)動(dòng)的應(yīng)用構(gòu)建自定義模型 ? 加利福尼亞州圣克拉拉 – GTC – 太平洋時(shí)間 2023年3月21日 – 為了加速企業(yè)應(yīng)用生成式AI,NVIDIA今日宣布推出一套云服務(wù),使企業(yè)能夠構(gòu)建、完善
2023-03-22 13:45:40
608
608
NVIDIA推出用于大型語(yǔ)言模型和生成式AI工作負(fù)載的推理平臺(tái)
日 – NVIDIA于今日推出四款推理平臺(tái)。這些平臺(tái)針對(duì)各種快速興起的生成式AI應(yīng)用進(jìn)行了優(yōu)化,能夠幫助開(kāi)發(fā)人員快速構(gòu)建用于提供新服務(wù)和洞察的AI驅(qū)動(dòng)的專業(yè)應(yīng)用。 ? 這些平臺(tái)將NVIDIA的全棧推理
2023-03-22 14:48:39
533
533
GTC23 | NVIDIA 為全球企業(yè)帶來(lái)生成式 AI,推出用于創(chuàng)建大型語(yǔ)言模型和視覺(jué)模型的云服務(wù)
Foundations 云服務(wù)為 AI 驅(qū)動(dòng)的應(yīng)用構(gòu)建 自定義模型 加利福尼亞州圣克拉拉 – GTC – 太平洋時(shí)間 2023年3月21日 – 為了加速企業(yè)應(yīng)用生成式 AI,NVIDIA 宣布推出一套云服務(wù),使企業(yè)
2023-03-23 06:50:04
907
907GTC23 | NVIDIA 推出用于大型語(yǔ)言模型和生成式 AI 工作負(fù)載的推理平臺(tái)
– NVIDIA 于今日推出四款推理平臺(tái)。這些平臺(tái)針對(duì)各種快速興起的生成式 AI 應(yīng)用進(jìn)行了優(yōu)化,能夠幫助開(kāi)發(fā)人員快速構(gòu)建用于提供新服務(wù)和洞察的 AI 驅(qū)動(dòng)的專業(yè)應(yīng)用。 這些平臺(tái)將 NVIDIA
2023-03-23 06:55:02
1494
1494NVIDIA 與微軟合作加速企業(yè)就緒的生成式 AI
月 23 日——? NVIDIA 今天宣布將 NVIDIA AI Enterprise 軟件套件 集成到微軟的 Azure 機(jī)器學(xué)習(xí)中,以幫助企業(yè)加速推進(jìn) AI 計(jì)劃。 此次集成將創(chuàng)建一個(gè)安全、企業(yè)
2023-05-25 09:15:02
994
994
什么是生成式AI?生成式AI的四大優(yōu)勢(shì)
生成式AI是一種特定類型的AI,專注于生成新內(nèi)容,如文本、圖像和音樂(lè)。這些系統(tǒng)在大型數(shù)據(jù)集上進(jìn)行訓(xùn)練,并使用機(jī)器學(xué)習(xí)算法生成與訓(xùn)練數(shù)據(jù)相似的新內(nèi)容。這在各種應(yīng)用程序中都很有用,比如創(chuàng)建藝術(shù)、音樂(lè)和聊天機(jī)器人生成文本等。最近網(wǎng)絡(luò)爆火的AI繪畫,就是屬于生成式 AI的推廣應(yīng)用。
2023-05-29 14:12:31
5147
5147AMD甩出最強(qiáng)AI芯片 單個(gè)GPU跑大模型
專為生成式AI設(shè)計(jì)的GPU:HBM密度是英偉達(dá)H100的2.4倍,帶寬是英偉達(dá)H100的1.6倍。
2023-06-20 10:47:47
1625
1625AI服務(wù)器與傳統(tǒng)服務(wù)器的區(qū)別是什么?
AI 服務(wù)器確實(shí)是整個(gè)服務(wù)器市場(chǎng)的一部分,但它們是專門為基于云的 AI 模型訓(xùn)練或推理而設(shè)計(jì)的。在規(guī)格方面,廣義的AI服務(wù)器是指搭載AI芯片(如前面提到的GPU、FPGA、ASIC)的服務(wù)器,而狹義的定義則包括至少搭載一塊GPU的服務(wù)器。
2023-06-21 12:40:02
3013
3013華碩新品將搭載英偉達(dá)AI芯片,新品未上市訂單已排至明年!
華碩今日宣布正式推出旗下搭載英偉達(dá)(NVIDIA)HGX H100的AI高階服務(wù)器產(chǎn)品,且新品未上市就已有超高詢問(wèn)度,目前手上訂單已滿到明年。
2023-07-20 16:32:20
1505
1505SIGGRAPH 2023 | NVIDIA 與全球數(shù)據(jù)中心系統(tǒng)制造商大力推動(dòng) AI 與工業(yè)數(shù)字化的發(fā)展
OVX 服務(wù)器采用全新 NVIDIA GPU 以加速訓(xùn)練和推理以及圖形密集型工作負(fù)載,將通過(guò)戴爾科技、慧與、聯(lián)想、超微等公司提供。 洛杉磯 — SIGGRAPH — 太平洋時(shí)間 2023 年 8 月
2023-08-09 19:10:06
858
858AI服務(wù)器架構(gòu)的五大硬件拆解
AI 服務(wù)器我們瞄準(zhǔn)英偉達(dá) DGX A100 和 DGX H100 兩款具有標(biāo)桿性產(chǎn)品力的產(chǎn)品進(jìn)行分析,鑒于 H100 發(fā)布時(shí)間較短、資料詳盡度不夠,我們首先從 DGX A100 出發(fā)來(lái)觀測(cè)具有產(chǎn)品力的 AI 服務(wù)器的基本架構(gòu)。
2023-08-11 09:24:59
7861
7861
《開(kāi)放加速規(guī)范AI服務(wù)器設(shè)計(jì)指南》發(fā)布,應(yīng)對(duì)生成式AI算力挑戰(zhàn)
》面向生成式AI應(yīng)用場(chǎng)景,進(jìn)一步發(fā)展和完善了開(kāi)放加速規(guī)范AI服務(wù)器的設(shè)計(jì)理論和設(shè)計(jì)方法,將助力社區(qū)成員高效開(kāi)發(fā)符合開(kāi)放加速規(guī)范的AI加速卡,并大幅縮短與AI服務(wù)器的適配周期,為用戶提供最佳匹配應(yīng)用場(chǎng)景的AI算力產(chǎn)品方案,把握生成式AI爆發(fā)帶來(lái)的算力產(chǎn)業(yè)巨大機(jī)遇。 當(dāng)前,生成式A
2023-08-14 09:49:31
1470
1470全球領(lǐng)先系統(tǒng)制造商推出 NVIDIA AI 就緒型服務(wù)器,為企業(yè)大幅提升生成式 AI 性能
with NVIDIA 拉斯維加斯 — VMware Explore — 太平洋時(shí)間 2023 年 8 月 22 日 — NVIDIA 宣布,全球領(lǐng)先的系統(tǒng)制造商將推出 AI 就緒型服務(wù)器,其支持同發(fā)布的 VMware
2023-08-23 19:10:09
1064
1064AI芯片CoWoS封裝產(chǎn)能受限,中介層不足成關(guān)鍵
大語(yǔ)言模型訓(xùn)練和推理生成式AI(Generative AI)應(yīng)用,帶動(dòng)高端AI服務(wù)器和高性能計(jì)算(HPC)數(shù)據(jù)中心市場(chǎng),內(nèi)置集成高帶寬內(nèi)存(HBM)的通用繪圖處理器(GPGPU)供不應(yīng)求,主要大廠英偉達(dá)(Nvidia)A100和H100繪圖芯片更是嚴(yán)重缺貨。
2023-08-30 17:09:49
1720
1720Apple 預(yù)定 3 納米芯片,谷歌云 A3 虛擬機(jī)將改變 AI 訓(xùn)練
Nvidia 的 H100 GPU 和谷歌自主設(shè)計(jì)的 200 Gbps 基礎(chǔ)設(shè)施處理器(IPU)。主要用于訓(xùn)練和運(yùn)行生成式 AI 模型以及大型語(yǔ)言模型。 谷歌云表示,A3 虛擬機(jī)將
2023-08-31 13:00:07
1192
1192
NVIDIA AI Enterprise 4.0 推出,助力企業(yè)構(gòu)建生產(chǎn)就緒的生成式 AI 為業(yè)務(wù)賦能
式 AI 進(jìn)行創(chuàng)新的企業(yè)加速開(kāi)發(fā),為企業(yè)提供生產(chǎn)就緒型支持、可管理性、安全性和可靠性。 使用 NVIDIA NeMo 快速大規(guī)模 訓(xùn)
2023-09-19 20:20:04
1232
1232
深度學(xué)習(xí)模型部署與優(yōu)化:策略與實(shí)踐;L40S與A100、H100的對(duì)比分析
深度學(xué)習(xí)、機(jī)器學(xué)習(xí)、生成式AI、深度神經(jīng)網(wǎng)絡(luò)、抽象學(xué)習(xí)、Seq2Seq、VAE、GAN、GPT、BERT、預(yù)訓(xùn)練語(yǔ)言模型、Transformer、ChatGPT、GenAI、多模態(tài)大模型、視覺(jué)大模型
2023-09-22 14:13:09
2411
2411
Oracle 云基礎(chǔ)設(shè)施提供新的 NVIDIA GPU 加速計(jì)算實(shí)例
也即將在 OCI Compute 上推出。 OCI 上的 NVIDIA? H100 Tensor Core GPU 實(shí)例 OCI Co mpute 裸機(jī)實(shí)例配備了具有? NVIDIA Hopper ? 架構(gòu) 的 NVIDIA H
2023-09-25 20:40:02
1220
1220
NVIDIA 擴(kuò)展機(jī)器人平臺(tái),迎接生成式 AI 的崛起
)和微服務(wù)已應(yīng)用于邊緣。 ? 生成式 AI 正在將 Transformer 模型和大語(yǔ)言模型的強(qiáng)大力量帶到各行各業(yè),應(yīng)用范圍現(xiàn)已擴(kuò)展到邊緣、機(jī)器人和物流系統(tǒng)相關(guān)領(lǐng)域,如缺陷檢測(cè)、實(shí)時(shí)資產(chǎn)追蹤、自主規(guī)劃
2023-10-19 17:16:24
853
853
NVIDIA 擴(kuò)展機(jī)器人平臺(tái),迎接生成式 AI 的崛起
基于 NVIDIA Jetson 平臺(tái)進(jìn)行開(kāi)發(fā)的 1 萬(wàn)多家公司現(xiàn)在可以利用全新的生成式 AI、API 和微服務(wù)來(lái)加快推進(jìn)行業(yè)數(shù)字化 強(qiáng)大的生成式 AI 模型、云原生應(yīng)用程序接口(API)和微服務(wù)已
2023-10-20 02:05:02
1057
1057
傳英偉達(dá)新AI芯片H20綜合算力比H100降80%
但據(jù)悉,三種新型AI芯片不是“改良型”,而是“縮小型”。用于ai模型教育的hgx h20的帶寬和計(jì)算速度是有限的。整體計(jì)算能力理論上比nvidia的h100 gpu芯片低80%左右。h20是h100的20%的綜合計(jì)算性能。
2023-11-13 09:41:58
3965
3965英偉達(dá)確認(rèn)為中國(guó)推三款改良AI芯片 性能暴降80%
據(jù)報(bào)道,nvidia的3種ai芯片不是“改良版”,而是“縮水版”,分別是hgx h20、l20 pcle和l2 pcle。用于ai模型訓(xùn)練的hgx h20雖然帶寬和計(jì)算速度有限,但整體計(jì)算能力理論上比英偉達(dá)h100 gpu芯片低80%左右。
2023-11-13 10:46:07
1347
1347NVIDIA 為全球領(lǐng)先的 AI 計(jì)算平臺(tái) Hopper 再添新動(dòng)力
世界頂級(jí)服務(wù)器制造商和云服務(wù)提供商即將推出 HGX H200 系統(tǒng)與云實(shí)例 ? ? 丹佛 - SC23 - 太平洋 時(shí)間 2023 年 11 月 13 日 - NVIDIA 于今日宣布推出
2023-11-14 14:30:01
827
827
SC23 | NVIDIA 為全球領(lǐng)先的 AI 計(jì)算平臺(tái) Hopper 再添新動(dòng)力
世界頂級(jí)服務(wù)器制造商和云服務(wù)提供商即將推出 HGX H200 系統(tǒng)與云實(shí)例。 11月13日,NVIDIA 宣布推出 NVIDIA HGX H200 ,為 Hopper 這一全球領(lǐng)先的 AI 計(jì)算平臺(tái)
2023-11-14 20:05:01
923
923
英偉達(dá)推出用于人工智能工作的頂級(jí)芯片HGX H200
近日,英偉達(dá)推出了一款用于人工智能工作的頂級(jí)芯片HGX H200。新的GPU升級(jí)了需求巨大的H100,內(nèi)存帶寬增加了1.4倍,內(nèi)存容量增加了1.8倍,提高了其處理密集生成人工智能工作的能力。 在
2023-11-15 14:34:50
2636
2636NVIDIA 在 Microsoft Azure 上推出面向全球企業(yè)和初創(chuàng)公司的 生成式 AI Foundry 服務(wù)
和初創(chuàng)公司在 Microsoft Azure 上開(kāi)發(fā)、調(diào)優(yōu)和部署其自定義生成式 AI 應(yīng)用。 ? 這項(xiàng) NVIDIA AI foundry 服務(wù)整合了 NVIDIA AI Foundation
2023-11-16 14:13:08
859
859
NVIDIA 在 Microsoft Azure 上推出面向全球企業(yè)和初創(chuàng)公司的生成式 AI Foundry 服務(wù)
AI Enterprise 軟件進(jìn)行部署 NVIDIA 于今日推出一項(xiàng) AI foundry 服務(wù),助力企業(yè)和初創(chuàng)公司在 Microsoft Azure 上開(kāi)發(fā)、調(diào)優(yōu)和部署其自定義生成式 AI
2023-11-16 21:15:02
1193
1193AI服務(wù)器的內(nèi)存接口芯片技術(shù)
DXG 服務(wù)器配備 8 塊 H100 GPU,6400億個(gè)晶體管,在全新的 FP8 精度下 AI 性能比上一代高 6 倍,可提供 900GB/s 的帶寬。
2023-12-13 09:23:54
1781
1781
Supermicro推出適用于AI存儲(chǔ)的機(jī)柜級(jí)全方位解決方案 加速高性能AI訓(xùn)練和推理的數(shù)據(jù)存取
【2024年2月1日,美國(guó)圣何塞訊】Supermicro, Inc.(納斯達(dá)克股票代碼:SMCI)作為AI、云端、存儲(chǔ)和5G/邊緣領(lǐng)域的全方位IT解決方案制造商,推出適用于人工智能(AI)和機(jī)器學(xué)習(xí)
2024-02-01 17:56:09
1569
1569Supermicro推新AI存儲(chǔ)方案,助力AI和ML應(yīng)用加速
Supermicro首席執(zhí)行官梁見(jiàn)后先生高瞻遠(yuǎn)矚地指出:針對(duì)AI和ML應(yīng)用的加速處理,我們推薦配置以每機(jī)柜20 PB高速閃存為主,配備四個(gè)NVIDIA HGX H100系列優(yōu)化版8-GPU氣冷服務(wù)器或者八個(gè)同款液冷服務(wù)器。
2024-02-03 14:46:40
1311
1311Supermicro全新系統(tǒng)產(chǎn)品組合將前沿AI性能推向邊緣計(jì)算環(huán)境
,正在擴(kuò)展其AI解決方案產(chǎn)品組合,讓客戶在公共空間、零售商店或工業(yè)基礎(chǔ)架構(gòu)等邊緣位置能有效運(yùn)用AI的強(qiáng)大性能。通過(guò)使用搭載NVIDIA GPU的Supermicro應(yīng)用優(yōu)化服務(wù)器,可更輕松地微調(diào)預(yù)訓(xùn)練
2024-02-24 09:10:13
1669
1669
使用NVIDIA Triton推理服務(wù)器來(lái)加速AI預(yù)測(cè)
這家云計(jì)算巨頭的計(jì)算機(jī)視覺(jué)和數(shù)據(jù)科學(xué)服務(wù)使用 NVIDIA Triton 推理服務(wù)器來(lái)加速 AI 預(yù)測(cè)。
2024-02-29 14:04:40
1458
1458NVIDIA 推出 Blackwell 架構(gòu) DGX SuperPOD,適用于萬(wàn)億參數(shù)級(jí)的生成式 AI 超級(jí)計(jì)算
Blackwell GPU 連成一個(gè)整體,由NVIDIA 系統(tǒng)專家加速即時(shí) AI 基礎(chǔ)設(shè)施的部署 ? ? ? 美國(guó)加利福尼亞州圣何塞 —— GTC —— 太平洋時(shí)間 2024 年 3 月 18 日
2024-03-19 10:56:35
1126
1126
英偉達(dá)發(fā)布超強(qiáng)AI加速卡,性能大幅提升,可支持1.8萬(wàn)億參數(shù)模的訓(xùn)練
得益于NVIDIA每?jī)赡赀M(jìn)行一次GPU架構(gòu)升級(jí)以提高性能的策略,全新的基于Blackwell的加速卡比之前的H100更為強(qiáng)大,尤其適用于AI相關(guān)任務(wù)。
2024-03-19 12:04:04
1996
1996NVIDIA推出微服務(wù),助力企業(yè)邁向生成式AI
NVIDIA 的 AI 平臺(tái)適用于任何高瞻遠(yuǎn)矚的企業(yè)使用,而且比以往任何時(shí)候都更加易于應(yīng)用。
2024-03-21 09:39:27
931
931AI服務(wù)器脫離GPU依賴,AI PC市場(chǎng)潛力無(wú)限
由于GPU供應(yīng)短缺,AI服務(wù)器一度出現(xiàn)供給不足的情況。廖仁祥指出,考慮到AI服務(wù)器價(jià)格相對(duì)較高,企業(yè)采購(gòu)預(yù)算中已有20%用于此項(xiàng)開(kāi)支,涵蓋了制造業(yè)、電信業(yè)、醫(yī)療機(jī)構(gòu)以及政府部門等多個(gè)領(lǐng)域,金融行業(yè)也逐漸引入生成式AI應(yīng)用。
2024-04-11 09:32:12
912
912臺(tái)積電:AI服務(wù)器處理器預(yù)計(jì)翻番,拉動(dòng)收入增長(zhǎng)?
臺(tái)積電將 AI 服務(wù)器處理器嚴(yán)格限定為用于 AI 訓(xùn)練與推理的 GPU、CPU 及 AI 加速器,剔除網(wǎng)絡(luò)邊緣與消費(fèi)級(jí)設(shè)備中的此類產(chǎn)品。
2024-04-19 15:04:29
817
817助力科學(xué)發(fā)展,NVIDIA AI加速HPC研究
科學(xué)家和研究人員正在利用 NVIDIA 技術(shù)將生成式 AI 應(yīng)用于代碼生成、天氣預(yù)報(bào)、遺傳學(xué)和材料科學(xué)領(lǐng)域的 HPC 工作。
2024-05-14 09:17:27
1163
1163
NVIDIA宣布全面推出 NVIDIA ACE 生成式 AI 微服務(wù)
采用 NVIDIA 宣布全面推出 NVIDIA ACE 生成式 AI 微服務(wù),以加速新一代數(shù)字人的發(fā)展,并將在平臺(tái)上推出全新的生成式 AI 突破。客戶服務(wù)、游戲和醫(yī)療健康領(lǐng)域的公司率先采用 ACE
2024-06-04 10:18:37
1413
1413Supermicro推出適配NVIDIA Blackwell和NVIDIA HGX H100/H200的機(jī)柜級(jí)即插即用液冷AI SuperCluster
制造商,推出可立即部署式液冷型AI數(shù)據(jù)中心。此數(shù)據(jù)中心專為云原生解決方案而設(shè)計(jì),通過(guò)SuperCluster加速各界企業(yè)對(duì)生成式AI的運(yùn)用,并針對(duì)NVIDIA AI Enterprise軟件
2024-06-07 15:12:25
896
896
NVIDIA推出NVIDIA AI Computing by HPE加速生成式 AI 變革
作為極具開(kāi)創(chuàng)性的一站式“交鑰匙”私有云人工智能(private-cloud AI)解決方案,NVIDIA AI Computing by HPE 包含了可持續(xù)的加速計(jì)算產(chǎn)品組合以及全生命周期服務(wù),將
2024-06-20 17:36:07
1346
1346HPE 攜手 NVIDIA 推出 NVIDIA AI Computing by HPE,加速生成式 AI 變革
by HPE 包含了可持續(xù)的加速計(jì)算產(chǎn)品組合以及全生命周期服務(wù),將簡(jiǎn)化 AI 創(chuàng)造價(jià)值的過(guò)程,加速生成式 AI 的發(fā)展步伐。 NVIDIA AI Computing by HPE 由 HPE 與 NVIDIA 共同開(kāi)發(fā)和聯(lián)合推向市場(chǎng),標(biāo)志著
2024-06-21 14:39:43
880
880NVIDIA攜手Meta推出AI服務(wù),為企業(yè)提供生成式AI服務(wù)
NVIDIA近日宣布了一項(xiàng)重大舉措,正式推出NVIDIA AI Foundry服務(wù)與NVIDIA NIM(NVIDIA Inference Microservices)推理微服務(wù),這兩項(xiàng)創(chuàng)新成果與同步問(wèn)世的Llama 3.1系列開(kāi)源模型強(qiáng)強(qiáng)聯(lián)合,為全球企業(yè)構(gòu)建強(qiáng)大的生成式AI能力鋪設(shè)了堅(jiān)實(shí)的基石。
2024-07-25 16:57:37
1068
1068AI云服務(wù)器:開(kāi)啟智能計(jì)算新時(shí)代
,旨在為人工智能應(yīng)用提供堅(jiān)實(shí)的支持。 特點(diǎn) 高性能:配備先進(jìn)的處理器,如多核CPU和高性能GPU,能夠快速處理大量復(fù)雜的計(jì)算任務(wù),滿足深度學(xué)習(xí)和機(jī)器學(xué)習(xí)模型訓(xùn)練及推理的需求。 可擴(kuò)展性:可根據(jù)實(shí)際業(yè)務(wù)需求靈活擴(kuò)展計(jì)算、存儲(chǔ)和網(wǎng)絡(luò)
2024-08-09 16:08:23
2384
2384GPU服務(wù)器在AI訓(xùn)練中的優(yōu)勢(shì)具體體現(xiàn)在哪些方面?
能力特別適合于深度學(xué)習(xí)中的大規(guī)模矩陣運(yùn)算和高維度數(shù)據(jù)處理,這些是AI訓(xùn)練中常見(jiàn)的計(jì)算密集型任務(wù)。 2、高效的數(shù)據(jù)處理:AI訓(xùn)練通常涉及大量的數(shù)據(jù),GPU服務(wù)器能夠快速處理這些數(shù)據(jù),從而加快模型的訓(xùn)練速度。例如,恒訊科技的GPU云服務(wù)器提供
2024-09-11 13:24:03
1595
1595什么是AI服務(wù)器?AI服務(wù)器的優(yōu)勢(shì)是什么?
AI服務(wù)器是一種專門為人工智能應(yīng)用設(shè)計(jì)的服務(wù)器,它采用異構(gòu)形式的硬件架構(gòu),通常搭載GPU、FPGA、ASIC等加速芯片,利用CPU與加速芯片的組合來(lái)滿足高吞吐量互聯(lián)的需求,為自然語(yǔ)言處理、計(jì)算機(jī)視覺(jué)、機(jī)器學(xué)習(xí)等人工智能應(yīng)用場(chǎng)景提供強(qiáng)大的算力支持,支撐AI算法的訓(xùn)練和推理過(guò)程。
2024-09-21 11:43:09
3063
3063GPU服務(wù)器AI網(wǎng)絡(luò)架構(gòu)設(shè)計(jì)
眾所周知,在大型模型訓(xùn)練中,通常采用每臺(tái)服務(wù)器配備多個(gè)GPU的集群架構(gòu)。在上一篇文章《高性能GPU服務(wù)器AI網(wǎng)絡(luò)架構(gòu)(上篇)》中,我們對(duì)GPU網(wǎng)絡(luò)中的核心術(shù)語(yǔ)與概念進(jìn)行了詳盡介紹。本文將進(jìn)一步深入探討常見(jiàn)的GPU系統(tǒng)架構(gòu)。
2024-11-05 16:20:34
2133
2133
NVIDIA推出多個(gè)生成式AI模型和藍(lán)圖
NVIDIA 宣布推出多個(gè)生成式 AI 模型和藍(lán)圖,將 NVIDIA Omniverse 一體化進(jìn)一步擴(kuò)展至物理 AI 應(yīng)用,如機(jī)器人、自動(dòng)駕駛汽車和視覺(jué) AI 等。全球軟件開(kāi)發(fā)和專業(yè)服務(wù)領(lǐng)域的領(lǐng)先企業(yè)正在使用 Omniverse 開(kāi)發(fā)新的產(chǎn)品和服務(wù),加快工業(yè) AI 新時(shí)代的到來(lái)。
2025-01-08 10:48:54
1119
1119
電子發(fā)燒友App


評(píng)論