NVIDIA 在 Microsoft Build 開發(fā)者大會上展示了與 Microsoft Azure 和 Windows PC 的集成解決方案,簡化了 AI 模型部署并優(yōu)化了路徑規(guī)劃和應(yīng)用性能。
如果說經(jīng)過優(yōu)化的 AI 工作流如同一個完美的交響樂團(tuán),從硬件基礎(chǔ)設(shè)施到軟件庫的每一個組成部分都恰到好處,那么 NVIDIA 與微軟長期以來的默契合作對于開發(fā)者來說便如同悅耳的音樂。
微軟開發(fā)的 Phi-3 系列小語言模型等最新 AI 模型經(jīng)過優(yōu)化后,可在 NVIDIA GPU 上運行,并以 NVIDIA NIM 推理微服務(wù)的形式提供。NVIDIA 開發(fā)的其他微服務(wù),如 cuOpt 路徑優(yōu)化 AI 等,正作為 NVIDIA AI Enterprise 軟件平臺的一部分被定期添加到 Microsoft Azure Marketplace 中。
除了這些 AI 技術(shù)之外,NVIDIA 和微軟還為開發(fā)者提供越來越多的優(yōu)化和集成功能,幫助他們?yōu)榇钶d有 NVIDIA GeForce RTX 和 NVIDIA RTX GPU 的 PC 創(chuàng)建高性能 AI 應(yīng)用。
基于在 NVIDIA GTC 上所公布的進(jìn)展,兩家公司在今年于西雅圖舉行的年度開發(fā)者盛會 Microsoft Build 上進(jìn)一步推進(jìn)這一長期合作。
加速微軟的 Phi-3 模型
微軟正在擴(kuò)展其 Phi-3 開源小語言模型系列,增加了小型(70 億參數(shù))和中型(140 億參數(shù))模型,類似于擁有 38 億個參數(shù)的 Phi-3 Mini。另外,微軟還推出了一個新的 42 億參數(shù)多模態(tài)模型 Phi-3-vision,支持圖像和文本。
所有這些模型均通過 NVIDIA TensorRT-LLM 實現(xiàn)了 GPU 優(yōu)化,并以 NVIDIA NIM 的形式提供。NVIDIA NIM 是具有標(biāo)準(zhǔn)應(yīng)用編程接口(API)的加速推理微服務(wù),可以部署在任何位置。
您可在ai.nvidia.com上或通過 Azure Marketplace 上的 NVIDIA AI Enterprise,獲取由這些 NIM 支持的 Phi-3 模型的 API。
NVIDIA cuOpt
現(xiàn)已登陸 Azure Marketplace
NVIDIA cuOpt 是一項適用于路徑優(yōu)化的 GPU 加速 AI 微服務(wù),該服務(wù)現(xiàn)在通過 NVIDIA AI Enterprise 在 Azure Marketplace 上架。cuOpt 所采用的大規(guī)模并行算法能夠?qū)崿F(xiàn)航運服務(wù)、鐵路系統(tǒng)、倉庫和工廠的實時物流管理。
該模型在主要的路徑基準(zhǔn)測試中創(chuàng)造了二十多項世界紀(jì)錄,展現(xiàn)出最高的準(zhǔn)確性和最快的速度。通過優(yōu)化車輛路線、節(jié)省行路時間和減少空閑時間,它能夠為物流和供應(yīng)鏈行業(yè)節(jié)省數(shù)十億美元。
通過 Azure Marketplace,開發(fā)人員可以輕松地將 cuOpt 微服務(wù)與 Azure 地圖集成,在企業(yè)級管理工具和安全性的支持下,支持實時物流管理和其他基于云的工作流。
使用 NVIDIA RTX 優(yōu)化 PC 的 AI 性能
NVIDIA 加速計算平臺是現(xiàn)代 AI 的中堅力量,可幫助開發(fā)者為全球超過 1 億臺 Windows GeForce RTX PC 和 NVIDIA RTX 工作站構(gòu)建解決方案。
NVIDIA 和微軟正在為 Windows 開發(fā)者打造能夠加速下一代 PC 和工作站應(yīng)用 AI 性能的全新優(yōu)化和集成,包括:
通過 NVIDIA DirectX 驅(qū)動、Generative AI ONNX Runtime 擴(kuò)展和 DirectML 提高大語言模型(LLM)的推理性能。NVIDIA GeForce Game Ready、NVIDIA Studio 和 NVIDIA RTX Enterprise 驅(qū)動現(xiàn)已提供這些優(yōu)化,在 NVIDIA GeForce RTX GPU 上提供至高可達(dá) 3 倍的性能提升。
通過 WebNN 優(yōu)化 Stable Diffusion、Whisper 等 AI 模型在 RTX GPU 上的性能。WebNN 是一個能夠幫助開發(fā)者使用設(shè)備端硬件加速網(wǎng)絡(luò)應(yīng)用 AI 模型的 API。
隨著 Windows 將通過 DirectML 來支持 PyTorch,數(shù)以千計的 Hugging Face 模型將在 Windows 中原生運行。NVIDIA 與微軟正在合作,在 1 億多個 RTX AI GPU 上擴(kuò)展性能。
與 NVIDIA 一起參加Microsoft Build 開發(fā)者大會
大會參加者可以體驗 NVIDIA NIM、NVIDIA cuOpt、NVIDIA Omniverse 和 NVIDIA RTX AI 平臺的現(xiàn)場演示。展臺還將重點展示適用于醫(yī)療影像工作流的 NVIDIA MONAI 平臺和適用于藥物研發(fā)的 NVIDIA BioNeMo 生成式 AI 平臺。這兩個平臺均作為 Azure 上 NVIDIA AI Enterprise 的一部分提供。
審核編輯:劉清
-
NVIDIA
+關(guān)注
關(guān)注
14文章
5594瀏覽量
109732 -
ai技術(shù)
+關(guān)注
關(guān)注
1文章
1313瀏覽量
25746 -
Microsoft
+關(guān)注
關(guān)注
0文章
237瀏覽量
7966 -
大模型
+關(guān)注
關(guān)注
2文章
3650瀏覽量
5183
原文標(biāo)題:NVIDIA 與微軟擴(kuò)展合作,幫助開發(fā)者更快構(gòu)建和部署 AI 應(yīng)用
文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
NVIDIA DGX Spark桌面級AI超級計算機(jī)助力開發(fā)者構(gòu)建AI模型
安霸推出開發(fā)者社區(qū),拓展端側(cè)AI生態(tài)版圖
安霸推出開發(fā)者社區(qū)以助力部署端側(cè)AI應(yīng)用
使用OpenUSD與NVIDIA Halos構(gòu)建安全物理AI系統(tǒng)
NVIDIA擴(kuò)大與微軟合作推動AI超級工廠建設(shè)
2025 NVIDIA中國開發(fā)者日圓滿落幕
OpenAI和NVIDIA宣布達(dá)成合作,部署10吉瓦NVIDIA系統(tǒng)
NVIDIA DRIVE AGX Thor開發(fā)者套件重磅發(fā)布
NVIDIA Jetson AGX Thor開發(fā)者套件重磅發(fā)布
超過200萬開發(fā)者加入NVIDIA機(jī)器人技術(shù)生態(tài)
NVIDIA Jetson AGX Thor開發(fā)者套件概述
NVIDIA Isaac Sim和Isaac Lab現(xiàn)已推出早期開發(fā)者預(yù)覽版
首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手
NVIDIA 推出開放推理 AI 模型系列,助力開發(fā)者和企業(yè)構(gòu)建代理式 AI 平臺
NVIDIA與微軟擴(kuò)展合作,幫助開發(fā)者更快構(gòu)建和部署AI應(yīng)用
評論