人工智能 (AI) 正重塑數字格局,開發者也正面臨全新挑戰:基礎設施不僅要具備強大算力,還需兼具可擴展性、成本效益和高能效等特征。當前,亞馬遜云科技、谷歌、微軟、Oracle Cloud Infrastructure (OCI) 及 NVIDIA 等超大規模云服務提供商與 AI 領軍企業,均已基于 Arm 架構打造定制化解決方案,布局 AI 數據中心。
這一趨勢正在蓬勃展開。2025 年頭部超大規模云服務提供商的新增服務器算力中,有近半數是基于 Arm 架構。Arm Neoverse 平臺正在為量產級 AI 工作流、向量搜索引擎、實時機器學習 (ML) 平臺及云原生微服務提供算力支撐,同時在成本效益、吞吐量與節能方面實現可量化的顯著提升。隨著 AI 工作負載持續擴展,基礎設施的選擇愈發關鍵。
若你是開發者,現在正是探索 Arm 架構基礎設施適配工具的最佳時機 —— 這類工具大多支持自助式使用,專為加速業務遷移而打造。若你是企業首席信息官 (CIO),不妨繼續閱讀,了解哪些企業已率先完成向 Arm 架構的遷移,以及它們在生產環境中實現了怎樣的性能與成本收益。
下文將為你拆解當前架構變革的核心內容、背后的關鍵價值,以及眾多開發者如何借助自助式工具,以超乎預期的速度加速向 Arm 架構遷移。
AI 工作負載貫穿端到端
Arm 賦能全流程優化
AI 的應用早已不再局限于推理或模型訓練環節。從數據預處理、模型編排,到實時服務與內存管理,如今的 AI 技術棧已覆蓋整個計算工作流。這也帶來了延遲、成本、功耗及擴展性方面的全新系統級挑戰,而這些早已超出了傳統通用 CPU 的設計初衷與能力范圍。
Arm 在這場變革中扮演核心角色 —— 其價值不僅限于 CPU 層面,更貫穿整個 AI 系統架構。
在亞馬遜云科技, Arm Neoverse 核心為 Graviton 通用計算平臺、Nitro 數據處理單元 (DPU) 提供算力支撐,并作為 AI 加速器的頭節點 (head node),為 AI 工作流打造高度集成、能效出眾的基礎設施。
NVIDIA 亦采用類似架構設計:Arm 架構是 Grace 與 Vera CPU 的技術基石,二者均作為 AI 系統的頭節點部署;同時 Arm 還為 BlueField DPU 提供算力支撐,助力數據遷移與卸載處理,為 AI 數據中心設計打造一體化的平臺解決方案。
憑借卓越的每瓦性能、強大的內存帶寬,以及在Amazon Graviton、Google Cloud Axion、Microsoft Azure Cobalt、NVIDIA Grace 等平臺上的規模化部署,基于 Arm 架構的基礎設施正日益成為可擴展、高性價比 AI 工作負載的優選方案。
Arm 正成為云計算的新標準
云計算領域正經歷一場戰略性轉變:全球領先的云服務提供商均在加碼基于 Arm 架構的基礎設施建設,將其作為融合型 AI 數據中心規模化部署的默認路徑。這并非試點探索,而是著眼于長期的架構戰略。
在軟件層面,Atlassian、Spotify 和優步 (Uber) 等企業,已開始借助通用工具與社區文檔,將核心工作負載遷移至基于 Arm 架構的云基礎設施,且無需對底層平臺進行深度重構。Atlassian 表示,在將核心服務遷移至 Arm 實例后,計算成本顯著降低,CI/CD 工作流運行速度也得到提升;Spotify 在后端工作負載中試用 Graviton 平臺后,實現了顯著的基礎設施效率提升;Uber 則通過基于 Arm 架構的基礎設施,在優化微服務性能的同時,降低了單實例的運營成本。
與此同時,Arm 提供的一系列工具正加速這一遷移進程。例如 Arm 模型上下文協議 (MCP) 服務器以及集成于 GitHub Copilot 的 Arm 云遷移智能體 (Cloud Migration Agent),正幫助開發者評估工作負載兼容性、加快云遷移進程,并實現穩定可靠的規模化部署。目前,專為各類 Arm 云平臺量身打造的 Arm MCP 服務器已面向所有軟件開發者開放,它可將云遷移工具與專業經驗直接融入開發者常用的 AI 助手中,從而賦能自主化的智能體工作流。
通過自動化最佳實踐、加速開發流程并提供實時指導,該工具顯著簡化了遷移路徑,讓開發團隊從項目首日起,即可更輕松地獲得成本、能效與性能優勢。早期用戶的反饋也驗證了其在真實遷移場景中具備高度實用性。
開發者轉向 Arm 架構的五大案例
除上述全球軟件企業外,其他科技公司在日常運營中采用基于 Arm 架構的云基礎設施時,也收獲了類似效益。
借助 Graviton3,LLM 推理成本降低 35%
Vociply AI 是一家專注于大規模部署大語言模型 (LLM) 的 AI 初創企業,在切換至 Amazon Graviton3 后,其月度基礎設施成本從 2000 美元降至 1300 美元,同時性能實現同步提升,具體包括:
性價比提升 40%
詞元 (token) 吞吐量提升 15.6%
功耗降低 23%
這一成果得益于 Arm Neoverse 核心、Neon 指令集深度優化,以及 llama.cpp 等量化推理引擎的支持。
生成式 AI 工作流提速,基礎設施成本降低 40%
生成式 IT 及 AI 解決方案平臺 Esankethik 將其完整技術棧 —— 涵蓋預處理、訓練與推理環節,全面遷移至基于 Arm 架構的 Graviton 實例,取得了顯著成效,具體包括:
推理業務延遲降低 25%
每百萬次請求的 Lambda 成本降低 40%
內存效率提升 15%
通過在 Arm 平臺上統一運行預處理、訓練與推理任務,Esankethik 有效緩解了性能瓶頸,并顯著提升了系統可擴展性。
SiteMana 實現實時 ML 的穩定規模化
獲客技術公司 SiteMana 已將其實時 ML 推理與數據攝取任務遷移至 Graviton3 平臺,并取得了顯著成效:
月度成本降低約 25%
P95 延遲降低約 15%
網絡帶寬提升 2.5 倍
此次遷移有效解決了 CPU 降頻問題,并實現了峰值負載下的系統性能穩定。
AuthZed 提升開發者工作流效率
AuthZed 作為基礎設施服務授權平臺,已將其從開發筆記本到云端的所有工作負載統一遷移至 Arm 架構,由此實現了:
本地構建速度提升 40%
生產環境 CPU 利用率提升 20% - 25%
計算成本降低約 20%
該方案在不改變開發者既有工作習慣的前提下,實現了工作流程的大幅精簡優化。
Zilliz Cloud 提升 AI 搜索吞吐量
面向生產級 AI 應用的全托管向量數據庫平臺 Zilliz Cloud,將其向量搜索引擎遷移至 Graviton3 后,實現了以下優化成果:
索引構建性能提升 50%
十億級查詢場景下,向量搜索速度提升 20%
單查詢成本降低,吞吐量提升
該成果適用于語義搜索、檢索增強生成 (RAG) 及多模態 AI 任務。
為 AI 云時代而生
Arm Neoverse 專為現代工作負載打造 —— 涵蓋 LLM、向量搜索、實時 ML、數據分析及高密度微服務等場景。與 x86 相比,基于 Arm 的實例具備以下優勢:
更卓越的性價比優勢
更出色的 AI 與云原生工作負載性能
成熟的軟件生態與完善的開發者工具鏈
通過 Arm KleidiAI 為 AI 框架提供優化支持,實現無縫性能調優與集成
Arm 提供涵蓋開發者資源、性能調優指南與云遷移清單在內的完整套件,顯著簡化 AI 與云工作負載的遷移流程。這些資源可降低遷移阻力,支持性能調優,且無需對平臺進行全面重構。
開發者可通過 Arm 云遷移計劃獲取遷移資源、技術指南及專家咨詢服務。此外,Arm MCP 服務器現已向所有開發者開放,可幫助識別并高效執行從 x86 到 Arm 架構的遷移。
Arm 云遷移計劃:https://www.arm.com/zh-cn/markets/computing-infrastructure/arm-cloud-migration
Arm MCP 服務器:https://developer.arm.com/servers-and-cloud-computing/arm-mcp-server
AI 時代的基礎設施平臺
基于 Arm 的云基礎設施正快速成為 AI 計算戰略的基石。
隨著工作負載持續擴展,能效的重要性日益凸顯,基礎設施需以更少資源提供更多價值。Arm 為打造下一代 AI 系統的開發者,提供了切實可行的實踐路徑。
-
ARM
+關注
關注
135文章
9552瀏覽量
391821 -
AI
+關注
關注
91文章
39755瀏覽量
301347 -
工作負載
+關注
關注
0文章
14瀏覽量
2123
原文標題:
文章出處:【微信號:Arm社區,微信公眾號:Arm社區】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
2025華為開發者大賽暨開發者年度會議成功舉辦
深入剖析ARM64異常處理:開發者必須掌握的底層核心邏輯
2025樂鑫科技全球開發者大會圓滿落幕
開源向實,下一個標桿就是你!RT-Thread 20周年開發者大會全球招募開啟
Arm亮相2025 OPPO開發者大會
華為云與開發者共贏AI未來
華為與全球開發者共贏昇騰生態
矽速科技正式入駐 RuyiSDK 開發者社區,共建 RISC-V 開發者生態!
云開發者正加速向Arm架構遷移
評論