本文轉自:TechSugar
編譯自Electronic Design
人工智能浪潮已然席卷全球,將人工智能加速器和處理器整合到各類應用中也變得愈發普遍。然而,圍繞它們是什么、如何運作、能如何增強應用,以及哪些是真實情況而哪些只是炒作,仍存在諸多誤解。
GPU是最佳的人工智能處理器
盡管GPU在人工智能的實現過程中發揮了關鍵作用,而且如今它們的應用也極為廣泛,但將其推崇為“最佳”人工智能處理器,未免過于簡化了人工智能硬件不斷演變的格局。
GPU非常適合用于大規模模型訓練,在這類場景中,需要巨大的吞吐量——包括大容量內存和高精度——來精準處理海量數據集。而像它具有的處理時間長(可能長達數月)、處理效率低(通常僅為個位數)、能耗大(對冷卻構成限制),以及延遲較高等缺點,則成了次要問題。
隨著該領域的不斷成熟,“最佳”的定義越來越取決于應用的使用模式和需求。GPU曾經是合適的答案,但如今已不再是唯一的答案。
人工智能處理器在訓練和推理方面表現同樣出色
人們通常認為,任何為人工智能優化的處理器都能無縫兼顧訓練和推理工作。但實際情況是,訓練和推理在計算、效率、內存、延遲、功耗和精度方面有著截然不同的要求。
一款處理器在某一方面表現出色,并不意味著它在另一方面也能有優異表現。這兩個部署階段各自有著不同的計算目標和硬件需求。訓練注重的是以高精度和大規模進行學習;而推理則強調速度、效率和響應能力。
若認為一款芯片能在這兩方面都表現出色,會導致性能不佳、效率低下,還會錯失優化機會。最佳的系統會將兩者區分開來,并分別進行優化。
人工智能處理器僅在數據中心有用武之地
在人工智能部署的早期階段,由于模型規模需要巨大的吞吐量,只有云數據中心具備訓練和運行深度學習模型的計算基礎設施。
而在如今的格局下,隨著推理的普及,人工智能處理器正越來越多地部署在數據中心之外的環境中,從邊緣設備、移動電話到汽車和工業系統等,都能看到它們的身影。
如今,人工智能處理器已集成于我們身邊的各種設備中,在最需要的地方實現更智能的交互、自主決策和實時處理。從云端到邊緣,人工智能無處不在,因為這些地方需要智能。
所有人工智能處理器都可用于通用應用
人工智能處理器是專為特定的人工智能任務而設計的,比如優化矩陣/張量運算等。相比之下,通用計算,如運行網頁瀏覽器、管理操作系統或執行文件壓縮等,需要復雜的控制流、分支等功能。
一般來說,人工智能處理器架構并未實現完整的通用指令集架構(ISA),甚至也沒有實現精簡指令集架構(RISC)。沒有豐富的指令集架構和強大的編譯器支持,它們就無法高效處理非人工智能應用。人工智能處理器在其設計目標領域表現出色,但它們并不能普遍替代通用中央處理器(CPU)。若不認清這一點,可能會導致系統設計糟糕、投資浪費,以及在非人工智能應用中出現性能瓶頸。
TOPS數值越高,性能就越好
每秒萬億次運算(TOPS)常被用作人工智能處理器的營銷指標,但它并不能反映其實際性能。雖然它能衡量人工智能芯片在理想條件下(例如所有計算單元能實現100%利用率)的理論峰值吞吐量,但對于在實際工作負載中該性能的利用效率卻只字未提。通過使用低精度運算(例如用INT4或INT8代替FP16或FP32),每秒萬億次運算的數值可能會被夸大。
一款芯片可能擁有很高的TOPS數值,但如果數據無法快速到達計算單元,那么其潛在的運算能力就會被浪費。此外,一種架構可能具備巨大的計算潛力,但如果軟件生態系統不成熟或調優不佳,其性能也會大打折扣。
最后,不同的人工智能任務需要不同的特性。視覺模型可能受益于高度并行性(這正是TOPS所衡量的方面),但生成式Transformer需要高內存吞吐量、緩存一致性和數據重用能力,而非原始的TOPS數值。
TOPS只是理論上的上限,并非性能的保證。這就好比僅通過最高時速來評判一輛汽車,卻不考慮路況、燃油效率或操控性。真正的人工智能性能取決于架構的平衡性、軟件棧、數據移動效率和模型兼容性,而不僅僅是原始的計算數值。
芯片越大、核心越多,性能就一定越好
乍一看,芯片越大、處理核心越多,似乎性能就應該越好。但實際上,增加芯片面積和核心數量會帶來顯著的邊際效益遞減,在很多情況下,甚至會降低性能、效率或可用性。
人工智能工作負載的性能并不總是隨核心數量呈線性增長。更大的芯片需要更多的內存帶寬來為其計算單元提供數據,還需要更長的線路和更復雜的互連結構。這會導致布線擁堵和能耗增加。
性能并不會隨芯片尺寸或核心數量呈線性增長。更大的芯片會帶來工程、架構和經濟方面的權衡,這些權衡可能會抵消其理論上的優勢。
在人工智能硬件領域,效率、數據移動、軟件優化和任務適配往往比單純的芯片尺寸更能決定性能。最佳的芯片并非是最大的,而是最能平衡適配工作需求的。
32位浮點(FP32)是人工智能計算的黃金標準
在深度學習訓練和推理的早期,32位浮點(FP32)是默認格式。隨著人工智能技術的發展,人工智能工作負載已不再采用32位浮點,轉而使用精度更低的格式,如16位浮點(FP16)、16位整數(INT16)或8位整數(INT8)。
認為32位浮點仍是黃金標準的觀點,忽視了使用低精度替代格式在效率、性能和準確性方面的巨大提升。事實上,通過量化感知訓練和混合精度訓練等技術,低精度格式能夠達到甚至超過32位浮點的精度。模型使用16位浮點或8位浮點通常能保持幾乎相同的精度。
因此,32位浮點已不再是黃金標準。如今的趨勢正從整數格式轉向浮點格式,有些人甚至主張使用4位浮點(FP4)。
人工智能計算依賴于精度優化,而非最大的位寬。最佳的性能和效率來自于為特定任務選擇合適的精度,而非使用可用的最高精度格式。
稀疏模式處理優先于密集模式處理
與密集計算相比,稀疏計算似乎具有優勢。它通過避免處理張量(權重、激活值甚至數據)中的零值元素,來減少計算量、內存占用和功耗,并在不犧牲模型精度的情況下提高效率。
但事實是,稀疏模式在很大程度上取決于模型結構、數據模式和硬件能力。但稀疏性也并非是放之四海而皆準的優化方式,也不能普遍優于密集計算。簡單地說,它是一種有條件的優化。
在許多情況下,密集模式仍是默認選擇,因為它具備成熟、可預測且兼容性廣泛等優點。稀疏性是一種強大的工具,但只有在合適的環境中并獲得適當支持時才能發揮作用。
高效的標量計算是人工智能處理所需的全部
標量計算指的是一次對單個數據元素執行一個操作,它在控制邏輯和編排方面發揮著重要作用。然而,對于現代人工智能工作負載的性能和效率需求,標量計算遠遠無法滿足。
雖然標量計算是必要的,但對于人工智能處理來說并不足夠。人工智能的需求需要并行、向量化和矩陣加速計算,而這些最好由為大規模、并發工作負載設計的定制硬件來處理。
僅通過先進的芯粒架構就能實現處理效率
基于芯粒的設計具有多項優勢。其中包括,由于更小的芯片更容易制造,因此能提高良率并降低成本;通過實現中央處理器、圖形處理器和加速器等功能的混合搭配,可實現模塊化的可擴展性;還能在整個組件中更高效地分布熱量和電力。這些累積的優勢常常讓人覺得,效率(尤其是每瓦性能)是其自帶的優勢。
盡管芯粒技術是實現可擴展性和集成的有效工具,但真正的處理效率需要為人工智能工作負載量身打造全新的軟硬件架構。這一架構藍圖應該包括創新的內存架構以克服內存墻問題、為人工智能應用的算法需求量身定制的可動態重配置計算核心,以及旨在簡化軟件棧的整體設計。
若不具備上述這些要素,僅靠芯粒無法實現預期的收益。
CUDA是人工智能處理器的基準軟件
盡管英偉達的CUDA已成為人工智能開發的主流標準,但它并非通用基準。如果有人認為CUDA是所有人工智能處理器的基準或必需接口的觀點,那就忽視了如今不斷涌現的多樣化硬件架構和軟件生態系統。
CUDA是一家供應商生態系統中的主流工具。更廣泛的人工智能行業正朝著開放、靈活且獨立于硬件的軟件框架發展。CUDA仍然很重要,但其主導地位正日益受到對可移植性、互操作性和硬件選擇自由的需求的挑戰。人工智能的未來并不局限于一種軟件開發工具包(SDK),而是多語言、開源且具有平臺感知能力的。
-
處理器
+關注
關注
68文章
20250瀏覽量
252208 -
AI
+關注
關注
91文章
39755瀏覽量
301356 -
人工智能
+關注
關注
1817文章
50094瀏覽量
265273
發布評論請先 登錄
自然智能與人工智能融合如何重塑芯片設計
恩智浦推出i.MX 952人工智能應用處理器
利用超微型 Neuton ML 模型解鎖 SoC 邊緣人工智能
挖到寶了!人工智能綜合實驗箱,高校新工科的寶藏神器
挖到寶了!比鄰星人工智能綜合實驗箱,高校新工科的寶藏神器!
超小型Neuton機器學習模型, 在任何系統級芯片(SoC)上解鎖邊緣人工智能應用.
兆芯亮相2025世界人工智能大會
格羅方德擬收購人工智能和處理器IP供應商MIPS
最新人工智能硬件培訓AI 基礎入門學習課程參考2025版(大模型篇)
開售RK3576 高性能人工智能主板
用于實時人類和物體識別的視覺-AI ASSP人工智能微處理器RZ/V2M數據手冊
基于嵌入式人工智能的高速圖像處理的微處理器RZ/A2M數據手冊
關于人工智能處理器的11個誤解
評論