馮·諾依曼體系結構一直是計算機體系結構的主要組成部分,不久后可能會發現自己在人工智能領域的用處不大。
自成立以來,計算機體系結構是一個高度動態的領域。
自1940年代以來,在該領域的所有變革和創新中,一個概念一直是不可或缺的:馮·諾依曼架構。近年來,隨著人工智能的發展,構架設計人員開始打破常規,挑戰馮·諾依曼的構架。
具體來說,兩家公司已經合作創建了一個AI芯片,該芯片可以在硬件內存中執行神經網絡計算。
馮·諾依曼構架
馮·諾依曼體系結構是由約翰·馮·諾依曼(John von Neumann)在其1945年的論文“ EDVAC報告的初稿 ”中首次提出的。簡單地說,馮·諾依曼體系結構是將程序指令和數據一起存儲在內存中以供以后使用的體系結構進行操作。
馮·諾依曼體系結構中包含三個主要組件:CPU,內存和I / O接口。在這種體系結構中,CPU負責所有計算和控制信息流,內存用于存儲數據和指令,而I / O接口則允許內存與外圍設備進行通信。
對于一般的工程師來說,這個概念似乎很明顯,但這是因為該概念已經變得如此普遍,以至于大多數人無法理解計算機是否可以正常工作。
在馮·諾依曼(von Neumann)提出構想之前,大多數機器會將內存分為程序內存和數據內存。這使計算機非常復雜,并限制了它們的性能。如今,大多數計算機在設計中都采用了馮·諾伊曼(von Neumann)架構概念。
馮·諾依曼架構的瓶頸
馮·諾依曼架構的主要缺點之一就是所謂的馮·諾依曼瓶頸。由于在這種體系結構中內存和CPU是分開的,因此系統的性能通常受到訪問內存速度的限制。從歷史上看,內存訪問速度比實際處理速度要慢幾個數量級,這在系統性能方面造成了瓶頸。
此外,由于互連寄生效應,數據的物理移動消耗大量能量。在給定的情況下,已經觀察到,數據從內存的物理移動所消耗的能量最多是實際處理該數據的500倍。這種趨勢只會隨著芯片規模的擴大而惡化。
人工智能需要大量的電源和內存
馮·諾依曼瓶頸因其內存密集型特性而在人工智能應用上帶來了一個特別具有挑戰性的問題。神經網絡的操作取決于大型矢量矩陣乘法以及諸如權重之類的大量數據的移動,所有這些數據都存儲在內存中。
由于數據在內存中進出的移動所造成的功率和時序限制,使得像智能手機這樣的小型計算設備幾乎不可能運行神經網絡。相反,必須通過基于云的引擎為數據提供服務,從而帶來過多的隱私和延遲問題。
AI芯片的“突破”:內存中的NN處理
對許多人而言,對這一問題的反應是在設計AI芯片時放棄了馮·諾依曼架構。
最近,Imec和GLOBALFOUNDRIES展示了一種新的人工智能芯片的硬件演示,該演示否認了處理和內存存儲必須完全獨立的功能這一觀念。
相反,他們采用的新架構稱為內存模擬計算(AiMC)。顧名思義,計算是在內存中執行的,而無需將數據從內存傳輸到CPU。與數字芯片相反,此計算在模擬域中進行。
該加速器在SRAM單元中執行模擬計算,可以本地處理傳感器的模式識別,否則傳感器可能依賴于數據中心的機器學習。
邊緣能源效率
這款新芯片聲稱已實現了高達2900 TOPS / W的驚人能源效率,據說“比數字加速器好十到一百倍”。
節省這么多的能量將使在邊緣設備上運行神經網絡更加可行。隨之而來的是減輕了與云計算有關的隱私,安全性和延遲問題。
GF的300mm生產線目前正在德國德累斯頓開發這種新芯片,并有望在不久的將來進入市場。
責任編輯:tzh
-
芯片
+關注
關注
463文章
54028瀏覽量
466408 -
AI
+關注
關注
91文章
39894瀏覽量
301537 -
人工智能
+關注
關注
1817文章
50113瀏覽量
265568
發布評論請先 登錄
阿里云全光互聯架構,突破AI算力瓶頸
如何突破AI存儲墻?深度解析ONFI 6.0高速接口與Chiplet解耦架構
存算一體架構賦能AI眼鏡革新:S300芯片定義多模態智能終端新思路
【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片到AGI芯片
《AI芯片:科技探索與AGI愿景》—— 深入硬件核心的AGI指南
【「AI芯片:科技探索與AGI愿景」閱讀體驗】+第二章 實現深度學習AI芯片的創新方法與架構
AI 芯片浪潮下,職場晉升新契機?
蘋芯科技存算一體創新架構,突破邊緣AI芯片技術困局
為什么需要AI芯片突破馮諾依曼架構的瓶頸?
評論