機器學習已然無處不在。它藏身于很多智能設備中,一部智能手機、一個智能音響、線上購物娛樂的一個個APP里……它像是虛擬世界和物理世界的“縫合者”,用算法和數據試圖“猜透”人心。
各大廠商對機器學習的熱情越來越高,對算法、算力和數據提出新的要求,尤其是對算力需求的激增,進一步催生相關芯片和專用設備的蓬勃創新,而在后摩爾時代,這種創新或將成為突破算力極限的關鍵。
數據“喂”大的機器智能
什么是機器學習?簡單來說,機器學習使用算法在數據中發現模式,然后使用一個能識別這些模式的模型對新的數據進行預測。
由此可見,數據是讓一個算法從實驗室走到物理世界的關鍵。數據量、數據多樣性以及規模化的、成本可靠的數據來源渠道等都是影響最終結果的關鍵要素。其中,有一項關鍵的工作需要大量的人力參與——數據的社會化標注。“某種意義上,機器永遠離不開人類。”澳鵬(Appen)中國產品總監張童皓對集微網表示。澳洲公司Appen成立于1996年,多年來一直是AI產業鏈中比較靠前的數據節點來為客戶提供服務,業務涉及提供圖像、文本、語音、音頻、視頻及其他數據收集和標注服務。
眾所周知,神經網絡是當前人工智能發展的基石技術。“神經網絡的專長就是在像素點里面嘗試著取出一系列的關鍵點,而這些關鍵點是由人工標注出來的。”張童皓說,“如果你丟給機器一堆無規則的隨機圖片,它永遠都不知道這個圖片里面有人。”
隨著AI應用要求的不斷提升,訓練的難度和對數據的要求也隨之提升。張童皓告訴集微網,他們曾經為配合一家手機客戶的一項算法訓練提供數據服務,拍攝全世界各地不同經度、不同緯度的月亮照片。“如果采用在一個國家的不同地方所觀察到的月亮,而不是在全球各個地方實地觀察,那么其標注的數據一旦應用于全世界數據中,錯誤的數據將會給后續一系列應用帶來錯誤的結果。”目前Appen的平臺上有超過100萬名參與人工智能數據收集、標注的人員,他們來自全球130個國家或地區的7萬多個地方,涵蓋180 多種語言和方言。
機器對數據的“胃口”越來越越大。以谷歌的BERT為例,這是該公司2018年建立并用于其搜索引擎的AI語言模型,它具有超過3.5億個內部參數,使用33億個文字單詞進行了訓練,大部分來自在線的維基百科。而研究人員稱,如果可以用更大的數據量,比如300億個單詞訓練一個系統,那么它的性能顯然將更好。而更多的數據意味著需要更多的計算能力來處理這一切。
算力需求激增 催生芯片創新
據《經濟學人》統計,從2012年到2018年,用于訓練大型模型的計算能力已增長了30萬倍,并且約每三個半月翻一番。值得注意的是,支持這一發展速度需要的遠不止摩爾定律所能實現的改進。更何況如今正值摩爾定律走向枯竭之際,如何不斷提升系統性能以滿足人工智能訓練的需求?后摩爾時代的AI革命顯然需要新的顛覆——從計算架構開始,做算法、硬件和軟件的共同優化變得尤為關鍵。
對算力需求的激增,也進一步催生AI專用芯片和專用設備的蓬勃發展,并促使芯片層面的多種創新。
張童皓也觀察到了芯片技術和機器學習之前的相互影響。他指出,基于機器學習的芯片架構發展,已經從最初的硬件通用化到場景定制化服務,“很多AI行業的領頭羊在特定芯片模組上的投入,都是在服務AI場景化落地。”
比如,蘋果的自研芯片里有一個專門用于機器學習的處理器——神經引擎,它和CPU、GPU一起處理機器學習所需要的大量的運算。據蘋果公司全球副總裁葛越在今年上海的世界人工智能大會上透露,該神經引擎每秒鐘可以完成高達五萬億次的運算。此外,谷歌自行設計了TPU(張量處理單元)芯片,百度自行開發的AI芯片“昆侖”。英特爾則在去年12月以20億美元收購了以色列公司哈瓦那實驗室(Habana Labs),該公司的云端AI推理芯片已經商用。成立于2016年的英國公司Graphcore則正在開發一種新型處理器——IPU(intelligent processing unit,智能處理器),可以幫助加速機器智能產品和服務的開發,該公司2019年的估值已達到20億美元。
此類創新將變得越來越重要,因為AI引發的計算能力需求的激增正值摩爾定律逐漸枯竭之際——在過去50年里,傳統數字計算機的性能按照摩爾定律一路提升——集成電路(微芯片)的容量大約每18-24個月翻一番。如今,數字計算機性能的發展速度似乎正在放慢。
突破摩爾定律的嘗試
摩爾定律和馮諾依曼架構的瓶頸在算力需求激增之下日益凸顯。尋找新的替代方案突破蠻力計算變得尤為重要。
復旦大學信息學院研究員、新氦類腦智能首席科學家鄒卓教授指出,摩爾定律的挑戰在于——無法承受的能耗密度,原子尺度的尺寸、制程、器件的不穩定性和偏差,以及比例縮小并沒有帶來實質性的性能提升,高昂的研發和制造成本。與此同時,馮諾依曼計算架構不斷抵近極限,即內存的讀取速度和芯片的處理速度漸漸難以實現同步。
量子計算是一種解決方式——利用量子力學的反直覺特性來大幅加速某些類型的計算。比如,微軟研究院量子架構與計算小組負責人提出一種稱為葛洛沃算法(Grover‘s algorithm)的量子計算技術,該技術有望大大提高計算速度。因為關于機器學習的一種思考方式是將其視作優化問題,即計算機試圖在數百萬個變量之間折中取舍,以求出誤差盡可能小的解
另一種思路則是從生物學中得到啟發。這個領域以大腦的神經網絡架構為基礎開發下一代計算機。神經形態計算聚焦脈沖神經網絡(spiking neural network,SNN)被業界稱作第三代神經網絡
“生物是很高效的計算系統。”鄒卓指出,借助類腦技術大規模并行、事件驅動、實施環境交互、感算存緊密耦合協同等特點,開發能夠如人腦般感知、傳遞、處理和運用信息的智能芯片與系統,有望突破摩爾定律以及馮諾依曼架構的瓶頸。
“像人腦一樣的存算一體,打破了傳統馮諾依曼架構存儲計算分離的架構,這是類腦計算的核心突破。”新氦類腦智能企業戰略總監程韞韻對集微網解釋,存算一體的模式,即把內存和計算單元兩者作為一個單元,不會因計算任務的架構復雜化而功耗激增,這也讓計算耗電和散熱兩大難題找到了新的方向。
Facebook內部做過一項統計,其AI負責人曾透露,該公司那些最大型的模型進行一輪訓練可能需要耗費數百萬美元的電力。相比之下,同樣的情況人腦消耗的能量可能僅需其千分之一。
看起來,這似乎在突破蠻力計算上充滿潛力,近年來不少科技公司也都涉足研究“神經形態”芯片。
2011年,IBM發布了TrueNorth芯片。2014年TrueNorth更新了第二代,功耗達到了平方厘米消耗20毫瓦,印證了類腦芯片的低功耗價值,也在一些AI任務上印證了類腦芯片的實際工作能力。緊隨其后的是英特爾。2017年,英特爾發布了類腦芯片Loihi,其擁有13萬個人造突觸。2019年7月,英特爾又發布了首個大規模神經形態計算系統Pohoiki Beach。該系統由64塊Loihi組合而成,可以在自動導航、陸續規劃等需要高效執行的AI任務中帶來高于GPU的功耗和處理能力。此外,高通也開發過名為Zeroth的類腦芯片。中國業界在該領域也加緊投入,如浙大的“達爾文”芯片、清華的“天機”芯片等都已在路上。其中清華的“天機”芯片作為全球首款異構融合類腦芯片去年登上了《自然》(Nature)雜志封面。
但需要指出的是,這一切都尚未成熟。量子計算的應用落地還面臨很多工程設計問題。類腦智能層面,一方面科學家仍然不完全了解大腦究竟是怎么工作的,另一方面適配類腦計算的架構、算法、編程方案等等也處在廣泛的空白期。
顯然,找到繞開比特編程和摩爾定律的替代方案,并使之從實驗室步入現實世界,還有很長的路要走。
責任編輯:tzh
-
芯片
+關注
關注
463文章
54010瀏覽量
466151 -
AI
+關注
關注
91文章
39793瀏覽量
301446 -
人工智能
+關注
關注
1817文章
50098瀏覽量
265415 -
機器學習
+關注
關注
66文章
8553瀏覽量
136958
發布評論請先 登錄
算力即國力!摩爾線程架構/芯片/超節點/萬卡集群四連發,助力打造AI國之重器
AI賦能6G與衛星通信:開啟智能天網新時代
先進封裝轉接板的典型結構和分類
后摩爾時代破局者:物元半導體領航中國3D集成制造產業
Chiplet與3D封裝技術:后摩爾時代的芯片革命與屹立芯創的良率保障
摩爾線程亮相WAIC 2025:以“AI工廠”理念驅動算力進化,全棧AI應用賦能千行百業
摩爾線程“AI工廠”:五大核心技術支撐,打造大模型訓練超級工廠
摩爾線程“AI工廠”:以系統級創新定義新一代AI基礎設施
后摩爾時代:芯片不是越來越涼,而是越來越燙
奇異摩爾邀您相約2025中國AI算力大會
摩爾線程與AI算力平臺AutoDL達成深度合作
谷歌第七代TPU Ironwood深度解讀:AI推理時代的硬件革命
淺析后摩爾時代的AI革命
評論