国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

服務器AI芯片市場已經有明確需求,進入服務器AI芯片市場的幾種打法

傳感器技術 ? 來源:lq ? 2019-05-16 10:28 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

隨著人工智能漸漸落地,人工智能對于算力的需求逐漸增強。本輪人工智能熱潮背后的基礎是大數據和神經網絡,需要海量的數據去訓練復雜的神經網絡,而訓練完成后的神經網絡也較為復雜,執行神經網絡的推理操作相對于其他基于邏輯規則等智能方案需要更大的計算力。因此,算力成為了人工智能背后的基礎資源,而算力的提升則離不開芯片的支持。近日,高通寒武紀、依圖等來自不同背景的明星公司都發布了其用于服務器端的人工智能芯片方案,再加上谷歌、亞馬遜Intel、Nvidia等早已在服務器人工智能芯片領域押注的大公司,我們看到了服務器人工智能芯片的熱潮。

服務器AI芯片市場已經有明確需求

人工智能計算一般可以分為兩類,即訓練和推理。訓練是指使用收集到的大量數據去優化神經網絡的各項參數,從而能實現最優的精確度。推理則是在訓練好的神經網絡上將輸入數據在各層網絡之間做正向傳遞去求得輸出。訓練任務和推理任務執行的計算對于計算精度和內存訪問的模式都有所不同,因此芯片上往往需要不同的優化。

人工智能芯片根據應用場合也可以分為三個種類:服務器、邊緣計算、終端。服務器人工智能芯片主要部署在數據中心的服務器中,執行訓練和/或推理任務。服務器人工智能芯片對于芯片的首要需求就是單芯片算力(目前的主流算力在100TOPS級別),其次才會去考慮功耗和成本。邊緣計算是指部署在更接近數據源頭的服務器上執行的計算,以推理計算為主,典型應用場景包括在自動駕駛汽車上執行自動駕駛算法、在智能銷售領域無人店中執行監控和結賬操作等等。在邊緣計算中,芯片的功耗和成本相對于云端有更嚴格的限制,而算力則還是多多益善(10TOPS以上)。終端計算則是指直接部署在手機智能音箱等終端設備上人工智能計算,由于使用電池供電,其對于芯片的首要需求是能效比(1TOPS/W數量級),需要使用盡可能低的能量消耗去完成人工智能計算以保證電池壽命。雖然終端計算對于算力的要求較低(0.1-1TOPS數量級),但是其功耗約束很強,可用的功耗在1W以下,甚至可以低至幾十毫瓦級別,同時終端設備對于成本也很敏感。

目前上述三個人工智能應用場景中,邊緣計算尚處于概念驗證階段,預計未來幾年隨著5G無人駕駛機器人、智能零售等概念的興起會出現一批相關芯片公司,但是在今天市場規模還較小。終端人工智能計算目前已經得到初步驗證,手機等智能設備都在爭相加入人工智能專用處理模塊,但是由于其市場對于成本的敏感性,我們預期未來人工智能在終端設備上的形態會以SoC上的IP模塊為主,這也就意味著人工智能要么是由高通、海思等智能設備SoC廠商自研集成到自家的SoC中,要么是由第三方以IP的形式授權給SoC廠商,總體來說該市場的利潤率并不會太高,還是要以量取勝。

相較而言,服務器端人工智能芯片市場目前已經得到了較好的驗證,業務模式和市場規模都已經獲得了認可,利潤率也較高,因此成為了主流芯片公司的必爭之地;而邊緣和終端市場在今天來看還主要是針對未來的前瞻性布局。根據Barclays Research的研究報告,服務器端人工智能市場會在未來三年內快速增長,并預計于2021年達到100億美元的規模;而終端和邊緣計算市場則將在三年后才開始真正落地。所以,我們看到了巨頭紛紛在今年加碼服務器端人工智能芯片。

進入服務器AI芯片市場的幾種打法

目前來看,做云端AI芯片的主要有兩種廠商,一種是芯片公司,另一種是互聯網公司,包括AI公司(如依圖)這樣的“新物種”。

對于芯片公司來說,服務器AI市場的客戶往往比較分散,而且每個廠商都有自己獨特的訴求,因此需要一家一家談。由于不同的公司有不同的人工智能技術棧,芯片公司需要能兼容不同公司的需求,有時候甚至需要和客戶公司合作開發來確保能滿足需求。同時,芯片公司需要在各大公司的需求中尋找到最大公約數,來確保自己的芯片能進入盡可能多的客戶中。芯片公司可以直接進入終端客戶的服務器中,或者與提供服務器的系統集成商合作,為客戶設計滿足其需求的服務器來完成銷售。例如,中國AI芯片獨角獸寒武紀據悉已經獲得了滴滴、海康威視等商業客戶的直接訂單,同時也與浪潮、聯想和曙光等服務器系統集成商積極合作來完成服務器的訂單。寒武紀于一周前披露的最新思元270芯片使用TSMC 16nm制造,額定功耗75W,其整數計算能力分別為256TOPS(int4)、128TOPS(int8)和64TOPS(int4),這樣的設計預計主要針對服務器推理市場,其算力和功耗與Nvidia T4基本相當,基本可以作為Nvidia T4的國產替代,同時寒武紀有位于中國市場離客戶近以及性價比的優勢,因此想必還是能夠拿下大量訂單。另外,寒武紀的思元270還集成了視頻圖像編解碼模塊,估計其找到的客戶“最大公約數”仍然是計算機視覺相關領域,如視頻內容分析、安防等。

除了芯片公司向上進入服務器AI市場外,另一類公司則是互聯網以及AI公司親自入場做芯片,例如谷歌、亞馬遜以及剛發布自研芯片的中國AI獨角獸依圖。傳統來說,互聯網和AI公司主要是服務器和芯片的終端客戶,他們的需求是尋找市面上最合適的硬件來運行自己的應用。然而,當市面上的硬件都無法滿足這些終端客戶的需求時,他們也會親自做滿足自己需求的芯片。

互聯網和AI公司親自做芯片背后的邏輯主要在于建立競爭壁壘。隨著AI的落地以及AI對于算力的強烈需求,硬件已經成為AI背后重要的競爭要素。目前,隨著市場的充分競爭,各大AI巨頭在算法和模型等方面都沒有和彼此拉開很大的差距,于是硬件就成為了差異化競爭的重要因素。當模型和算法差距不大時,是否能使用較低的成本部署AI系統并提供良好的用戶體驗就成了能否拿到用戶訂單的重要因素了。另外,互聯網和AI公司是最清楚自己需求和算法的,因此通過軟硬件協同優化可望能實現最優化的系統設計。

上周依圖公布的求索就是AI公司入場AI芯片的最新動態。求索SoC完全結合依圖的算法做優化,只支持int8操作,主要針對視覺應用,例如人臉識別、車輛檢測、視頻結構化分析等任務。配合依圖的算法,使用四塊求索芯片的依圖原子服務器算力和使用八塊Nvidia P4的服務器相當,而體積僅為P4服務器的一半,功耗則低至20%,從而能大大減少部署的難度。更關鍵的是,目前一塊Nvidia P4的市價為2000美元左右,而求索芯片板卡的成本我們預計可以做到100美元以下,因此可以幫助依圖進入更多的客戶。相比使用Nvidia GPU的其他競爭公司,依圖的算法配合自研的芯片確實是一個很強的競爭優勢。

未來服務器AI芯片競爭格局預估

隨著服務器端AI市場的真正落地,越來越多的廠商開始真正投入該市場,Nvidia的壟斷難度也越來越大。如前所述,新進入服務器AI芯片戰場的廠商要么擁有芯片背景,或者是互聯網/AI公司親自做芯片。服務器AI市場的特殊性在于不同垂直應用對于芯片的需求有較大不同,而使用目前的主流芯片架構做一款能兼容大多數應用的芯片往往性能不夠好,因此芯片廠商還是需要認準一些重要的垂直應用,并且在垂直應用中打下站穩腳跟之后再考慮去橫向擴展。對于互聯網/AI公司造芯來說,由于他們對于垂直應用的前景非常清楚,因此主要就是看自研芯片對于競爭壁壘的構建有多少幫助,是否值得投入資金真正做芯片。在設計服務行業越來越成熟的今天,造芯的成本會逐漸降低,因此我們預期看到越來越多的互聯網和AI公司加入自研芯片的行列。因此,服務器AI芯片的競爭格局我們預期在未來幾年會看到Nvidia憑著CUDA生態的優勢仍然占據通用芯片的主流地位,但是其市場份額將會被其他芯片公司和客戶公司慢慢蠶食,同時在云端數據中心FPGA也會占據一部分市場。

服務器AI芯片競爭的變數在于下一代技術。目前馮諾伊曼架構的加速器的架構潛力已經被挖掘得很充分,之后難以再期待數量級上的提升,因此能帶來重大變革的當屬下一代技術。下一代技術還擁有不少不確定性,但是我們也看到了不少新技術擁有巨大的潛力,例如使用光技術做計算的LightIntelligence,可以實現超低延遲超低功耗計算。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 服務器
    +關注

    關注

    14

    文章

    10256

    瀏覽量

    91517
  • 人工智能
    +關注

    關注

    1817

    文章

    50102

    瀏覽量

    265514
  • AI芯片
    +關注

    關注

    17

    文章

    2128

    瀏覽量

    36793

原文標題:為何巨頭紛紛投入服務器AI芯片市場?

文章出處:【微信號:WW_CGQJS,微信公眾號:傳感器技術】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    普通服務器電源與AI服務器電源的區別(上)

    引言服務器是數據中心的核心設備,其穩定運行依賴可靠的電源供應。隨著AI技術的飛速發展,AI服務器大量涌現,與普通服務器在應用場景等方面存在顯
    的頭像 發表于 01-12 09:31 ?1050次閱讀
    普通<b class='flag-5'>服務器</b>電源與<b class='flag-5'>AI</b><b class='flag-5'>服務器</b>電源的區別(上)

    AI 服務器電源測試項目研究報告

    01項目背景隨著人工智能技術的飛速發展,AI服務器需求急劇增加。電源作為AI服務器的關鍵組件,其性能直接影響
    的頭像 發表于 12-16 10:22 ?673次閱讀
    <b class='flag-5'>AI</b> <b class='flag-5'>服務器</b>電源測試項目研究報告

    液冷服務器成為AI黃金賽道!華為力挺,兩大國際芯片巨頭下場

    2024年以來,全球AI液冷服務器快速增長,中國液冷服務器市場進展如何?液冷技術出現哪些主流路線?代表廠商的旗艦產品哪些?本文進行匯總。
    的頭像 發表于 11-27 09:22 ?6934次閱讀
    液冷<b class='flag-5'>服務器</b>成為<b class='flag-5'>AI</b>黃金賽道!華為力挺,兩大國際<b class='flag-5'>芯片</b>巨頭下場

    對話|AI服務器電源對磁性元件提出的新需求

    編者按: 自ChatGPT、DeepSeek等大型AI模型應用爆發以來,市場AI服務器需求激增,其配套電源的發展前景已成為行業共識。目前
    的頭像 發表于 10-11 14:55 ?994次閱讀
    對話|<b class='flag-5'>AI</b><b class='flag-5'>服務器</b>電源對磁性元件提出的新<b class='flag-5'>需求</b>

    AI服務器電源技術研討會部分演講嘉賓確認

    AI服務器電源是2025-2026年AI硬件確定的增量,英偉達超級芯片GB200功率到2700W,是傳統服務器電源的5-7倍,但其面臨的挑戰
    的頭像 發表于 06-24 10:07 ?1174次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>服務器</b>電源技術研討會部分演講嘉賓確認

    AI 服務器電源如何迭代升級?

    AI 算力需求增長的今天,AI 服務器電源正陷入 “性能瓶頸與國產替代并行、場景適配與技術創新交織” 的雙重挑戰。 由Big-Bit商務網、廣東省磁性元器件行業協會主辦的2025中國
    的頭像 發表于 06-23 14:51 ?1401次閱讀

    蘋果正研發用于AI服務器的專用芯片

    據外媒報道,蘋果公司正研發用于AI服務器的專用芯片;據蘋果公司知情人士透露;蘋果芯片設計團隊正在加速研發新芯片,面向的主要領域包括智能眼鏡
    的頭像 發表于 05-09 11:25 ?1087次閱讀

    RAKsmart服務器如何賦能AI開發與部署

    AI開發與部署的復雜性不僅體現在算法設計層面,更依賴于底層基礎設施的支撐能力。RAKsmart服務器憑借其高性能硬件架構、靈活的資源調度能力以及面向AI場景的深度優化,正在成為企業突破算力瓶頸、加速
    的頭像 發表于 04-30 09:22 ?796次閱讀

    AI服務器硬件攻堅戰,從時鐘緩沖到電容,解決功耗、帶寬、散熱難題

    市場前景廣闊,全球AI服務器預計2023年市場規模將達到1500億?2000億美元,復合年增長率約為28%-32%。 ?????????????????????????????????
    的頭像 發表于 04-28 01:09 ?4949次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>服務器</b>硬件攻堅戰,從時鐘緩沖到電容,解決功耗、帶寬、散熱難題

    AI 推理服務器都有什么?2025年服務器品牌排行TOP10與選購技巧

    根據行業數據,AI推理服務器的性能差異可以達到10倍以上。比如,用普通服務器跑一個700億參數的大模型,可能需要30秒才能出結果,而用頂級服務器可能只需要3秒。這就是為什么選對
    的頭像 發表于 04-09 11:06 ?8650次閱讀
    <b class='flag-5'>AI</b> 推理<b class='flag-5'>服務器</b>都有什么?2025年<b class='flag-5'>服務器</b>品牌排行TOP10與選購技巧

    RAKsmart服務器如何重塑AI高并發算力格局

    AI大模型參數量突破萬億級、實時推理需求激增的當下,傳統服務器架構的并發處理能力已逼近物理極限。RAKsmart通過“硬件重構+軟件定義”的雙引擎創新,推出新一代AI
    的頭像 發表于 04-03 10:37 ?919次閱讀

    思瑞浦 #AI服務器 方案如何幫助客戶實現價值? #人工智能 #芯片 #產品方案

    AI服務器
    思瑞浦3PEAK
    發布于 :2025年03月28日 18:23:30

    高性能GPU服務器推薦

    面對市場上種類繁多的GPU服務器,如何選擇一款適合自身需求的設備呢?接下來,AI部落小編為您推薦。
    的頭像 發表于 03-20 10:14 ?1081次閱讀

    利用RAKsmart服務器托管AI模型訓練的優勢

    AI模型訓練需要強大的計算資源、高效的存儲和穩定的網絡支持,這對服務器的性能提出了較高要求。而RAKsmart服務器憑借其核心優勢,成為托管AI模型訓練的理想選擇。下面,
    的頭像 發表于 03-18 10:08 ?702次閱讀

    大功率AI服務器PSU的革新之路

    在人工智能浪潮的席卷下,AI服務器作為支撐各類復雜AI運算的關鍵硬件,其電源(PSU)的性能表現成為了決定整個系統效能的重要因素。作為大功率AI服務
    的頭像 發表于 03-10 15:07 ?2179次閱讀
    大功率<b class='flag-5'>AI</b><b class='flag-5'>服務器</b>PSU的革新之路