国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

ChatGPT等大模型的發展,對GPGPU有怎樣的性能要求?

lPCU_elecfans ? 來源:電子發燒友網 ? 2023-03-10 09:51 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

最近,在ChatGPT火了之后,國內互聯網科技圈不時傳出計劃或者正在研究類ChatGPT大模型的消息。

然而在相關技術真正面世之前,近日,OpenAI又放出新消息,該公司正式開放了ChatGPT的API接口,開發人員可以將ChatGPT模型集成到他們的應用程序和產品中。這意味著ChatGPT將會以更快的速度占領市場,因此國內企業在大模型的研究中更要加快進度。

在大模型發展中,國內具備了怎樣的條件

在類ChatGPT及其他大模型的發展中,國內是否具備相應的條件呢?登臨科技聯合創始人王平日前在接受電子發燒友采訪的時候談到了幾點:

他認為,國內在這方面是具備一定條件的,首先是數據,這是大模型技術中非常重要的一個生產要素,國內在數據上是有一定積累的;其次是人才,在這方面國內有不少優秀的算法人才,在大模型方面具備一定的知識基礎與經驗;此外,目前國內也有比較不錯的AI框架平臺以及具備核心技術完全自主研發能力的GPGPU廠商。整體來說整套的生產要素上都有一定的基礎,只不過在成熟度上跟OpenAI相比還存在一定差距。

具體來看,在AI框架方面,OpenAI能夠推出能力如此強大的ChatGPT,它應該有自己專門的框架。現在各種商用的框架,包括國產的飛槳paddlepaddle,以及Tensorflow或者Pytorch,其實更多是用于常規模型,而不是大模型的調度。因此在發展ChatGPT類大模型方面,還存在一些挑戰,需要去持續創新。

在人才方面,雖然目前國內具備一些算法相關的人才,然而整體而言是處于較為緊缺的狀態。另外大模型的訓練,也需要算法工程師具備豐富的經驗積累,因為模型太大,中間涉及很多技術,這并不是短時間砸錢就能達到的。

在硬件層面,國內的GPGPU具有自身的特色,甚至在一些領域比NVIDIA更具優勢,在ChatGPT或者相關大模型上,也有它的優勢。不過整體來看,還是存在差距,需要不斷進行創新和迭代,要不停的向前走。

大模型發展對GPGPU提出了怎樣的要求

ChatGPT火熱之后,可以明顯看到國內在AI大模型方面的發展將會加速,這對國內GPGPU來說意味著什么呢?大模型的發展,必然少不了GPGPU,GPGPU對于大模型就相當于是發動機之于汽車。王平認為,近十幾年AI的再度興起,到現在ChatGPT的爆火,以及未來AI產業的發展再上一個臺階,如果沒有GPGPU,這些都不大可能會實現。

因為每個大模型訓練和部署的背后,都有幾萬個GPGPU在支持。可想而知,未來隨著這方面的研發和應用的普及,GPGPU市場需求將會再度迎來爆發式增長。

以電力為例,就可以很清楚的看到這個市場未來可能發生的變化。幾十年前,電力只是用在一些小用量的場景,隨著電力的供給越來越多,電器也越來越多的時候,最后電力就成了一個基本設施。可以說,算力也是朝著基礎設施的方向在發展。在王平看來,現在GPGPU還遠沒有到爆炸式需求的階段。

當然在ChatGPT或者其他大模型訓練和部署,對GPGPU或者說算力也會有更高的要求。王平談到了幾個方面:

首先從單卡層面來看,先來看一組數據,1月份的時候ChatGPT的用戶數突破1億,日訪問量有幾千萬,在這種情況下,它的運營成本會相當高,每天的電費在幾十萬人民幣量級。這時候計算效率很重要,如果計算架構相比于傳統的GPGPU更有優勢的話,比如,登臨科技一些計算密度更大的產品,在計算效率上就更有優勢。

其次是單卡之外,卡片間的互聯也很重要。因為在用戶側工作的實際上是一個超級計算機系統,在訓練的時候,帶寬、片間、服務器間的信息傳遞很重要,這就需要針對大模型的訓練框架,在整個服務器集群的調度和協同工作中進行升級優化。

再者就是軟件方面,一般來說在軟硬件協同的系統里,軟件的重要作用不可忽視,因為一些軟件棧的原因,或者軟件協同調度的問題,硬件往往不能完全發揮出能力。所以我們經常可以看到,在一些場景下,軟件稍微進行優化,整體應用性能就會有百分之幾十,甚至百分之百的提升。

從硬件公司的角度來看,GPGPU是一個通用平臺,行業整體有產品異構化的走向,總體來說,GPGPU存在一些性能瓶頸。登臨科技是一家專注于高性能通用計算平臺的芯片研發與技術創新的公司,登臨自主研發的GPU+架構正式采用了軟件定義的片內異構體系,目前首款基于GPU+的系列產品—Goldwasser已在云至邊緣的各個應用場景實現規模化落地。據王平介紹:登臨科技希望通過異構,從由點及面在一些足夠大的市場領域,把產品做到比英偉達同系列產品更具性價比優勢,甚至超過英偉達。

帶著這樣的出發點,在大型語言模型方面,登臨科技會更關心如何更好的提升產品的能效比。簡單來說,在同樣功耗下,登臨科技可以提供英偉達1.5到2倍的算力,在算力一致的情況下,做到單位功耗更低這樣從計算的整體性能上實現英偉達同類產品的能效比3倍的優勢。如此一來,上面提到的電費、運維成本都將會有很大的節省。

小結

不難看出,以ChatGPT為代表的大語言模型發展和應用,對人們生產生活意義重大。隨著它的技術和應用逐步成熟,其對GPGPU等算力硬件的需求將會持續增加,就如同文中提到的電力的發展路徑一樣。當然大模型對GPGPU及算力集群系統的也有更高的要求,比如計算效率更高,能夠節省電費和運維成本等,可想而知,對于硬件公司來說,誰能夠在這方面更具優勢,誰就更能在未來大模型處處落地的時候,更占據優勢。

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 算法
    +關注

    關注

    23

    文章

    4784

    瀏覽量

    98088
  • API
    API
    +關注

    關注

    2

    文章

    2375

    瀏覽量

    66805
  • ChatGPT
    +關注

    關注

    31

    文章

    1598

    瀏覽量

    10280
  • 大模型
    +關注

    關注

    2

    文章

    3651

    瀏覽量

    5193

原文標題:ChatGPT等大模型的發展,對GPGPU有怎樣的性能要求?

文章出處:【微信號:elecfans,微信公眾號:電子發燒友網】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    國產GPGPU集體爆發!沐曦登陸科創板,龍芯也宣布了

    電子發燒友網報道(文/莫婷婷)通用圖形處理器(GPGPU)作為融合圖形處理與通用并行計算能力的協處理器,已成為AI、大數據分析等高性能計算場景的核心基礎設施。目前,全球 GPGPU 市場長期由英偉達
    的頭像 發表于 12-17 07:19 ?1.1w次閱讀
    國產<b class='flag-5'>GPGPU</b>集體爆發!沐曦登陸科創板,龍芯也宣布了

    VLA與世界模型什么不同?

    Language Action,VLA),另一些則致力于構建并應用世界模型(World Model)。這兩種路徑什么不同? 什么是VLA,什么是世界模型 先說說VLA。VLA是英文Vision-Language-Action
    的頭像 發表于 12-17 09:13 ?640次閱讀
    VLA與世界<b class='flag-5'>模型</b><b class='flag-5'>有</b>什么不同?

    【VisionFive 2單板計算機試用體驗】3、開源大語言模型部署

    , Gemma開源大模型。當然,一些閉源的(類似chatgpt, gemini)是不支持部署的。如下圖: 在端側部署大模型,個人認為最大的好處:是可以避免因文本或圖片上傳而造成的信
    發表于 07-19 15:45

    【「DeepSeek 核心技術揭秘」閱讀體驗】書籍介紹+第一章讀后心得

    模型圈子,其多項性能超過了當時處于領先地位的ChatGPT 4,也證明了不需要高昂的費用也能訓練出優質大模型。這激起了我的好奇心,借著這次機會好好閱讀一下DeepSeek的核心技術。
    發表于 07-17 11:59

    有源銅纜:大模型背后的隱形英雄

    現在大家都在關注大模型,像ChatGPT,xAI,尤其是Deepseek,最近都火出圈了!
    的頭像 發表于 07-11 14:16 ?1250次閱讀
    有源銅纜:大<b class='flag-5'>模型</b>背后的隱形英雄

    模型推理顯存和計算量估計方法研究

    ,如乘法、加法; (2)根據各層計算操作的類型和復雜度,確定每層所需的計算量; (3)將各層計算量相加,得到模型總的計算量。 基于硬件加速的算力估計 隨著硬件加速技術的發展,許多深度學習框架支持
    發表于 07-03 19:43

    芯原可擴展的高性能GPGPU-AI計算IP賦能汽車與邊緣服務器AI解決方案

    與人工智能 (AI) 加速器相融合,這些IP在熱和功耗受限的環境下,能夠高效支持大語言模型 (LLM) 推理、多模態感知以及實時決策復雜的AI工作負載。 芯原的GPGPU-AI計算IP基于高
    的頭像 發表于 06-16 10:44 ?1376次閱讀

    瑞芯微模型量化文件構建

    里面。其中模型輸入需要圖片、框的坐標,根據框生成的掩碼還有高斯隨機噪聲,我應該怎樣寫這個build文件
    發表于 06-13 09:07

    數據標注與大模型的雙向賦能:效率與性能的躍升

    ??在人工智能蓬勃發展的時代,大模型憑借其強大的學習與泛化能力,已成為眾多領域創新變革的核心驅動力。而數據標注作為大模型訓練的基石,為大模型性能
    的頭像 發表于 06-04 17:15 ?2003次閱讀
    數據標注與大<b class='flag-5'>模型</b>的雙向賦能:效率與<b class='flag-5'>性能</b>的躍升

    如何賦能醫療AI大模型應用?

    引言自ChatGPT掀起熱潮以來,眾多AI大模型如雨后春筍般涌現,其中包括百度科技的文心一言、科大訊飛的訊飛星火、華為的盤古AI大模型、騰訊的混元AI大模型以及阿里哪吒大
    的頭像 發表于 05-07 09:36 ?694次閱讀
    如何賦能醫療AI大<b class='flag-5'>模型</b>應用?

    昆侖芯超節點產品推出,大模型訓推任務性能跨越式提升

    AI開發者大會上,昆侖芯作為底層算力核心被高頻提及,三萬卡集群點亮振奮人心,昆侖芯超節點也在大會上正式發布。 ? ? 自ChatGPT問世,大模型參數快速增長,單卡顯存無法容納越來越大的模型參數,大
    的頭像 發表于 04-25 19:29 ?2259次閱讀

    如何高效訓練AI模型?這些常用工具你必須知道!

    模型發展同樣面臨瓶頸,訓練所需的硬件資源日益增加,比如英偉達的芯片、電力(這也可能是ChatGPT5遲遲沒有出來的原因)。業界觀點認
    的頭像 發表于 04-17 16:43 ?2239次閱讀
    如何高效訓練AI<b class='flag-5'>模型</b>?這些常用工具你必須知道!

    模型原生操作系統:機遇、挑戰與展望 CCCF精選

    與作者團隊的相關初步探索。 以ChatGPT為代表的生成式人工智能(Generative AI)正在深刻變革人類社會。大模型憑借其卓越的語言理解、內容生成與邏輯推理能力,已成為科技發展的新范式與重要推動力。全球主要經濟體和科技巨
    的頭像 發表于 03-14 17:46 ?1164次閱讀
    <b class='flag-5'>模型</b>原生操作系統:機遇、挑戰與展望  CCCF精選

    和安信可Ai-M61模組對話?手搓一個ChatGPT 語音助手 #人工智能 #

    ChatGPT
    jf_31745078
    發布于 :2025年03月12日 15:56:59

    智能語音交互的突破與應用,啟明云端AI大模型方案應用

    根據Statista的預測,到2025年,全球人工智能市場規模有望突破6400億美元,年復合增長率高達30.8%。其中,AI大模型作為核心驅動力,正重塑各個行業的發展格局。從ChatGPT掀起全球
    的頭像 發表于 03-10 18:11 ?1565次閱讀
    智能語音交互的突破與應用,啟明云端AI大<b class='flag-5'>模型</b>方案應用