趁著ChatGPT這一熱門話題還未消退,我們來聊一聊這類大規(guī)模語言模型(LLM)或通用人工智能(AGI)背后的細節(jié)。畢竟目前相關(guān)的概念股跟風大漲,但還是有不少人在持觀望態(tài)度。無論是國外還是國內(nèi),有沒有可能做出下一個ChatGPT?以及打造這樣一個模型所需的研發(fā)成本和運營成本究竟是多少。
ChatGPT背后的成本,以及GPU廠商等候多時的增長點
首先,ChatGPT是OpenAI預(yù)訓(xùn)練的對話模型,除去訓(xùn)練本身所需的硬件與時間成本外,運營時的推理成本也要算在其中。根據(jù)UBS分析師Timothy Arcuri的觀點,ChatGPT使用到了至少1萬塊英偉達的GPU來運營這一模型。不過這還是相對較為保守的數(shù)據(jù),根據(jù)Semianalysis分析師Dylan Patel對模型參數(shù)、日活躍用戶數(shù)以及硬件利用率等種種因素的分析,他粗略估計OpenAI需要用到3617個HGX A100服務(wù)器來維持ChatGPT的運轉(zhuǎn)。

HGX A100 / 英偉達
需要注意的是,該分析中的HGX A100服務(wù)器是8塊A100 SXM的定制化模塊,并非DGX A100這樣集成了AMD CPU的標準服務(wù)器模塊,也就是說共需28936塊英偉達A100 GPU。且不說A100本身就高昂的售價,更何況現(xiàn)在還有一定的溢價。一張40GB的A100 PCIe卡,目前在亞馬遜上的單價為8000多美元,而80GB的A100 PCIe卡價格在15000美元左右浮動。
由此估算,運行ChatGPT的前期設(shè)備投入成本少說也有2.3億美元,這其中還沒算進CPU、內(nèi)存、硬盤和網(wǎng)關(guān)等設(shè)備的硬件成本。所有GPU同時運轉(zhuǎn)時的TDP功耗達到7234kW。按照美國商用電價來計算的話,哪怕是每日運轉(zhuǎn)單由GPU帶來的電費也至少要兩萬美元以上。這樣的設(shè)備成本除非是微軟、谷歌、亞馬遜這樣本就手握大把服務(wù)器硬件資源的廠商,否則很難支撐這一模型的日常運轉(zhuǎn)。
接著我們再從每次查詢的推理成本這個角度來看,如果只負責在服務(wù)器上部署ChatGPT的OpenAI無需考慮設(shè)備購入成本,而是只考慮GPU云服務(wù)器的定價。根據(jù)Dylan Patel的估算,ChatGPT每次查詢的成本為0.36美分,約合2.4分人民幣,每天在硬件推理上的成本也高達70萬美元。由此來看,無論是OpenAI現(xiàn)在免費提供的ChatGPT,還是微軟在Bing上啟用的ChatGPT,其實都是在大把燒錢。
要知道,現(xiàn)在還只是用到了ChatGPT這一文本語言模型,根據(jù)OpenAI的CEO Sam Altman的說法,他們的AI視頻模型也在準備當中。而要想打造更復(fù)雜的視頻模型,勢必會對GPU算力提出更高的要求。
未來的硬件成本會更低嗎?
對于任何一個想要運行ChatGPT這類服務(wù)的廠商,打造這樣一款應(yīng)用都要付出不小的成本,所以現(xiàn)階段還是微軟、谷歌之類的巨頭相互博弈。但Sam Altman也表示,隨著越來越多的競爭出現(xiàn),毋庸置疑會把硬件成本壓低,也會把每個Token的定價壓低。

Jasper AI寫作工具的定價 / Jasper.ai
大家可以參照一下其他利用OpenAI的GPT-3的AI工具,比如Jasper。Jasper作為一個人工智能寫作軟件,每月需要繳納50美元,才能享受5萬字的寫作字數(shù)上限。而反觀ChatGPT,哪怕是目前的免費版也能幫你寫就長篇故事了。而這些工具鼓吹的多種模板,在ChatGPT中也只是換一種問法而已。
Sam Altman認為會有更多的玩家入局AGI,如此一來ChatGPT這種類型的服務(wù)會出現(xiàn)在更多的產(chǎn)品和應(yīng)用中,而不再只是作為大廠的附庸,比如只在微軟的Bing、Office中大規(guī)模使用等,這也是OpenAI還考慮授權(quán)給其他公司的原因。
不過如果依照谷歌的訪問和搜索量來部署ChatGPT或Bard這樣類似模型的話,所需的成本必定要遠遠高于Bing,畢竟谷歌依然是目前國際領(lǐng)先的搜索引擎。
如果谷歌用其TPU之類的專用硬件來完成LLM的訓(xùn)練與推理,其成本必然顯著低于GPU這類通用硬件的,畢竟TPU這類ASIC芯片在量產(chǎn)成本和運行功耗上都有著得天獨厚的優(yōu)勢。
但谷歌如果使用專用硬件的話,可能會存在強制綁定的問題,哪怕谷歌選擇公開TPU商業(yè)運營,如果想用集成Bard的合作客戶也基本與谷歌云綁定了,就像現(xiàn)在的ChatGPT與微軟Azure強制綁定一樣。而且如果Bard出現(xiàn)算法路線上的大變動,TPU這種ASIC方案很難再對其進行針對性優(yōu)化。
由此可以看出,雖然大小入局者眾多,但真正落地、可大規(guī)模使用且還算好用的產(chǎn)品還是只有ChatGPT一個,要想等到行業(yè)內(nèi)卷壓低成本,可能還得等上很長一段時間。
ChatGPT如何實現(xiàn)盈利?
微軟高調(diào)宣布與OpenAI合作,并將ChatGPT融入Bing等一系列微軟產(chǎn)品中,這已經(jīng)不是什么新聞了。但其實這樣的合作關(guān)系昭示了ChatGPT的一種盈利方式,那就是授權(quán)。除了微軟這種深度合作的廠商以外,其他應(yīng)用開發(fā)商也可以采用授權(quán)的方式,將ChatGPT集成到自己的產(chǎn)品中去。
不過Sam Altman在接受外媒采訪時表示,他們目前在授權(quán)上的合作還并不多。由此猜測,要么是此類授權(quán)費用昂貴,要么就是缺少成熟的產(chǎn)品形態(tài)來應(yīng)用這一技術(shù),畢竟當下還算強相關(guān)的應(yīng)用也只有搜索引擎、寫作工具以及AI助手等。再說,對于感興趣想嘗鮮的廠商來說,直接接入OpenAI的API或許價格反倒更低。
另一種盈利方式,也是現(xiàn)在最流行且已被普遍接受的收費模式,訂閱制。2月1日,OpenAI正式推出了20美元一個月的ChatGPT Plus,提供高峰時期的訪問、更快的響應(yīng)速度以及新功能和改進的搶先體驗。
結(jié)語
總的來說,ChatGPT這類AGI作為元宇宙之后的又一大風口,激發(fā)了一股初創(chuàng)公司入局LLM的熱潮。但從客觀來看,對于這些初創(chuàng)公司來說,他們打從一開始根本不需要考慮市場風險,比如這會不會是個偽需求。他們更應(yīng)該擔心的應(yīng)該是技術(shù)風險,也就是究竟有沒有這個實力和資本去打造一個可用的LLM。
ChatGPT背后的成本,以及GPU廠商等候多時的增長點
首先,ChatGPT是OpenAI預(yù)訓(xùn)練的對話模型,除去訓(xùn)練本身所需的硬件與時間成本外,運營時的推理成本也要算在其中。根據(jù)UBS分析師Timothy Arcuri的觀點,ChatGPT使用到了至少1萬塊英偉達的GPU來運營這一模型。不過這還是相對較為保守的數(shù)據(jù),根據(jù)Semianalysis分析師Dylan Patel對模型參數(shù)、日活躍用戶數(shù)以及硬件利用率等種種因素的分析,他粗略估計OpenAI需要用到3617個HGX A100服務(wù)器來維持ChatGPT的運轉(zhuǎn)。

HGX A100 / 英偉達
需要注意的是,該分析中的HGX A100服務(wù)器是8塊A100 SXM的定制化模塊,并非DGX A100這樣集成了AMD CPU的標準服務(wù)器模塊,也就是說共需28936塊英偉達A100 GPU。且不說A100本身就高昂的售價,更何況現(xiàn)在還有一定的溢價。一張40GB的A100 PCIe卡,目前在亞馬遜上的單價為8000多美元,而80GB的A100 PCIe卡價格在15000美元左右浮動。
由此估算,運行ChatGPT的前期設(shè)備投入成本少說也有2.3億美元,這其中還沒算進CPU、內(nèi)存、硬盤和網(wǎng)關(guān)等設(shè)備的硬件成本。所有GPU同時運轉(zhuǎn)時的TDP功耗達到7234kW。按照美國商用電價來計算的話,哪怕是每日運轉(zhuǎn)單由GPU帶來的電費也至少要兩萬美元以上。這樣的設(shè)備成本除非是微軟、谷歌、亞馬遜這樣本就手握大把服務(wù)器硬件資源的廠商,否則很難支撐這一模型的日常運轉(zhuǎn)。
接著我們再從每次查詢的推理成本這個角度來看,如果只負責在服務(wù)器上部署ChatGPT的OpenAI無需考慮設(shè)備購入成本,而是只考慮GPU云服務(wù)器的定價。根據(jù)Dylan Patel的估算,ChatGPT每次查詢的成本為0.36美分,約合2.4分人民幣,每天在硬件推理上的成本也高達70萬美元。由此來看,無論是OpenAI現(xiàn)在免費提供的ChatGPT,還是微軟在Bing上啟用的ChatGPT,其實都是在大把燒錢。
要知道,現(xiàn)在還只是用到了ChatGPT這一文本語言模型,根據(jù)OpenAI的CEO Sam Altman的說法,他們的AI視頻模型也在準備當中。而要想打造更復(fù)雜的視頻模型,勢必會對GPU算力提出更高的要求。
未來的硬件成本會更低嗎?
對于任何一個想要運行ChatGPT這類服務(wù)的廠商,打造這樣一款應(yīng)用都要付出不小的成本,所以現(xiàn)階段還是微軟、谷歌之類的巨頭相互博弈。但Sam Altman也表示,隨著越來越多的競爭出現(xiàn),毋庸置疑會把硬件成本壓低,也會把每個Token的定價壓低。

Jasper AI寫作工具的定價 / Jasper.ai
大家可以參照一下其他利用OpenAI的GPT-3的AI工具,比如Jasper。Jasper作為一個人工智能寫作軟件,每月需要繳納50美元,才能享受5萬字的寫作字數(shù)上限。而反觀ChatGPT,哪怕是目前的免費版也能幫你寫就長篇故事了。而這些工具鼓吹的多種模板,在ChatGPT中也只是換一種問法而已。
Sam Altman認為會有更多的玩家入局AGI,如此一來ChatGPT這種類型的服務(wù)會出現(xiàn)在更多的產(chǎn)品和應(yīng)用中,而不再只是作為大廠的附庸,比如只在微軟的Bing、Office中大規(guī)模使用等,這也是OpenAI還考慮授權(quán)給其他公司的原因。
不過如果依照谷歌的訪問和搜索量來部署ChatGPT或Bard這樣類似模型的話,所需的成本必定要遠遠高于Bing,畢竟谷歌依然是目前國際領(lǐng)先的搜索引擎。
如果谷歌用其TPU之類的專用硬件來完成LLM的訓(xùn)練與推理,其成本必然顯著低于GPU這類通用硬件的,畢竟TPU這類ASIC芯片在量產(chǎn)成本和運行功耗上都有著得天獨厚的優(yōu)勢。
但谷歌如果使用專用硬件的話,可能會存在強制綁定的問題,哪怕谷歌選擇公開TPU商業(yè)運營,如果想用集成Bard的合作客戶也基本與谷歌云綁定了,就像現(xiàn)在的ChatGPT與微軟Azure強制綁定一樣。而且如果Bard出現(xiàn)算法路線上的大變動,TPU這種ASIC方案很難再對其進行針對性優(yōu)化。
由此可以看出,雖然大小入局者眾多,但真正落地、可大規(guī)模使用且還算好用的產(chǎn)品還是只有ChatGPT一個,要想等到行業(yè)內(nèi)卷壓低成本,可能還得等上很長一段時間。
ChatGPT如何實現(xiàn)盈利?
微軟高調(diào)宣布與OpenAI合作,并將ChatGPT融入Bing等一系列微軟產(chǎn)品中,這已經(jīng)不是什么新聞了。但其實這樣的合作關(guān)系昭示了ChatGPT的一種盈利方式,那就是授權(quán)。除了微軟這種深度合作的廠商以外,其他應(yīng)用開發(fā)商也可以采用授權(quán)的方式,將ChatGPT集成到自己的產(chǎn)品中去。
不過Sam Altman在接受外媒采訪時表示,他們目前在授權(quán)上的合作還并不多。由此猜測,要么是此類授權(quán)費用昂貴,要么就是缺少成熟的產(chǎn)品形態(tài)來應(yīng)用這一技術(shù),畢竟當下還算強相關(guān)的應(yīng)用也只有搜索引擎、寫作工具以及AI助手等。再說,對于感興趣想嘗鮮的廠商來說,直接接入OpenAI的API或許價格反倒更低。
另一種盈利方式,也是現(xiàn)在最流行且已被普遍接受的收費模式,訂閱制。2月1日,OpenAI正式推出了20美元一個月的ChatGPT Plus,提供高峰時期的訪問、更快的響應(yīng)速度以及新功能和改進的搶先體驗。
結(jié)語
總的來說,ChatGPT這類AGI作為元宇宙之后的又一大風口,激發(fā)了一股初創(chuàng)公司入局LLM的熱潮。但從客觀來看,對于這些初創(chuàng)公司來說,他們打從一開始根本不需要考慮市場風險,比如這會不會是個偽需求。他們更應(yīng)該擔心的應(yīng)該是技術(shù)風險,也就是究竟有沒有這個實力和資本去打造一個可用的LLM。
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。
舉報投訴
-
ChatGPT
+關(guān)注
關(guān)注
31文章
1598瀏覽量
10207 -
LLM
+關(guān)注
關(guān)注
1文章
346瀏覽量
1309
發(fā)布評論請先 登錄
相關(guān)推薦
熱點推薦
新品 | LLM-8850 Kit,高性能AI加速卡套件 DinMeter v1.1,1/32DIN標準嵌入式開發(fā)板
LLM-8850KitLLM-8850Kit是一款面向邊緣AI與嵌入式計算場景的高性能AI加速卡套件,由LLM-8850CardAI加速卡與LLM-8850PiHat轉(zhuǎn)接板組成。核心加速卡
【CIE全國RISC-V創(chuàng)新應(yīng)用大賽】+ 一種基于LLM的可通過圖像語音控制的元件庫管理工具
成本下長時間的維持運營一個良好的庫存環(huán)境。本項目實現(xiàn)了多模態(tài)同步,在項目中聯(lián)合調(diào)用了CV(OCR),ASR,LLM。
主要功能構(gòu)想
? 1.實現(xiàn)用戶將采購單或元器件標簽或元器件(下文稱輸入資料)放置或
發(fā)表于 11-12 19:32
NVIDIA TensorRT LLM 1.0推理框架正式上線
TensorRT LLM 作為 NVIDIA 為大規(guī)模 LLM 推理打造的推理框架,核心目標是突破 NVIDIA 平臺上的推理性能瓶頸。為實現(xiàn)這一目標,其構(gòu)建了多維度的核心實現(xiàn)路徑:一方面,針對需
TensorRT-LLM的大規(guī)模專家并行架構(gòu)設(shè)計
之前文章已介紹引入大規(guī)模 EP 的初衷,本篇將繼續(xù)深入介紹 TensorRT-LLM 的大規(guī)模專家并行架構(gòu)設(shè)計與創(chuàng)新實現(xiàn)。
DeepSeek R1 MTP在TensorRT-LLM中的實現(xiàn)與優(yōu)化
TensorRT-LLM 在 NVIDIA Blackwell GPU 上創(chuàng)下了 DeepSeek-R1 推理性能的世界紀錄,Multi-Token Prediction (MTP) 實現(xiàn)了大幅提速
如何在魔搭社區(qū)使用TensorRT-LLM加速優(yōu)化Qwen3系列模型推理部署
TensorRT-LLM 作為 NVIDIA 專為 LLM 推理部署加速優(yōu)化的開源庫,可幫助開發(fā)者快速利用最新 LLM 完成應(yīng)用原型驗證與產(chǎn)品部署。
使用 llm-agent-rag-llamaindex 筆記本時收到的 NPU 錯誤怎么解決?
使用 conda create -n ov-nb-demos python=3.11 創(chuàng)建運行 llm-agent-rag-llamaindex notebook 的環(huán)境。
執(zhí)行“創(chuàng)建
發(fā)表于 06-23 06:26
使用NVIDIA Triton和TensorRT-LLM部署TTS應(yīng)用的最佳實踐
針對基于 Diffusion 和 LLM 類別的 TTS 模型,NVIDIA Triton 和 TensorRT-LLM 方案能顯著提升推理速度。在單張 NVIDIA Ada Lovelace
LM Studio使用NVIDIA技術(shù)加速LLM性能
隨著 AI 使用場景不斷擴展(從文檔摘要到定制化軟件代理),開發(fā)者和技術(shù)愛好者正在尋求以更 快、更靈活的方式來運行大語言模型(LLM)。
小白學(xué)大模型:從零實現(xiàn) LLM語言模型
在當今人工智能領(lǐng)域,大型語言模型(LLM)的開發(fā)已經(jīng)成為一個熱門話題。這些模型通過學(xué)習(xí)大量的文本數(shù)據(jù),能夠生成自然語言文本,完成各種復(fù)雜的任務(wù),如寫作、翻譯、問答等。https
詳解 LLM 推理模型的現(xiàn)狀
2025年,如何提升大型語言模型(LLM)的推理能力成了最熱門的話題之一,大量優(yōu)化推理能力的新策略開始出現(xiàn),包括擴展推理時間計算、運用強化學(xué)習(xí)、開展監(jiān)督微調(diào)和進行提煉等。本文將深入探討LLM推理優(yōu)化
樹莓派秒變編程助手:Ollama+Continue的簡易搭建教程!
以下是如何在RaspberryPi上運行大型語言模型(LLM)的方法。本文的目標是找出在RaspberryPi上運行LLM是否是ChatGPT和GitHubCopilot等工具的合理替代方案。您可
無法在OVMS上運行來自Meta的大型語言模型 (LLM),為什么?
無法在 OVMS 上運行來自 Meta 的大型語言模型 (LLM),例如 LLaMa2。
從 OVMS GitHub* 存儲庫運行 llama_chat Python* Demo 時遇到錯誤。
發(fā)表于 03-05 08:07
OpenAI嘗試減少對ChatGPT的審查
,這一政策的實施將使得ChatGPT能夠回答更多的問題,提供更多的視角。在過去,由于審查機制的存在,ChatGPT對于一些敏感或爭議性話題往往保持沉默,不愿過多涉及。然而,隨著新政策的推行,ChatGPT將逐漸減少對這類話題的回
LLM風口背后,ChatGPT的成本問題
評論