国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

大模型遭遇算力墻,探索超級應用的發展路徑

OSC開源社區 ? 來源:OSC開源社區 ? 2025-02-10 17:24 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

最近,開源中國 OSCHINA、Gitee 與 Gitee AI

90c46f16-e788-11ef-9310-92fbcf53809c.png

全文如下:

大模型撞上 “算力墻”,超級應用的探尋之路

文 / 傅聰

近日,大模型教父 Sam Altman 在 Reddit 上的評論透露出 GPT-5 難產的隱憂,直言有限的算力約束讓 OpenAI 面臨迭代優先級的艱難抉擇,在通往 AGI 的道路上一路高歌猛進的領頭羊似乎撞上了“算力墻”。

除此之外,能耗、資金,難以根除的幻覺,有限的知識更新速率、有限的上下文寬度、高昂的運營成本等等,都讓外界對大模型的發展憂心忡忡。面對棘手的困境與難題,大模型的未來,又該何去何從呢?

下一代 “明星產品”

“算力墻”下,模型效果邊際收益遞減,訓練和運營成本高昂,在這個時間節點,最好的 AI 產品會是什么?奧特曼、蓋茨、小扎、吳恩達、李彥宏等一眾大佬給出了一致的答案 —— 智能體(AI Agent)。

2025,將會是智能體元年。

什么是智能體?目前業界一致認可的公式是“智能體 = LLM + 記憶 + 規劃 + 工具”:

90eefc36-e788-11ef-9310-92fbcf53809c.png

大模型充當智能體的“大腦”,負責對任務進行理解、拆解、規劃,并調用相應工具以完成任務。同時,通過記憶模塊,它還能為用戶提供個性化的服務。

智能體為什么是“算力墻”前 AI 產品的最優解決方案?這一問題的底層邏輯包含兩個方面。

1. LLM 是目前已知最好的智能體底層技術。

智能體作為學術術語由來已久,從上世紀的“符號、專家系統”【1】,到十年前風頭無兩的強化學習(代表作 AlphaGo【3】),再到現在的 LLM,agent 底層技術經歷了三個大的階段。

符號系統的缺點在于過于依賴人工定義的“符號”和“邏輯”,強化學習苦于訓練數據的匱乏和“模態墻”,而 LLM 一次性解決這些問題。

人類語言就是一種高度抽象、跨模態、表達力充分的符號系統,同時它作為知識的載體,自然地存在大量數據可用于訓練,還蘊含了人類的思維模式。

在此基礎上訓練得到的 LLM,自然具備被誘導出類人思考的潛力。在 COT(思維鏈)【4】、TOT(思維樹)【5】等技術的加持下,大模型正在學習拆解自己的“思維”,OpenAI 的 o1 就是典型案例,強化了推理能力的同時,也大大緩解了幻覺問題。

2. 大模型做不到的,“現存工具”強勢補位。

無法持續更新的知識庫,可以通過 RAG(Retrieval Augmented Generation,檢索增強生成)來解決。

RAG 的出現,讓各界越來越深刻地認識到,大模型沒必要存儲那么多知識,只需要如何使用搜索引擎這個外部工具即可。大模型可以在搜索結果上做進一步的信息篩選和優化,而搜索引擎彌補了大模型的知識缺陷,實現了 1+1>=2 的效果。

RAG 可以被理解為智能體的最簡單形式。未來的智能體可以實現多種工具的混合使用,甚至多智能體協作,這不是猜想,我們已經在學術界看到了驚艷的早期方案【6,7】。

“四把鑰匙”解鎖潛力

1. 領域模型小型化、平臺化會成為新趨勢。

“算力墻”是一方面因素,但基座模型的趨同化和運營成本是源動力。GPT、Claude、Gemini 雖然各有所長,但實際體驗越來越讓大家分不出差異,基座模型作為智能體核心,決定了智能體效果下限,人人訓練基座的可能性越來越低,“基座服務化”很可能是最合理的商業模式。

甚至,在錯誤不敏感的應用領域,出現一個開源、無商業限制的基座的可能性也很高。小應用開發商很可能很容易獲得一個低成本 serving 的“量化小基座”。

“7B” 是一個 magic number!無論是 RAG 里的向量表征模型,還是文生圖、文本識別(OCR)、語音合成(TTS)、人臉識別等等垂直領域,一個 1B~7B 的小模型已經可以滿足很多生產、應用需要,并且效果也在逐步推高【8,9,10】。這些模型,作為智能體的“三頭六臂”,不需要太“大”。

同時,從學術角度來講,各種領域專用模型的技術最優解也在逐漸趨同。應用開發者越來越不需要了解模型的底層技術,只需要懂得如何設計自己應用的任務流,懂一點點 COT 系列的 prompt engineering 的技巧,就可以利用 Maas(Model as a service)、Aaas(Agent as a service)這樣的平臺,如玩樂高一般搭建自己的 AI 云原生應用。

2. 算力層深挖定制化、低能耗的可能性,但固化 transformer 可能不是最優解

雖說智能體不需要太大的模型,但其運營成本(模型推理計算成本)仍然較高。在短時間內,算力、能源仍然會是大模型領域令人頭疼的高墻。

根據報告【1】,能源消耗將會是 2030 模型 scaling 最卡脖子的因素。也就是說,在算力到達瓶頸之前,首先可能會出現電能供應不足甚至交不起電費的問題。因此,算力層可以根據大模型底層技術的特性,產出針對性的芯片,尤其是加速運算和降低能耗。這是未來 AI 芯片領域的最優競爭力。

那么,把 transformer “焊死”到板子上就是最佳方案嗎?我知道你很急,但你先別急。大模型底層框架還存在底層路線之爭。

我們知道,Transformer 架構呈現了 O (n2) 的理論計算復雜度,這里的 n 指的是大模型輸入序列的 token 數量,但其前任語言模型擔當 RNN 只有 O (n) 的理論計算復雜度。

最近,以 Mamba、RWKV 為代表的類 RNN 結構死灰復燃,公開挑戰 transformer 地位。更有最新研究【13】從理論上表明,RNN 對比 Transformer 的表達力,只差一個 in-context-retrieval。在這個方向的持續投入下,我們很可能會迎接一個介于 RNN 和 Transformer 之間的“新王”。

90fab940-e788-11ef-9310-92fbcf53809c.png

因此,算力層短時間內的主題仍然是“半通用化”“高算力”“低能耗”。

3. 合成數據驅動新產業鏈

早有機構預測,人類社會可利用訓練數據會在 2026 年耗盡。這可能還是一個樂觀估計。光頭哥 Tibor Blaho 還曾爆料,OpenAI 用于訓練“獵戶座“的數據中,已經包含了由 GPT-4 和 O1 產出的合成數據。

這不僅是因為自然存在的高質量文本的匱乏,還因為智能體所需的數據很可能需要顯式地蘊含任務思考和規劃的拆解信息。然而,針對合成數據的問題,學術界早有預警,模型可能會在合成數據上的持續訓練中崩壞【14】。

9112ce18-e788-11ef-9310-92fbcf53809c.png

這是因為合成數據往往攜帶“錯誤”和“幻覺”,在一些冷門的知識上尤甚。因此,合成數據的實用秘訣是“去粗取精”,需要一定程度的“人機協同”。在如何構造大批量、高質量的合成數據,讓智能體能夠在持續地與用戶的交互中自我優化而不是劣化,將會成為眾多無機器學習技術背景的開發者的頭號難題。

因此,面向數據進行定制化合成、評估、測試、標注、人機協同的“純數據”產業,有可能會走上越來越重要的位置,不僅僅是服務于基座模型廠商。

4. 多模態對齊很可能給基座模型帶來質的提升

最新研究發現,在沒有預先約束和約定下,不同模態領域的最強模型正在向著某個世界模型認知領域收縮【15】,AI 模型對不同概念的數字化表達(向量表征)會逐步趨同,構建對這個世界的統一認知。這也符合我們人類對世界的認知:人類通過語言文字這種符號,將不同模態的信號統一地表達,并在腦中構建了某種受限于當前科技水平的統一模型,這是人類意識、社會溝通的前提。

912a2676-e788-11ef-9310-92fbcf53809c.png

從這個角度理解,多模態大模型很可能是通向真正 AGI 的必經之路。將多模態信號統一對齊,是智能體與這個世界“無障礙”交互的前提,換個新潮的詞匯,就是我們期待的“具身智能”。

誰不想擁有一臺自己專屬的“Javis” 呢?而多模態大模型的突破,也同樣依賴前文所述的算力和數據上的沉淀。

參考文獻 【1】https://epoch.ai/blog/can-ai-scaling-continue-through-2030 【2】Newell, A., & Simon, H. A. (1956). The Logic Theory Machine – A Complex Information Processing System. IRE Transactions on Information Theory, 2(3), 61-79. 【3】Silver, David, et al. "Mastering the game of Go with deep neural networks and tree search." nature 529.7587 (2016): 484-489. 【4】 Wei, Jason, et al. "Chain-of-thought prompting elicits reasoning in large language models." Advances in neural information processing systems 35 (2022): 24824-24837. 【5】Yao, Shunyu, et al. "Tree of thoughts: Deliberate problem solving with large language models." Advances in Neural Information Processing Systems 36 (2024). 【6】Karpas, Ehud, et al. "MRKL Systems: A modular, neuro-symbolic architecture that combines large language models, external knowledge sources and discrete reasoning." arXiv preprint arXiv:2205.00445 (2022). 【7】Schick, Timo, et al. "Toolformer: Language models can teach themselves to use tools." Advances in Neural Information Processing Systems 36 (2024). 【8】https://huggingface.co/spaces/mteb/leaderboard 【9】https://github.com/deep-floyd/IF 【10】https://developer.nvidia.com/blog/pushing-the-boundaries-of-speech-recognition-with-nemo-parakeet-asr-models/ 【11】Mamba:?Linear-time sequence modeling?with?selective state spaces 【12】Peng, Bo, et al. "Rwkv: Reinventing rnns for the transformer era." arXiv preprint arXiv:2305.13048 (2023). 【13】Wen, Kaiyue, Xingyu Dang, and Kaifeng Lyu. "Rnns are not transformers (yet): The key bottleneck on in-context retrieval." arXiv preprint arXiv:2402.18510 (2024). 【14】AI Models Collapse When Trained on Recursively Generated Data’ 【15】The Platonic Representation Hypothesis

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    91

    文章

    39486

    瀏覽量

    300620
  • 大模型
    +關注

    關注

    2

    文章

    3621

    瀏覽量

    5120
  • LLM
    LLM
    +關注

    關注

    1

    文章

    346

    瀏覽量

    1307

原文標題:大模型撞上“算力墻”,超級應用的探尋之路

文章出處:【微信號:OSC開源社區,微信公眾號:OSC開源社區】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    從訓練到推理:大模型需求的新拐點已至

    在大模型產業發展的早期階段,行業焦點主要集中在大模型訓練所需的投入。一個萬億參數大模型的訓練
    的頭像 發表于 02-05 16:07 ?617次閱讀
    從訓練到推理:大<b class='flag-5'>模型</b><b class='flag-5'>算</b><b class='flag-5'>力</b>需求的新拐點已至

    華為榮獲服務商互聯能力成熟度模型參編證書

    在2025互聯網大會期間,互聯網服務論壇在成都成功舉辦。論壇現場舉行了《服務商互聯能
    的頭像 發表于 12-31 11:50 ?611次閱讀

    華為AI WAN解決方案推動互聯網高質量發展

    2025互聯網大會隆重召開。本次大會以“‘蓉’合新智 賦未來”為主題,匯聚行業翹楚共同探討互聯網
    的頭像 發表于 12-25 15:17 ?550次閱讀

    應對端側AI、內存、功耗“三堵墻”困境,安謀科技Arm China “周易”X3給出技術錦囊

    AI大模型正加速從云端向邊緣與端側滲透,然而,、內存、功耗等卻成了制約其規模化落地的“高墻”。專為AI計算而生的神經網絡處理器(NPU),成為破關鍵。安謀科技Arm China“
    的頭像 發表于 12-18 13:45 ?375次閱讀
    應對端側AI<b class='flag-5'>算</b><b class='flag-5'>力</b>、內存、功耗“三堵墻”困境,安謀科技Arm China “周易”X3給出技術錦囊

    湘軍,讓變成生產

    腦極體
    發布于 :2025年11月25日 22:56:58

    存儲超級周期來襲,得瑞領新以PCIe 5.0錨定AI存賽道

    當AI大模型與智產業進入爆發式增長期,存儲作為“釋放的核心基石”,正迎來技術革新與場景適配的雙重變革。得瑞誠邀各界伙伴蒞臨MTS2026,共話AI存儲創新機遇,共探智
    的頭像 發表于 11-24 14:46 ?253次閱讀

    中科曙光亮相2025中國超級大會

    11月8日,第七屆中國超級大會在北京召開。中科曙光作為常務理事成員單位加入“九源智能計算系統生態聯合體”,并攜手中國信通院重磅發布《2025中國
    的頭像 發表于 11-08 16:57 ?3893次閱讀

    硅芯科技:AI突破,新型堆疊EDA工具持續進化

    電子發燒友網報道(文/黃晶晶)先進封裝是突破危機的核心路徑。2.5D/3D Chiplet異構集成可破解內存、功耗與面積
    的頭像 發表于 10-31 09:16 ?1.3w次閱讀
    硅芯科技:AI<b class='flag-5'>算</b><b class='flag-5'>力</b>突破,新型堆疊EDA工具持續進化

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI的未來:提升還是智力

    體現在: 1、收益遞減 大模型的基礎的需要極大的,這首先源于昂貴的高性能AI芯片,然后是寶貴的電力、水等與環境相關的資源。 收益遞減體現在: ①模型大小 ②訓練數據量 ③訓練算法的
    發表于 09-14 14:04

    科技上線赤兔推理引擎服務,創新解鎖FP8大模型

    模型輕量化部署方案。用戶通過遠程平臺預置的模型鏡像與AI工具,僅需50%的GPU即可解
    的頭像 發表于 07-30 21:44 ?864次閱讀

    一文看懂AI集群

    最近這幾年,AI浪潮席卷全球,成為整個社會的關注焦點。大家在討論AI的時候,經常會提到AI集群。AI的三要素,是、算法和數據。而AI
    的頭像 發表于 07-23 12:18 ?1523次閱讀
    一文看懂AI<b class='flag-5'>算</b><b class='flag-5'>力</b>集群

    云XR(AR/VR)底座關鍵特征與技術路徑

    云XR(AR/VR)底座是支撐擴展現實技術規模化落地的核心基礎設施,當前發展呈現以下關鍵特征與技術路徑: 一、
    的頭像 發表于 06-19 08:10 ?659次閱讀
    云XR(AR/VR)<b class='flag-5'>算</b><b class='flag-5'>力</b>底座關鍵特征與技術<b class='flag-5'>路徑</b>

    華為助力湖北移動打造“九州”互聯網區域標桿

    數字經濟時代,是關鍵新質生產,中國移動“九州”互聯網是促進
    的頭像 發表于 05-13 16:11 ?836次閱讀

    芯片的生態突圍與革命

    據的爆發式增長,大芯片已成為科技競爭的核心領域之一。 ? 大芯片的核心應用場景豐富多樣。在人工智能訓練與推理方面,大模型(如 GPT
    的頭像 發表于 04-13 00:02 ?3142次閱讀

    智能最具潛力的行業領域

    智能最具潛力的行業領域 一、金融行業 智能風控與精準服務?:大型銀行通過集群(6.27萬臺服務器)支撐AI模型訓練,實現風險預警、智
    的頭像 發表于 04-11 08:20 ?1331次閱讀
    智能<b class='flag-5'>算</b><b class='flag-5'>力</b>最具潛力的行業領域