国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

1個AI模型=5輛汽車終身碳排量,AI為何如此耗能?

電子設計 ? 來源:電子設計 ? 作者:電子設計 ? 2021-01-21 03:27 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

整理 | 彎月 責編 | 鄭麗媛
出品 | CSDN(ID:CSDNnews)

根據最新的研究結果,訓練一個普通的 AI 模型消耗的能源相當于五輛汽車一生排放的碳總量,而 BERT 模型的碳排放量約為 1400 磅二氧化碳,這相當于一個人來回坐飛機橫穿美國。為何 AI 模型會如此費電,它們與傳統的數據中心計算有何不同?

訓練效率低下

傳統數據中心負責處理的工作包括視頻流,電子郵件和社交媒體。AI 所需的計算量則更多,因為它需要讀取大量的數據、持續學習,直到完成訓練。

與人類的學習方式相比,AI 的訓練效率非常低下。現代 AI 使用人工神經網絡,這是模擬人腦神經元的數學計算。每兩個相鄰神經元的連接強度都是神經網絡上的一個參數,名叫權重。神經網絡的訓練則需要從隨機權重開始,一遍遍地運行和調整參數,直到輸出與正確答案一致為止。

常見的一種訓練語言神經網絡的方法是,從維基百科和新聞媒體網站下載大量文本,然后把一些詞語遮擋起來,并要求 AI 猜測被遮擋起來的詞語。剛開始的時候,AI 會全部搞錯,但是,經過不斷地調整后,AI 會逐漸學習數據中的模式,最終整個神經網絡都會變得非常準確。

相信你聽說過 BERT 模型,基于變換器的雙向編碼器表示技術(Bidirectional Encoder Representations from Transformers,簡稱 BERT),這是一項由 Google 提出的自然語言處理(NLP)的預訓練技術。該模型使用了來自維基百科和其他文章的 33 億個單詞,而且在整個訓練期間,BERT 讀取了該數據集 40 次。相比之下,一個 5 歲的孩子學說話只需要聽到 4500 萬個單詞,比 BERT 少3000倍。

尋找最佳結構

語言模型構建成本如此之高的原因之一在于,在開發模型期間,上述訓練過程需要反復多次。因為研究人員需要將神經網絡調整到最優,即確定神經元的個數、神經元之間的連接數以及各個權重。他們需要反復嘗試很多組合,才能提高神經網絡的準確度。相比之下,人類的大腦不需要尋找最佳結構,經過幾億年的進化,人類大腦已具備這種結構。

隨著各大公司和學術界在 AI 領域的競爭愈演愈烈,不斷提高技術水平的壓力也越來越大。在自動翻譯等難度巨大的任務中,如果能將準確度提高 1%,也將被視為重大的進步,可以作為宣傳產品的籌碼。然而,為了獲得這 1% 的提升,研究人員需要嘗試成千上萬的結構來訓練模型,直到找到最佳模型。

隨著模型不斷發展,模型的復雜度逐年攀高。另一款與 BERT 類似的最新語言模型 GPT-2,其神經網絡包含 15 億個權重。而 GPT-3 由于其高精度,引起了業界的轟動,但其權重高達 1750 億個。

此外,AI 模型的訓練需要在專用硬件(例如圖形處理器)上進行,這些硬件的功耗普遍高于傳統 CPU。如果你的筆記本電腦加載了優質的顯卡,可以玩很多高端游戲,那么你肯定會注意到這臺機器產生的熱量也比普通電腦高很多。

所有這些都表明,開發先進的 AI 模型需要大量的碳排放量。除非我們能夠利用百分百可再生能源,否則真的懷疑 AI 的進步與減少溫室氣體排放以及減緩氣候變化,孰重孰輕?是否真的可以功過相抵?

最后,開發 AI 的耗資如此巨大,能夠承擔得起各項費用的公司與機構實在少之又少,最終究竟應該開發哪種模型的決定權無疑也落到了這群人的手中。

AI 模型訓練應該適可而止

本文并不是要否定人工智能研究的未來,只不過在訓練 AI 模型的時候,我們需要采用更高效的方法,而且應該做到適可而止。

隨著 AI 模型訓練方法的效率提升,相信訓練的成本也會下降。同時,我們需要在訓練模型的成本和使用模型的成本之間權衡取舍。例如,在 AI 模型準確度到達一定高度后,每提升 1% 都需要付出巨大的精力,而實際得到的收益卻很少。不追求極致,更多地使用“適可而止”的模型,不僅可以降低碳排放量,而且也能為我們帶來更大獲益。

審核編輯 黃昊宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4838

    瀏覽量

    107773
  • AI
    AI
    +關注

    關注

    91

    文章

    39793

    瀏覽量

    301414
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    模型 ai coding 比較

    序 我主要用途是 ai coding,從各種渠道獲取到了很多 不同的大模型排序 最多的是 opus 4.6 > k2.5 > glm5 >
    發表于 02-19 13:43

    Transformer 入門:從零理解 AI模型的核心原理

    ReLU 的\"非0即1\"更平滑,有助于模型訓練 第二部分:語言模型基礎概念 什么是 Token(詞元)? Token 是 AI 處理文本的最小單位,可以是一
    發表于 02-10 16:33

    使用NORDIC AI的好處

    × 在 CPU 上運行時可快 10×、更省電,平均模型體積 <5 KB。[Edge AI 軟件頁] Axon NPU 對同一 TensorFlow Lite 模型:* 推理速度
    發表于 01-31 23:16

    政策多次提及,零園區為何如此重要?氫能源如何進入?

    11月10日,《國家發展改革委、國家能源局關于促進新能源消納和調控的指導意見》發布。意見指出,推進零園區建設。 這是2025年國家層面第三次明文支持零園區建設,不難看出國家的支持力度,那么,零園區
    的頭像 發表于 11-12 15:16 ?398次閱讀
    政策多次提及,零<b class='flag-5'>碳</b>園區<b class='flag-5'>為何如此</b>重要?氫能源如何進入?

    AI模型的配置AI模型該怎么做?

    STM32可以跑AI,這個AI模型怎么搞,知識盲區
    發表于 10-14 07:14

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片到AGI芯片

    復制人類智能的AI---AGI。 走向AGI的五層次發現階段: ①L1,聊天機器人:具備基礎的對話能力,能夠理解和回應簡單的文本輸入 ②L2,推理者:具備基本的邏輯推理能力,能夠分析復雜信息并進行推斷
    發表于 09-18 15:31

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI的科學應用

    和關聯性 AI驅動科學:研究和模擬人類思維和認識過程。 本章節作者為我們講解了第五范式,介紹了科學發現的一般方法和流程等。一、科學發現的5范式 第一范式:產生于公元1000年左右的阿拉伯世界和歐洲
    發表于 09-17 11:45

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI的未來:提升算力還是智力

    、浪費資源與破壞環境 二、用小模型代替大模型 1、強化學習 2、指令調整 3、合成數據 三、終身學習與遷移學習 1
    發表于 09-14 14:04

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+可期之變:從AI硬件到AI濕件

    的不同。隨著AI熱潮的興起,大腦的抽象模型已被提煉成各種的AI算法,并使用半導體芯片技術加以實現。 而大腦是一由無數神經元通過突觸連接而成的復雜網絡,是極其復雜和精密的。大腦在本質上
    發表于 09-06 19:12

    關于NanoEdge AI用于n-Class的問題求解

    ,但把模型的靜態庫加到Keil5的工程中編譯后運行在STM32F407G-DISC1的開發板上仿真測試時,我輸入的數據不管怎么變,AI模型
    發表于 08-11 06:44

    【書籍評測活動NO.64】AI芯片,從過去走向未來:《AI芯片:科技探索與AGI愿景》

    創新、應用創新、系統創新五部分,接下來一一解讀。 算法創新 在深度學習AI芯片的創新上,書中圍繞大模型與Transformer算法的算力需求,提出了一系列架構與方法創新,包括存內計算技術、基于開源
    發表于 07-28 13:54

    如何賦能醫療AI模型應用?

    “百模大戰”。不僅如此,這些通用AI模型還逐漸滲透到各個垂直行業中,其中生命科學和醫療健康行業成為了拓展速度較快的一領域。從2023年2月至10月初,國內市場上
    的頭像 發表于 05-07 09:36 ?688次閱讀
    如何賦能醫療<b class='flag-5'>AI</b>大<b class='flag-5'>模型</b>應用?

    【「零基礎開發AI Agent」閱讀體驗】+ 入門篇學習

    的是基礎篇,主要從為什么要學習AI Agent和開發AI Agent的知識儲備入手進行介紹。作為入門AI Agent的小白還是很有必要學習的。這里將一些重要觀點作歸納
    發表于 05-02 09:26

    首創開源架構,天璣AI開發套件讓端側AI模型接入得心應手

    的自有模型移植,使首字詞生態速度比云端方案提升70%,賦能絕影多模態智能座艙強大的端側運行能力,讓汽車擁有“有趣的靈魂”。 不僅如此,天璣AI開發套件已經接入NVIDIA TAO生態
    發表于 04-13 19:52

    訓練好的ai模型導入cubemx不成功怎么處理?

    訓練好的ai模型導入cubemx不成功咋辦,試了好幾個模型壓縮了也不行,ram占用過大,有無解決方案?
    發表于 03-11 07:18