国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

新火種AI|2024乍到,會成為小模型的當打之年嗎?

新火種 ? 來源:新火種 ? 作者:新火種 ? 2024-01-10 22:27 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群


作者:小巖

編輯:美美

乘著ChatGPT爆火的東風,2023年成為了當之無愧的“大模型爆發(fā)之年”。跟隨ChatGPT的腳步,諸多大廠和知名企業(yè)推出了自己的AI大模型。也正因此,大模型賽道的競爭變得異常激烈,燒錢的勢頭也變得異常兇猛。

不過,這樣的趨勢很可能在2024年產生變化。每個事物的發(fā)展都要經歷“產生,發(fā)展,高潮,低谷”的階段,已經在2023年大放異彩,涌現無數高光時刻的大模型很可能在2024年漸漸冷卻,褪掉光環(huán),而小模型,則有可能成為今年的破局之道。

“大模型雖然亮眼,但企業(yè)對這些技術的采用幾乎沒有實質性的增長”。

眾所周知,在高新技術和燒錢測試的加持下,大模型產品的表現變得十分突出,整個賽道也卷的出奇。但可惜的是,這些花大力氣砸出來的優(yōu)秀大模型產品很難成功變現。

根據印度IT巨頭Infosys的最新發(fā)現,只有6 %的歐洲公司通過生成式AI用例創(chuàng)造了商業(yè)價值。麥肯錫也在2023年的一份報告中得出結論,“盡管生成式AI的使用可能會刺激其他人工智能工具的采用,但我們認為,企業(yè)對這些技術的采用幾乎沒有實質性的增長。”

而資本市場對于大模型AI的態(tài)度也不樂觀。從融資規(guī)模來看,生成式AI的投資浪潮是一次“短暫繁榮”,盡管頭部以及率先搶占先機的AI公司獲得了不少資本的青睞,但后續(xù)的AI公司如果想要收獲資金,并不容易。根據Crunchbase數據顯示,2023 年,人工智能獨角獸公司的融資大幅下降,僅為 2021 年市場高峰時的25 %左右;全球最活躍的9大 VC 在AI獨角獸公司的投資也是大幅下降。

究其原因,這并不難理解。潮水退去,方知誰在裸泳。投資者都是趨利避害的,自然想看到自己投資的AI公司產出盡可能多的利潤。在這種情況下,針對AI的投資泡沫會越來越少,據此,AI公司試錯的成本將大大提高。

大模型發(fā)展即將受阻,小模型能否順勢而為,迎來自己的井噴元年?

在這種情況下,AI模型需要朝著效率更高,成本更低的方向去發(fā)展。從這個角度去說,小模型很可能比大模型更實用,更方便。

Snorkel AI曾做過一個試驗,分別用GPT-3微調和自己搭建的小模型來訓練一個法律領域的垂直模型。GPT-3的微調和搭建成本是7418美元,10000推理的花費是173美元,而自己搭建的小模型成本僅為1915美元,10000次推理也只是花費了0.26美元。從正確率來看,GPT-3微調的垂直模型正確率為71.4 %,小模型則為71.3 %。

值得一提的是,GPT-3的參數量很大,是小模型的1400倍。我們當然不能因為GPT-3微調的正確率與小模型的正確率相似就妄下結論,認為“參數量沒用”。不過,這或許就是“殺雞焉用牛刀”的道理,就像《華爾街日報》提到的那句玩笑,用GPT-4總結電子郵件就像“讓蘭博基尼送披薩”。畢竟,在很多場景下,用戶需要的并沒有那么多。

目前,國內的AI領域也在面臨相同的狀況。

如今,國內已經發(fā)布的所謂“大模型”超過200個,“百模大戰(zhàn)”進行的如火如荼。而處于頭部的幾個大模型都曾宣稱自己的參數規(guī)模超千億級別,有的甚至達到了萬億的規(guī)模。

但規(guī)模只要夠大,就一定夠好嗎?未必。百度的李彥宏曾經說過,“100多個大模型浪費社會資源……尤其在中國算力還受限制情況下,企業(yè)應該去探索各行各業(yè)的應用結合,全新的 APP產品可能性等。”

事實上,與李彥宏持有相同觀點的人并不在少數。相較于要把AI模型的規(guī)模不斷做大這件事,大家更應該關注如何將模型更好的應用到實處。不是大模型做不起,而是小模型更具性價比。

做小模型的本質,其實是在做離用戶更近的模型。

更重要的是,從某種層面來說,更好操作,更低成本的小模型或許更能匹配C端用戶的核心訴求。

大模型看似高大上,但卻存在成本高,個性化不足的問題。如果大模型可以變小,甚至直接走進移動端,將模型塞進手機,智能汽車,機器人等設備,那么一定會大大提高C端用戶的黏著度。特別是從創(chuàng)業(yè)角度來看,搭建離用戶更近的模型自然也更有生存空間,因為他們離用戶更近。

事實上,很多企業(yè)已經將這樣的策略提上了日程。有媒體報道,早在2022年初,阿里巴巴達摩院,上海浙江大學高等研究院,以及上海人工智能實驗室的聯(lián)合研究團隊通過蒸餾壓縮和參數共享等技術手段,將3.4億參數的M6模型壓縮到了百萬參數,其規(guī)模只有以大模型的三十分之一,卻保留了大模型90 %以上的性能。當然,2022年的3.4億,較今天的大模型規(guī)模來看不算太大,但這個舉動無疑為“大規(guī)模瘦身”開了一個好頭。

2023年初,關于AI大模型的競爭逐漸激烈,局面逐漸焦灼,最終演變成了一場聲勢浩大的模型競賽。如今,潮水褪去,在耗費了大量金錢,人力,時間成本之后,愈來愈多的AI公司悟出了一個道理:如何“變大”并不是關鍵,關鍵在于要如何“既大又好”,更重要的是,當大模型進入應用環(huán)節(jié),如何該做到“以小馭大。

如同區(qū)塊鏈行業(yè)一樣,野蠻生長之后勢必會迎來監(jiān)管的壓力,AI也將面臨同樣的狀況。如今,隨著AI影響力的增強,相關的問題也開始凸顯譬如Midjourney + Elevenlabs 生成的假新聞就引起過極大的影響。

此外,AI大模型的推進將消耗掉大量的資源。有新聞報道,到2027年,全球的AI需求可能會消耗掉66億立方米的水資源,幾乎相當于美國華盛頓州全年的取水量。AI對環(huán)境和能源可能造成的影響會對AI行業(yè)造成一定的經濟壓力和政治壓力。到了那時,如何用更少的數據,更少的能源訓練出更好用的模型,就成為了未來的重中之重。

審核編輯 黃宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    91

    文章

    39795

    瀏覽量

    301456
  • 人工智能
    +關注

    關注

    1817

    文章

    50099

    瀏覽量

    265444
  • ChatGPT
    +關注

    關注

    31

    文章

    1598

    瀏覽量

    10275
  • 大模型
    +關注

    關注

    2

    文章

    3650

    瀏覽量

    5189
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    模型 ai coding 比較

    序 我主要用途是 ai coding,從各種渠道獲取到了很多 不同的大模型排序 最多的是 opus 4.6 > k2.5 > glm5 >
    發(fā)表于 02-19 13:43

    使用NORDIC AI的好處

    不依賴持續(xù)聯(lián)網,整體系統(tǒng)可靠性更高。[Edge AI 概述; Nordic Edge AI 技術頁] 覆蓋從“小 MCU”“高性能 SoC”的完整產品線 Neuton 模型 :超
    發(fā)表于 01-31 23:16

    端側大模型上車:從“語音助手”“車內 AI 智能體”的躍遷革命

    2025年,智能汽車的座艙不再只是“語音助手”的舞臺,而是一個搭載生成式AI和大語言模型(LLM)的智能體。從云端示范車內落地,這一跨越不僅改變了人機交互的邊界,更重構了汽車作為“第三
    的頭像 發(fā)表于 01-13 09:10 ?478次閱讀

    基于ETAS嵌入式AI工具鏈將機器學習模型部署量產ECU

    AI在汽車行業(yè)的應用日益深化,如何將機器學習領域的先進模型(如虛擬傳感器)集成ECU軟件中,已成為業(yè)界面臨的核心挑戰(zhàn)。
    的頭像 發(fā)表于 12-24 10:55 ?6112次閱讀
    基于ETAS嵌入式<b class='flag-5'>AI</b>工具鏈將機器學習<b class='flag-5'>模型</b>部署<b class='flag-5'>到</b>量產ECU

    AI模型的配置AI模型該怎么做?

    STM32可以跑AI,這個AI模型怎么搞,知識盲區(qū)
    發(fā)表于 10-14 07:14

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片AGI芯片

    、現階段更智能、更接近AGI的6中算法與模型 1、MoE模型 MoE模型作為Transfomer模型的后繼者,代表著AI技術的一項重大創(chuàng)新和
    發(fā)表于 09-18 15:31

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+可期之變:從AI硬件AI濕件

    的不同。隨著AI熱潮的興起,大腦的抽象模型已被提煉成各種的AI算法,并使用半導體芯片技術加以實現。 而大腦是一個由無數神經元通過突觸連接而成的復雜網絡,是極其復雜和精密的。大腦在本質上就是一臺濕潤的軟組織
    發(fā)表于 09-06 19:12

    模型時代的能源等式如何平衡

    AI的盡頭是電力?”正當AI模型的發(fā)展如火如荼之際,不少行業(yè)里的當紅玩家們發(fā)出了這一靈魂叩問。
    的頭像 發(fā)表于 08-12 17:05 ?1210次閱讀

    最新人工智能硬件培訓AI 基礎入門學習課程參考2025版(大模型篇)

    在人工智能大模型重塑教育與社會發(fā)展的當下,無論是探索未來職業(yè)方向,還是更新技術儲備,掌握大模型知識都已成為新時代的必修課。從職場上輔助工作的智能助手,
    發(fā)表于 07-04 11:10

    如何賦能醫(yī)療AI模型應用?

    “百模大戰(zhàn)”。不僅如此,這些通用AI模型還逐漸滲透各個垂直行業(yè)中,其中生命科學和醫(yī)療健康行業(yè)成為了拓展速度較快的一個領域。從2023年2月至10月初,國內市場上
    的頭像 發(fā)表于 05-07 09:36 ?692次閱讀
    如何賦能醫(yī)療<b class='flag-5'>AI</b>大<b class='flag-5'>模型</b>應用?

    【「零基礎開發(fā)AI Agent」閱讀體驗】+ 入門篇學習

    很高興又有機會學習ai技術,這次試讀的是「零基礎開發(fā)AI Agent」,作者葉濤、管鍇、張心雨。 大模型的普及是近三年來的一件大事,萬物皆可大模型
    發(fā)表于 05-02 09:26

    首創(chuàng)開源架構,天璣AI開發(fā)套件讓端側AI模型接入得心應手

    AI的演進正在逼近“終端智能涌現”的拐點,從通用模型向場景落地遷移成為關鍵議題。聯(lián)發(fā)科以“AI隨芯,應用無界”為主題召開天璣開發(fā)者大會2025(MDDC 2025),不僅聚合了全球生態(tài)
    發(fā)表于 04-13 19:52

    AI模型端側部署正當時:移遠端側AI模型解決方案,激活場景智能新范式

    AI技術飛速發(fā)展的當下,AI模型的應用正從云端向端側加速滲透。 作為全球領先的物聯(lián)網整體解決方案供應商,移遠通信憑借深厚的技術積累與前瞻性的戰(zhàn)略布局,在
    發(fā)表于 03-27 11:26 ?582次閱讀
    <b class='flag-5'>AI</b>大<b class='flag-5'>模型</b>端側部署正當時:移遠端側<b class='flag-5'>AI</b>大<b class='flag-5'>模型</b>解決方案,激活場景智能新范式

    AI模型端側部署正當時:移遠端側AI模型解決方案,激活場景智能新范式

    AI技術飛速發(fā)展的當下,AI模型的應用正從云端向端側加速滲透。作為全球領先的物聯(lián)網整體解決方案供應商,移遠通信憑借深厚的技術積累與前瞻性的戰(zhàn)略布局,在
    的頭像 發(fā)表于 03-26 19:05 ?1268次閱讀
    <b class='flag-5'>AI</b>大<b class='flag-5'>模型</b>端側部署正當時:移遠端側<b class='flag-5'>AI</b>大<b class='flag-5'>模型</b>解決方案,激活場景智能新范式

    訓練好的ai模型導入cubemx不成功怎么處理?

    訓練好的ai模型導入cubemx不成功咋辦,試了好幾個模型壓縮了也不行,ram占用過大,有無解決方案?
    發(fā)表于 03-11 07:18