国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

擊敗LLaMA?史上最強(qiáng)「獵鷹」排行存疑,符堯7行代碼親測,LeCun轉(zhuǎn)贊

AI智勝未來 ? 來源:新智元 ? 2023-06-09 16:43 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

【導(dǎo)讀】前幾天公布的LLM排行榜引發(fā)業(yè)內(nèi)人士廣泛討論,新模型Falcon在性能上真的能打過LLaMA嗎?符堯?qū)崪y來了!

前段時間,初出茅廬的獵鷹(Falcon)在LLM排行榜碾壓LLaMA,在整個社區(qū)激起千層浪。

但是,獵鷹真的比LLaMA好嗎?

簡短回答:可能不是。

19efeaf0-069d-11ee-962d-dac502259ad0.png

符堯團(tuán)隊(duì)對模型做了更深入的測評:

「我們在MMLU上復(fù)現(xiàn)了LLaMA 65B的評估,得到了61.4的分?jǐn)?shù),接近官方分?jǐn)?shù)(63.4),遠(yuǎn)高于其在Open LLM Leaderboard上的分?jǐn)?shù)(48.8),而且明顯高于獵鷹(52.7)?!?/p>

沒有花哨的提示工程,沒有花哨的解碼,一切都是默認(rèn)設(shè)置。

19ff18c2-069d-11ee-962d-dac502259ad0.png

目前,Github上已經(jīng)公開了代碼和測試方法。

對于獵鷹超越LLaMA存疑,LeCun表態(tài),測試腳本的問題...

1a1bd62e-069d-11ee-962d-dac502259ad0.png

LLaMA真·實(shí)力

目前在OpenLLM排行榜上,F(xiàn)alcon位列第一,超過了LLaMA,得到了包括Thomas Wolf在內(nèi)的研究人員的力薦。

1a426a1e-069d-11ee-962d-dac502259ad0.png

然而,有些人對此表示疑慮。

先是一位網(wǎng)友質(zhì)疑,LLaMA這些數(shù)字從哪來,看起來與論文數(shù)字不一致...

1a7e2be4-069d-11ee-962d-dac502259ad0.png

隨后,OpenAI科學(xué)家Andrej Karpathy也對LLaMA 65B為什么在Open LLM排行榜上的分?jǐn)?shù)明顯低于官方(48.8 v.s. 63.4)表示關(guān)注。

并發(fā)文,到目前為止,我一直避免在推特上發(fā)表關(guān)于獵鷹的文章,因?yàn)檫@一點(diǎn),不確定。

為了弄清楚這個問題,符堯和團(tuán)隊(duì)成員決定對LLaMA 65B進(jìn)行一次公開的測試,結(jié)果得到61.4分。

1a8b56de-069d-11ee-962d-dac502259ad0.png

在測試中,研究者沒有使用任何特殊機(jī)制,LLaMA 65B就能拿到這個分?jǐn)?shù)。

這一結(jié)果恰恰證明了,如果想要模型實(shí)現(xiàn)接近GPT-3.5的水平,最好是在LLaMA 65B上使用RLHF。

根據(jù)就是,近來符堯團(tuán)隊(duì)發(fā)表的一篇Chain-of-Thought Hub論文的發(fā)現(xiàn)。

1ac61ce2-069d-11ee-962d-dac502259ad0.png

當(dāng)然,符堯表示,他們這一測評并非想要引起LLaMA和Falcon之間的爭端,畢竟這些都是偉大的開源模型,都為這個領(lǐng)域做出了重大的貢獻(xiàn)!

另外,F(xiàn)alcon還有更加方便的使用許可,這也讓它有很大的發(fā)展?jié)摿Α?/p>

對于這一最新測評,網(wǎng)友BlancheMinerva指出,公平的比較應(yīng)該在默認(rèn)設(shè)置下運(yùn)行獵鷹(Falcon)在MMLU上。

對此,符堯稱這是正確的,并正進(jìn)行這項(xiàng)工作,預(yù)計(jì)在一天后可以得到結(jié)果。

1ad20016-069d-11ee-962d-dac502259ad0.png

不管最終的結(jié)果怎樣,要知道GPT-4這座山峰才是開源社區(qū)真正想要追求的目標(biāo)。

OpenLLM排行榜問題

來自Meta的研究人員稱贊,符堯很好地再現(xiàn)了LLaMa的結(jié)果,并指出了OpenLLM排行榜的問題。

與此同時,他還分享了關(guān)于OpenLLM排行榜的一些問題。

1b14caa4-069d-11ee-962d-dac502259ad0.png

首先,MMLU的結(jié)果:LLaMa 65B MMLU結(jié)果在排行榜上是15分,但對7B模型來說是一樣的。13B、30B模型也存在較小的性能差距。

OpenLLM真的需要在公布哪個模型是最好的之前看看這個。

1b268e92-069d-11ee-962d-dac502259ad0.png

基準(zhǔn):這些基準(zhǔn)是如何選擇的?

ARC 25 shot和Hellaswag 10 shot似乎與LLM并不特別相關(guān)。如果能在其中加入一些生成式基準(zhǔn)就更好了。雖然生成式基準(zhǔn)有其局限性,但它們?nèi)匀皇怯杏玫摹?/p>

1b4a6f6a-069d-11ee-962d-dac502259ad0.png

單一平均分:將結(jié)果減少到單一分?jǐn)?shù)總是很吸引人的,平均分是最容易的。

但在這種情況下,4個基準(zhǔn)的平均值真的有用嗎?在MMLU上獲得1分和在HellaSwag上獲得1分是一樣的嗎?

在LLM快速迭代的世界里,開發(fā)這樣一個排行榜肯定有一定的價值。

1b574910-069d-11ee-962d-dac502259ad0.png

還有來自谷歌研究人員Lucas Beyer也發(fā)表了自己的觀點(diǎn),

瘋狂的是,NLP研究人員對同一個基準(zhǔn)有不同的理解,因此導(dǎo)致了完全不同的結(jié)果。同時,每當(dāng)我的同事實(shí)現(xiàn)一個指標(biāo)時,我都會立即問他們是否真的檢查將官方代碼的完美重現(xiàn),如果沒有,就放棄他們的結(jié)果。

1b7a43ca-069d-11ee-962d-dac502259ad0.png

另外,他還表示,據(jù)我所知,無論模型如何,它實(shí)際上都不會重現(xiàn)原始基準(zhǔn)測試的結(jié)果。

1b844f0a-069d-11ee-962d-dac502259ad0.png

網(wǎng)友附和道,這就是LLM基準(zhǔn)的現(xiàn)實(shí)...

1bb7ef18-069d-11ee-962d-dac502259ad0.png

Falcon——開源、可商用、性能強(qiáng)

說到Falcon,其實(shí)值得我們再好好回顧一下。

按LeCun的說法,大模型時代,開源最重要。

1be27c1a-069d-11ee-962d-dac502259ad0.png

而在Meta的LLaMA代碼遭泄之后,各路開發(fā)者都開始躍躍欲試。

Falcon正是由阿聯(lián)酋阿布扎比的技術(shù)創(chuàng)新研究所(TII)開發(fā)的一支奇兵。

剛發(fā)布時從性能上看,F(xiàn)alcon比LLaMA的表現(xiàn)更好。

目前,「Falcon」有三個版本——1B、7B和40B。

TII表示,F(xiàn)alcon迄今為止最強(qiáng)大的開源語言模型。其最大的版本,F(xiàn)alcon 40B,擁有400億參數(shù),相對于擁有650億參數(shù)的LLaMA來說,規(guī)模上還是小了一點(diǎn)。

不過,此前TII曾表示,別看咱Falcon規(guī)模雖小,性能卻很能打。

先進(jìn)技術(shù)研究委員會(ATRC)秘書長Faisal Al Bannai認(rèn)為,「Falcon」的發(fā)布將打破LLM的獲取方式,并讓研究人員和創(chuàng)業(yè)者能夠以此提出最具創(chuàng)新性的使用案例。

1c0db22c-069d-11ee-962d-dac502259ad0.png

FalconLM的兩個版本,F(xiàn)alcon 40B Instruct和Falcon 40B在Hugging Face OpenLLM排行榜上位列前兩名,而Meta的LLaMA則位于第三。

而前文所講的有關(guān)排行榜的問題也正是這個。

盡管「Falcon」的論文目前還沒公開發(fā)布,但Falcon 40B已經(jīng)在經(jīng)過精心篩選的1萬億token網(wǎng)絡(luò)數(shù)據(jù)集的上進(jìn)行了大量訓(xùn)練。

研究人員曾透露,「Falcon」在訓(xùn)練過程非常重視在大規(guī)模數(shù)據(jù)上實(shí)現(xiàn)高性能的重要性。

我們都知道的是,LLM對訓(xùn)練數(shù)據(jù)的質(zhì)量非常敏感,這就是為什么研究人員會花大量的精力構(gòu)建一個能夠在數(shù)萬個CPU核心上進(jìn)行高效處理的數(shù)據(jù)管道。

目的就是,在過濾和去重的基礎(chǔ)上從網(wǎng)絡(luò)中提取高質(zhì)量的內(nèi)容。

目前,TII已經(jīng)發(fā)布了精煉的網(wǎng)絡(luò)數(shù)據(jù)集,這是一個經(jīng)過精心過濾和去重的數(shù)據(jù)集。實(shí)踐證明,非常有效。

僅用這個數(shù)據(jù)集訓(xùn)練的模型可以和其它LLM打個平手,甚至在性能上超過他們。這展示出了「Falcon」卓越的質(zhì)量和影響力。

1c1aa720-069d-11ee-962d-dac502259ad0.png

此外,F(xiàn)alcon模型也具有多語言的能力。

它理解英語、德語、西班牙語和法語,并且在荷蘭語、意大利語、羅馬尼亞語、葡萄牙語、捷克語、波蘭語和瑞典語等一些歐洲小語種上也懂得不少。

Falcon 40B還是繼H2O.ai模型發(fā)布后,第二個真正開源的模型。

另外,還有一點(diǎn)非常重要——Falcon是目前唯一的可以免費(fèi)商用的開源模型。

在早期,TII要求,商業(yè)用途使用Falcon,如果產(chǎn)生了超過100萬美元以上的可歸因收入,將會收取10%的「使用稅」。

可是財大氣粗的中東土豪們沒過多長時間就取消了這個限制。

至少到目前為止,所有對Falcon的商業(yè)化使用和微調(diào)都不會收取任何費(fèi)用。

土豪們表示,現(xiàn)在暫時不需要通過這個模型掙錢。

而且,TII還在全球征集商用化方案。

對于有潛力的科研和商業(yè)化方案,他們還會提供更多的「訓(xùn)練算力支持」,或者提供進(jìn)一步的商業(yè)化機(jī)會。

1c5e3bf2-069d-11ee-962d-dac502259ad0.png

這簡直就是在說:只要項(xiàng)目好,模型免費(fèi)用!算力管夠!錢不夠我們還能給你湊!

對于初創(chuàng)企業(yè)來說,這簡直就是來自中東土豪的「AI大模型創(chuàng)業(yè)一站式解決方案」。

根據(jù)開發(fā)團(tuán)隊(duì)稱,F(xiàn)alconLM 競爭優(yōu)勢的一個重要方面是訓(xùn)練數(shù)據(jù)的選擇。

研究團(tuán)隊(duì)開發(fā)了一個從公共爬網(wǎng)數(shù)據(jù)集中提取高質(zhì)量數(shù)據(jù)并刪除重復(fù)數(shù)據(jù)的流程。

在徹底清理多余重復(fù)內(nèi)容后,保留了 5 萬億的token——足以訓(xùn)練強(qiáng)大的語言模型。

40B的Falcon LM使用1萬億個token進(jìn)行訓(xùn)練, 7B版本的模型訓(xùn)練token達(dá)到 1.5 萬億。

1cc787a6-069d-11ee-962d-dac502259ad0.png

(研究團(tuán)隊(duì)的目標(biāo)是使用RefinedWeb數(shù)據(jù)集從Common Crawl中僅過濾出質(zhì)量最高的原始數(shù)據(jù))

此外,F(xiàn)alcon的訓(xùn)練成本相對來說更加可控。

TII稱,與GPT-3相比,F(xiàn)alcon在只使用75%的訓(xùn)練計(jì)算預(yù)算的情況下,就實(shí)現(xiàn)了顯著的性能提升。

1cd32034-069d-11ee-962d-dac502259ad0.png

1cfd8810-069d-11ee-962d-dac502259ad0.png

而且在推斷(Inference)時只需要只需要20%的計(jì)算時間,成功實(shí)現(xiàn)了計(jì)算資源的高效利用。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3752

    瀏覽量

    52111
  • 代碼
    +關(guān)注

    關(guān)注

    30

    文章

    4968

    瀏覽量

    73973
  • GitHub
    +關(guān)注

    關(guān)注

    3

    文章

    488

    瀏覽量

    18671

原文標(biāo)題:擊敗LLaMA?史上最強(qiáng)「獵鷹」排行存疑,符堯7行代碼親測,LeCun轉(zhuǎn)贊

文章出處:【微信號:AI智勝未來,微信公眾號:AI智勝未來】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    小米史上最強(qiáng)年報!單季度千億營收!SU7全年產(chǎn)能已售罄!

    電子發(fā)燒友網(wǎng)報道(文/梁浩斌)如日中天的小米,發(fā)布了史上最強(qiáng)年報! ? 2024年,小米集團(tuán)總收入達(dá)到3659億元,同比增長35%,創(chuàng)下歷史新高。其中第四季度的數(shù)據(jù)更為炸裂,收入1090億元,同比
    的頭像 發(fā)表于 03-20 00:13 ?7892次閱讀
    小米<b class='flag-5'>史上</b><b class='flag-5'>最強(qiáng)</b>年報!單季度千億營收!SU<b class='flag-5'>7</b>全年產(chǎn)能已售罄!

    中微公司尹志榮膺2025福布斯中國終身成就獎與最佳CEO獎

    )董事長兼總經(jīng)理尹志博士榮膺福布斯中國終身成就獎與最佳CEO。這不僅是對一位業(yè)領(lǐng)軍者的堅(jiān)守與創(chuàng)新的認(rèn)可,更是對其企業(yè)家精神與產(chǎn)業(yè)貢獻(xiàn)的高度肯定。
    的頭像 發(fā)表于 02-10 12:41 ?564次閱讀

    深開鴻開源鴻蒙社區(qū)主干代碼貢獻(xiàn)量破650萬

    歷經(jīng)五年發(fā)展,開源鴻蒙已從技術(shù)萌芽成長為萬物智聯(lián)時代的核心數(shù)字底座。秉持開源、共建、共享、共榮的理念,其生態(tài)規(guī)模持續(xù)擴(kuò)張,累計(jì)匯聚超10000名貢獻(xiàn)者、510多家合作伙伴,沉淀1.3億代碼
    的頭像 發(fā)表于 01-07 10:22 ?510次閱讀

    PROFIBUS轉(zhuǎn)RS232協(xié)議轉(zhuǎn)換網(wǎng)關(guān)詳細(xì)解讀,建議點(diǎn)收藏

    ?PROFIBUS轉(zhuǎn)RS232協(xié)議轉(zhuǎn)換網(wǎng)關(guān)詳細(xì)解讀,建議點(diǎn)收藏 ?功能:實(shí)現(xiàn)RS232轉(zhuǎn)PROFIBUS的功能; ?型號為JH-PB-232; ?標(biāo)準(zhǔn)PROFIBUS-DP驅(qū)動接口, 波特率自適應(yīng)
    的頭像 發(fā)表于 12-23 14:09 ?244次閱讀
    PROFIBUS<b class='flag-5'>轉(zhuǎn)</b>RS232協(xié)議轉(zhuǎn)換網(wǎng)關(guān)詳細(xì)解讀,建議點(diǎn)<b class='flag-5'>贊</b>收藏

    PROFIBUS轉(zhuǎn)RS485協(xié)議轉(zhuǎn)換網(wǎng)關(guān)詳解,建議點(diǎn)收藏

    PROFIBUS轉(zhuǎn)RS485協(xié)議轉(zhuǎn)換網(wǎng)關(guān)詳解,建議點(diǎn)收藏 RS485轉(zhuǎn)PROFIBUS總線橋具備廣泛的適用性,可便捷連接各類具備RS485接口且通信協(xié)議開放的現(xiàn)場設(shè)備,實(shí)現(xiàn)其與PROFIBUS主站
    的頭像 發(fā)表于 12-23 13:55 ?302次閱讀
    PROFIBUS<b class='flag-5'>轉(zhuǎn)</b>RS485協(xié)議轉(zhuǎn)換網(wǎng)關(guān)詳解,建議點(diǎn)<b class='flag-5'>贊</b>收藏

    小紅書獲取筆記正文和點(diǎn)數(shù)的API接口

    API訪問步驟、代碼示例和最佳實(shí)踐。 1. API接口介紹 小紅書提供開發(fā)者API,允許授權(quán)用戶訪問平臺數(shù)據(jù)。獲取筆記正文和點(diǎn)數(shù)通常涉及以下步驟: 認(rèn)證 :首先,注冊為小紅書開發(fā)者,獲取API密鑰(API Key)和訪問令牌(Access Token)。這需要在小紅
    的頭像 發(fā)表于 11-18 16:27 ?1106次閱讀
    小紅書獲取筆記正文和點(diǎn)<b class='flag-5'>贊</b>數(shù)的API接口

    EtherNet/IP從站轉(zhuǎn)CC-Link IEFB從站協(xié)議轉(zhuǎn)換網(wǎng)關(guān),建議點(diǎn)收藏

    EtherNet/IP從站轉(zhuǎn)CC-Link IEFB從站協(xié)議轉(zhuǎn)換網(wǎng)關(guān),建議點(diǎn)收藏 一,設(shè)備主要功能 疆鴻智能JH-EIP-CCLKIE型網(wǎng)關(guān)實(shí)現(xiàn)CC-Link IE Field Basic網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-18 15:32 ?403次閱讀
    EtherNet/IP從站<b class='flag-5'>轉(zhuǎn)</b>CC-Link IEFB從站協(xié)議轉(zhuǎn)換網(wǎng)關(guān),建議點(diǎn)<b class='flag-5'>贊</b>收藏

    Profinet轉(zhuǎn)CC-Link IE總線協(xié)議轉(zhuǎn)換網(wǎng)關(guān)建議點(diǎn)收藏

    Profinet轉(zhuǎn)CC-Link IE總線協(xié)議轉(zhuǎn)換網(wǎng)關(guān)建議點(diǎn)收藏 一,主要功能 1、Profinet從轉(zhuǎn)CC-Link IE從工業(yè)級Profinet網(wǎng)關(guān)。?這種網(wǎng)關(guān)設(shè)備允許將Profinet網(wǎng)絡(luò)中
    的頭像 發(fā)表于 11-13 16:32 ?943次閱讀
    Profinet<b class='flag-5'>轉(zhuǎn)</b>CC-Link IE總線協(xié)議轉(zhuǎn)換網(wǎng)關(guān)建議點(diǎn)<b class='flag-5'>贊</b>收藏

    HarmonyOSAI編程智能代碼解讀

    CodeGenie提供智能AI能力對框選的代碼片段進(jìn)行逐條解釋,總結(jié)代碼段含義,幫助開發(fā)者提升閱讀代碼的速度和效率。 選中.ets文件或者.cpp文件中需要被解釋的代碼
    發(fā)表于 09-02 16:29

    HarmonyOS AI輔助編程工具(CodeGenie)代碼智能解讀

    。 選中.ets文件或者.cpp文件中需要被解釋的代碼代碼片段,右鍵選擇CodeGenie > Explain Code,開始解讀當(dāng)前代碼內(nèi)容。 說明 ?最多支持解讀2000
    發(fā)表于 07-17 17:02

    使用 NPU 插件對量化的 Llama 3.1 8b 模型進(jìn)行推理時出現(xiàn)“從 __Int64 轉(zhuǎn)換為無符號 int 的錯誤”,怎么解決?

    安裝了 OpenVINO? GenAI 2024.4。 使用以下命令量化 Llama 3.1 8B 模型: optimum-cli export openvino -m meta-llama
    發(fā)表于 06-25 07:20

    墨芯榮登2025中國IC設(shè)計(jì)Fabless100排行榜之TOP10 AI芯片公司

    國際電子技術(shù)領(lǐng)域頭部媒體AspenCore近日公布了最新2025 China Fabless 100排行榜。墨芯人工智能繼去年成功上榜之后,再次憑借其出色的技術(shù)實(shí)力和市場表現(xiàn),榮膺Top 10 AI芯片公司。
    的頭像 發(fā)表于 03-31 15:18 ?2608次閱讀

    紀(jì)榮登2025中國IC設(shè)計(jì)Fabless100排行榜之TOP10 EDA公司

    近日,由AspenCore 主辦的2025 國際集成電路展覽會暨研討會(IIC Shanghai)重磅揭曉了2025中國IC設(shè)計(jì)Fabless100排行榜,其中芯紀(jì)科技有限公司(以下簡稱“芯紀(jì)
    的頭像 發(fā)表于 03-31 15:15 ?2743次閱讀

    史上最強(qiáng)財報!小米2024年?duì)I收飆漲35%,2025年汽車交付超35萬輛

    3月18日晚間,小米集團(tuán)發(fā)布2024年財報,2024年公司營收達(dá)到3659億元,同比增長35%。全年經(jīng)調(diào)整凈利潤272億元,同比增長41.3%。2024年第四季度營收突破千億,達(dá)到1090億元,同比增長48.8%。智能電動汽車等創(chuàng)新業(yè)務(wù)328億元,雷軍稱這是歷史上最強(qiáng)財報
    的頭像 發(fā)表于 03-19 10:10 ?3838次閱讀
    <b class='flag-5'>史上</b><b class='flag-5'>最強(qiáng)</b>財報!小米2024年?duì)I收飆漲35%,2025年汽車交付超35萬輛

    青島市委書記曾榮一蒞臨中科億海微考察調(diào)研

    、構(gòu)建創(chuàng)新型產(chǎn)業(yè)體系進(jìn)行洽談交流。中科億海微公司總裁魏育成熱情接待了曾榮書記一,并陪同參觀了公司展廳和研發(fā)中心。曾榮書記聽取了魏育成總裁關(guān)于公司歷程、核心技
    的頭像 發(fā)表于 03-12 21:25 ?1110次閱讀
    青島市委書記曾<b class='flag-5'>贊</b>榮一<b class='flag-5'>行</b>蒞臨中科億海微考察調(diào)研