国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

微軟正式發(fā)布一個(gè)27億參數(shù)的語言模型—Phi-2

AI科技大本營 ? 來源:CSDN ? 2023-12-14 15:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

先后和 OpenAI、Meta 牽手推動(dòng)大模型發(fā)展的微軟,也正在加快自家小模型的迭代。就在今天,微軟正式發(fā)布了一個(gè) 27 億參數(shù)的語言模型——Phi-2。這是一種文本到文本的人工智能程序,具有出色的推理和語言理解能力。

同時(shí),微軟研究院也在官方 X 平臺(tái)上如是說道,“Phi-2 的性能優(yōu)于其他現(xiàn)有的小型語言模型,但它足夠小,可以在筆記本電腦或者移動(dòng)設(shè)備上運(yùn)行”

Phi-2 的性能真能優(yōu)于大它 25 倍的模型?

對(duì)于Phi-2 的發(fā)布,微軟研究院在官方公告的伊始便直言,Phi-2 的性能可與大它 25 倍的模型相匹配或優(yōu)于。

這也讓人有些尷尬的事,不少網(wǎng)友評(píng)價(jià)道,這豈不是直接把 Google 剛發(fā)的 Gemini 最小型號(hào)的版本給輕松超越了?

9143919c-9a54-11ee-8b88-92fbcf53809c.png

那具體情況到底如何?

微軟通過時(shí)下一些如 Big Bench Hard (BBH)、常識(shí)推理(PIQA、WinoGrande、ARC easy 和 Challenge、SIQA)、語言理解(HellaSwag、OpenBookQA、MMLU(5-shot)、 SQuADv2、BoolQ)、數(shù)學(xué)(GSM8k)和編碼(HumanEval)等基準(zhǔn)測(cè)試,將 Phi-2 與 7B 和 13B 參數(shù)的 Mistral 和 Llama-2 進(jìn)行了比較。

最終得出僅擁有 27 億個(gè)參數(shù)的 Phi-2 ,超越了 Mistral 7B 和 Llama-2 7B 以及 13B 模型的性能。值得注意的是,與大它 25 倍的 Llama-2-70B 模型相比,Phi-2 還在多步推理任務(wù)(即編碼和數(shù)學(xué))上實(shí)現(xiàn)了更好的性能。

914e0758-9a54-11ee-8b88-92fbcf53809c.png

此外,如上文所提及的,微軟研究人員也直接在基準(zhǔn)測(cè)試中放上了其與Google 全新發(fā)布的 Gemini Nano 2 正面PK 的結(jié)果,不出所料,Phi-2盡管尺寸較小,但性能還是把Gemini Nano 2 超了。

91580fa0-9a54-11ee-8b88-92fbcf53809c.png

除了這些基準(zhǔn)之外,研究人員似是在暗諷 Google 前幾日在Gemini 演示視頻中造假一事,因?yàn)楫?dāng)時(shí) Google 稱其即將推出的最大、最強(qiáng)大的新人工智能模型 Gemini Ultra 能夠解決相當(dāng)復(fù)雜的物理問題,并且甚至糾正學(xué)生的錯(cuò)誤。

事實(shí)證明,盡管 Phi-2 的大小可能只是 Gemini Ultra 的一小部分,但它也能夠正確回答問題并使用相同的提示糾正學(xué)生。

9163d164-9a54-11ee-8b88-92fbcf53809c.png

微軟的改進(jìn)

Phi-2 小模型之所以有如此亮眼的成績,微軟研究院在博客中解釋了原因。

一是提升訓(xùn)練數(shù)據(jù)的質(zhì)量。Phi-2 是一個(gè)基于 Transformer 的模型,其目標(biāo)是預(yù)測(cè)下一個(gè)單詞,它在 1.4T 個(gè)詞組上進(jìn)行了訓(xùn)練,這些詞組來自 NLP 和編碼的合成數(shù)據(jù)集和網(wǎng)絡(luò)數(shù)據(jù)集,包括科學(xué)、日常活動(dòng)和心理理論等用于教授模型常識(shí)和推理的內(nèi)容。Phi-2 的訓(xùn)練是在 96 個(gè) A100 GPU 上耗時(shí) 14 天完成的。

其次,微軟使用創(chuàng)新技術(shù)進(jìn)行擴(kuò)展,將其知識(shí)嵌入到 27 億參數(shù) Phi-2 中。

微軟指出,Phi-2 是一個(gè)基礎(chǔ)模型,沒有通過人類反饋強(qiáng)化學(xué)習(xí)(RLHF)進(jìn)行調(diào)整,也沒有經(jīng)過指導(dǎo)性微調(diào)。盡管如此,與經(jīng)過對(duì)齊的現(xiàn)有開源模型相比,微軟觀察到在毒性和偏差方面,Phi-2 有更好的表現(xiàn)。

917381cc-9a54-11ee-8b88-92fbcf53809c.png

寫在最后

話說 Phi-2 的發(fā)布的確在小模型的性能上實(shí)現(xiàn)了突破,不過也有媒體發(fā)現(xiàn)它還存在很大的局限性。

因?yàn)楦鶕?jù)微軟研究許可證顯示,其規(guī)定了 Phi -2 只能用于“非商業(yè)、非創(chuàng)收、研究目的”,而不是商業(yè)用途。因此,想要在其之上構(gòu)建產(chǎn)品的企業(yè)就不走運(yùn)了。






審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3953

    瀏覽量

    142660
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1245

    瀏覽量

    10078
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3650

    瀏覽量

    5188

原文標(biāo)題:只有 27 億參數(shù),微軟發(fā)布全新 Phi-2 模型!

文章出處:【微信號(hào):AI科技大本營,微信公眾號(hào):AI科技大本營】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    什么是大模型,智能體...?大模型100問,快速全面了解!

    、概念篇1.什么是大模型?大模型是指參數(shù)規(guī)模巨大(通常達(dá)到數(shù)十億甚至萬億級(jí)別)、使用海量數(shù)據(jù)訓(xùn)練而成的人工智能模型
    的頭像 發(fā)表于 02-02 16:36 ?902次閱讀
    什么是大<b class='flag-5'>模型</b>,智能體...?大<b class='flag-5'>模型</b>100問,快速全面了解!

    谷歌正式發(fā)布Gemma Scope 2模型

    語言模型 (LLM) 具備令人驚嘆的推理能力,但其內(nèi)部決策過程在很大程度上仍然不透明。如果系統(tǒng)未按預(yù)期運(yùn)行,對(duì)其內(nèi)部運(yùn)作機(jī)制缺乏可見性將難以準(zhǔn)確定位問題根源。過去,我們通過發(fā)布 Gemma
    的頭像 發(fā)表于 01-24 14:01 ?530次閱讀

    谷歌與耶魯大學(xué)合作發(fā)布最新C2S-Scale 27B模型

    我們很榮幸發(fā)布與耶魯大學(xué)合作研究的 Cell2Sentence-Scale 27B (C2S-Scale),這是
    的頭像 發(fā)表于 11-06 10:35 ?857次閱讀

    米爾RK3576部署端側(cè)多模態(tài)多輪對(duì)話,6TOPS算力驅(qū)動(dòng)30參數(shù)LLM

    通過硬件算力優(yōu)化與軟件棧協(xié)同,將視覺編碼、語言推理、對(duì)話管理三大核心能力封裝為可落地的工程方案,而本文將聚焦其多輪對(duì)話的部署全流程,拆解從模型加載到交互推理的每一個(gè)關(guān)鍵環(huán)節(jié)。 RK3576 多輪對(duì)
    發(fā)表于 09-05 17:25

    3萬字長文!深度解析大語言模型LLM原理

    繼續(xù)追本溯源,與騰訊學(xué)堂合作撰寫本文,嘗試讓人人都能懂大語言模型的基礎(chǔ)原理。1、大語言模型簡述截止到2025年“大模型
    的頭像 發(fā)表于 09-02 13:34 ?3461次閱讀
    3萬字長文!深度解析大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>LLM原理

    OpenAI發(fā)布2款開源模型

    OpenAI開源了兩款高性能權(quán)重語言模型gpt-oss-120b和gpt-oss-20b,OpenAI CEO Sam Altman表示:「gpt-oss 發(fā)布了!我們做了
    的頭像 發(fā)表于 08-06 14:25 ?1030次閱讀

    萬億參數(shù)!元腦企智體機(jī)率先支持Kimi K2模型

    北京2025年7月21日 /美通社/ --?浪潮信息宣布元腦企智體機(jī)已率先完成對(duì)Kimi K2 萬億參數(shù)模型的適配支持,并實(shí)現(xiàn)單用戶70 tokens/s的流暢輸出速度,為企業(yè)客戶
    的頭像 發(fā)表于 07-22 09:27 ?562次閱讀
    萬億<b class='flag-5'>參數(shù)</b>!元腦企智<b class='flag-5'>一</b>體機(jī)率先支持Kimi K<b class='flag-5'>2</b>大<b class='flag-5'>模型</b>

    【VisionFive 2單板計(jì)算機(jī)試用體驗(yàn)】3、開源大語言模型部署

    的表現(xiàn):這個(gè)參數(shù)量的表現(xiàn)只能說般。“聽蛙飛”,青蛙怎么會(huì)飛呢。 visionfive2的表現(xiàn): 執(zhí)行 ./ollama ps 可以看到當(dāng)前正在運(yùn)行的大模型,以及運(yùn)行方式:CPU。
    發(fā)表于 07-19 15:45

    日本航空攜手微軟率先將AI應(yīng)用引入客艙管理

    日本航空(JAL)攜手微軟,率先將AI應(yīng)用引I入客艙管理。通過基于微軟Phi-4小型語言模型(SLM)開發(fā)的JAL-AI報(bào)告系統(tǒng),空乘人員報(bào)
    的頭像 發(fā)表于 07-18 11:12 ?1406次閱讀

    Microchip AT27LV256A-90JU 可編程只讀存儲(chǔ)器(OTP EPROM)參數(shù)特性 EDA模型與數(shù)據(jù)手冊(cè)下載

    Microchip AT27LV256A-90JU 參數(shù)特性 EDA模型與數(shù)據(jù)手冊(cè)下載
    的頭像 發(fā)表于 05-30 14:54 ?1176次閱讀
    Microchip AT<b class='flag-5'>27</b>LV256A-90JU 可編程只讀存儲(chǔ)器(OTP EPROM)<b class='flag-5'>參數(shù)</b>特性  EDA<b class='flag-5'>模型</b>與數(shù)據(jù)手冊(cè)下載

    華為助力中國石油發(fā)布3000參數(shù)昆侖大模型

    5月28日,中國石油發(fā)布3000參數(shù)昆侖大模型,標(biāo)志著中國石油在人工智能領(lǐng)域又邁出關(guān)鍵步,全力推動(dòng)“人工智能+”行動(dòng)走深走實(shí)。 ? 中國
    的頭像 發(fā)表于 05-29 09:19 ?1099次閱讀
    華為助力中國石油<b class='flag-5'>發(fā)布</b>3000<b class='flag-5'>億</b><b class='flag-5'>參數(shù)</b>昆侖大<b class='flag-5'>模型</b>

    NVIDIA使用Qwen3系列模型的最佳實(shí)踐

    阿里巴巴近期發(fā)布了其開源的混合推理大語言模型 (LLM) 通義千問 Qwen3,此次 Qwen3 開源模型系列包含兩款混合專家模型 (MoE
    的頭像 發(fā)表于 05-08 11:45 ?2997次閱讀
    NVIDIA使用Qwen3系列<b class='flag-5'>模型</b>的最佳實(shí)踐

    小白學(xué)大模型:從零實(shí)現(xiàn) LLM語言模型

    在當(dāng)今人工智能領(lǐng)域,大型語言模型(LLM)的開發(fā)已經(jīng)成為個(gè)熱門話題。這些模型通過學(xué)習(xí)大量的文本數(shù)據(jù),能夠生成自然
    的頭像 發(fā)表于 04-30 18:34 ?1316次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:從零實(shí)現(xiàn) LLM<b class='flag-5'>語言</b><b class='flag-5'>模型</b>

    小身板大能量:樹莓派玩轉(zhuǎn) Phi-2、Mistral 和 LLaVA 等AI大模型~

    你是否想過在自己的設(shè)備上運(yùn)行自己的大型語言模型(LLMs)或視覺語言模型(VLMs)?你可能有過這樣的想法,但是想到要從頭開始設(shè)置、管理環(huán)
    的頭像 發(fā)表于 03-25 09:32 ?943次閱讀
    小身板大能量:樹莓派玩轉(zhuǎn) <b class='flag-5'>Phi-2</b>、Mistral 和 LLaVA 等AI大<b class='flag-5'>模型</b>~

    ?VLM(視覺語言模型)?詳細(xì)解析

    視覺語言模型(Visual Language Model, VLM)是種結(jié)合視覺(圖像/視頻)和語言(文本)處理能力的多模態(tài)人工智能模型
    的頭像 發(fā)表于 03-17 15:32 ?8857次閱讀
    ?VLM(視覺<b class='flag-5'>語言</b><b class='flag-5'>模型</b>)?詳細(xì)解析