今日,微軟發布官方聲明,稱其開發的 Phi-2 2.7B 模型在多項指標上超過了 Google 的 Gemini Nano-2 3.2B 模型。
Microsoft研發的Phi-2 2.7B模型
早前在 IT之家的報道中,微軟在Ignite 2023大會上首次披露了容納27億參數的Phi-2,在性能上較以往型號有明顯進步。
去年六月份,微軟推出了包含13億參數的Phi-1,主要應用于QA 問答、文本處理等領域。該模型使用大量高質量數據進行訓練,在基準測試中的表現甚至超過同類模型十倍以上。
今年九月份,微軟又進一步推出了Phi-1.5版,盡管依舊僅含13億元參數,但已可創作詩歌、電子郵件及故事,甚至可以對大量文本進行總結概括。在常識、語言理解以及推理的基準測試中,該版本的模型在部分領域已經可以媲美甚至超越含有高達100億參數的同類模型。
現如今,Phi-2的出現,使其所包含的參數數量達到驚人的27億,盡管與其他大型語言模型相比仍顯不足,它卻在邏輯推理和系統安全性能上展現出不容忽視的提升。通過適當的調整和定制化,小型的語言模型將成為云和邊緣應用的得力助手。
Google研發的Gemini Nano-2 3.2B模型
針對面向小型設備本地操作設計的Gemini Nano,新升級的2.0版本有著高達32億的參數,預計將首先配置在Pixel 8 Pro手機上。
就錄音功能而言,選擇所需的音頻文件后,用戶只需點擊“文本稿”標簽,再點選上方的“總結”按鈕,該應用便能迅速生成完整的主旨簡報。
而在用戶最為依賴的Gboard輸入法中,Gemini Nano的加入將極大程度提高交互的自然度,未來包括WhatsApp在內的眾多應用將會逐步引入這一更加人性化的功能。
-
微軟
+關注
關注
4文章
6741瀏覽量
107893 -
模型
+關注
關注
1文章
3756瀏覽量
52127 -
語言模型
+關注
關注
0文章
572瀏覽量
11323
發布評論請先 登錄
SGM8255B-2:高性能運算放大器的卓越之選
高性能射頻放大器TRF1305B2:特性、應用與設計要點
TSB82AA2B 1394b OHCI-Lynx 控制器:設計與應用詳解
深度剖析TSB82AA2B 1394b OHCI-Lynx控制器:特性、應用與設計要點
具有載波聚合的 RX 分集 FEM(B26、B8、B12/13、B2/25、B4 和 B7) skyworksinc
Sky5? NR MB/HB LNA 前端模塊(B3、B39、B2/25、B34、B1、B66、B40、B30、B41 和 B7) skyworksinc
FD50-18S15B3C2 FD50-18S15B3C2
FD20-36S24B2C5 FD20-36S24B2C5
FD60-36S24B3R2 FD60-36S24B3R2
PFD50-36S24B3R2 PFD50-36S24B3R2
FD50-36S24B3(R)2 FD50-36S24B3(R)2
FD50-18S15B3(C)2 FD50-18S15B3(C)2
FD12-36S24B2C5 FD12-36S24B2C5
PFD12-36S24B2(C)5 PFD12-36S24B2(C)5
FD6-36S24B2C5 FD6-36S24B2C5
微軟Phi-2 2.7B性能領先谷歌Gemini Nano-2 3.2B
評論