據了解,小米此前并未“官宣”直接加入AI大模型賽道中,但是目前小米的AI大模型 MiLM-6B已經悄然現身C-Eval、CMMLU 大模型評測榜單。并且小米大模型在 C-Eval總榜單排名第 10,同參數量級排名第1。
而從GitHub 項目給出的信息得知,MiLM-6B是由小米公司開發的一個大規模預訓練語言模型,參數規模達64 億。
MiLM-6B模型在具體各科目成績上,在STEM(科學、技術、工程和數學教育)全部20個科目中,計量師、物理、化學、生物等多個項目獲得了較高的準確率。
MiLM-6B 模型目前已經在大多數文科科目中表現出了相對良好的準確度,不過在“法學、數學、編程、概率論、離散數學”等涉及“抽象思維”的科目中,還有一定進步空間wprbsubsqkd。
并且在10個“社會科學”測試科目中,除“教育學和地理”外,該模型在其他8個科目中都獲得了較為理想的準確率。
不僅如此,該模型在人文科學的11個科目中的“歷史與法律”基礎上有著不錯的準確率表現。
以上源自互聯網,版權歸原作所有
審核編輯 黃宇
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。
舉報投訴
-
AI
+關注
關注
91文章
40198瀏覽量
301812 -
小米
+關注
關注
70文章
14541瀏覽量
152333 -
大模型
+關注
關注
2文章
3684瀏覽量
5212
發布評論請先 登錄
相關推薦
熱點推薦
如何在NVIDIA Jetson AGX Thor上部署1200億參數大模型
我們將嘗試能否在 Jetson AGX Thor 上部署并成功運行高達 1,200 億參數量的 gpt-oss-120b 大
輕量級參數的管理框架(C語言)
64bit的參數類型
COT_PARAM_NAME_MAX_LENGTH參數名字最大定義長度,小于或等于1則禁用參數名功能
COT_PARA
發表于 12-16 06:24
米爾RK3576部署端側多模態多輪對話,6TOPS算力驅動30億參數LLM
(LLM Core)
模型選擇:搭載 qwen2.5-vl-3b-w4a16_level1_rk3576.rkllm 模型,采用 W4A16 量化方案(本文)。
模型規模:
發表于 09-05 17:25
華為宣布開源盤古7B稠密和72B混合專家模型
電子發燒友網綜合報道 2025年6月30日,華為正式宣布開源盤古70億參數的稠密模型、盤古Pro MoE 720億
大模型推理顯存和計算量估計方法研究
、顯存估計方法
基于模型結構的顯存估計
根據深度學習模型的層次結構和參數數量,可以估算模型在推理過程中所需的顯存大小。具體方法如下:
(
發表于 07-03 19:43
華為正式開源盤古7B稠密和72B混合專家模型
[中國,深圳,2025年6月30日] 今日,華為正式宣布開源盤古70億參數的稠密模型、盤古Pro MoE 720億
華為助力中國石油發布3000億參數昆侖大模型
5月28日,中國石油發布3000億參數昆侖大模型,標志著中國石油在人工智能領域又邁出關鍵一步,全力推動“人工智能+”行動走深走實。 ? 中國石油發布3000
NVIDIA使用Qwen3系列模型的最佳實踐
阿里巴巴近期發布了其開源的混合推理大語言模型 (LLM) 通義千問 Qwen3,此次 Qwen3 開源模型系列包含兩款混合專家模型 (MoE),235B-A22B(總
EL3041 DIP-6 EVERLIGHT/億光雙向可控硅-EL3041光耦詳細參數
EL3041 DIP-6 EVERLIGHT/億光雙向可控硅-EL3041光耦詳細參數
發表于 04-24 11:14
IBIS模型中的Corner參數處理
本文聚焦IBIS(I/O Buffer Information Specification)模型中的Corner(Typ/Min/Max)參數處理,系統分析Corner的定義規則及其對信號完整性
SiC MOSFET 開關模塊RC緩沖吸收電路的參數優化設計
(高一個數量級),在開關模塊關斷瞬間,由母排寄生電感和開關模塊寄生電容引起的關斷尖峰電壓更高。關斷過電壓不僅給開關模塊帶來更大的電壓應力,縮短模塊工作壽命,而且會給系統帶來更大的損耗以及更嚴重的電磁干擾
發表于 04-23 11:25
小米大模型MiLM-6B具有64億參數,在同參數量級排名第1
評論