電子發燒友網報道(文/李彎彎)近日,美國初創公司Liquid AI宣布正式推出下一代Liquid基礎模型(LFM2),該模型在邊緣模型類別中創下了速度、能效和質量的新紀錄。
LFM2的誕生源于對AI底層邏輯的重構。與傳統基于Transformer的模型不同,LFM2采用結構化、自適應的算子構建,其靈感源自動態系統理論、信號處理與數值線性代數的深度融合。
這種設計使模型具備三大核心優勢:其一,訓練效率較上一代提升300%,在CPU上吞吐量較Qwen3、Gemma等模型提升200%,延遲顯著降低;其二,在長上下文處理(如32k token文檔分析)和資源受限場景(如移動端、物聯網設備)中表現卓越;其三,通過優化內存占用(LFM-3B僅需16GB內存,遠低于Meta Llama-3.2-3B的48GB),實現毫秒級實時推理與離線運行。
“我們以第一性原理構建模型,如同工程師設計發動機般嚴謹。”Liquid AI聯合創始人兼CEO Ramin Hasani在發布會上強調,“LFM2的目標是讓每臺設備都成為本地AI中心,釋放生成式AI在邊緣場景的潛力。”
從實測數據來看,在指令遵循、函數調用等智能體AI關鍵屬性上,LFM2平均表現顯著優于同規模競品,成為本地與邊緣用例的理想選擇;
在MMLU(多模態學習理解)、RULER(長上下文推理)等權威評測中,LFM2-3B模型性能超越前代7B-13B模型,LFM2-40B則以混合專家(MoE)架構實現質量與成本的平衡;
生態兼容性方面,模型權重已開源至Hugging Face,支持通過Liquid Playground即時測試,并即將集成至邊緣AI平臺與iOS原生應用。
LFM2的發布,恰逢全球邊緣AI市場爆發前夜。據預測,僅消費電子、機器人、智能家電等領域的邊緣AI技術,即可在2035年推動總潛在市場規模逼近1萬億美元。Liquid AI已與《財富》500強企業展開合作,通過提供超高效率的小型多模態基礎模型與安全的企業級部署方案,助力客戶實現數據主權與隱私保護。
“將大型生成式模型從云端遷移至設備端,是AI普惠化的必經之路。”Hasani指出,“LFM2的毫秒級延遲與離線能力,對手機、汽車、衛星等實時性要求極高的終端至關重要。”目前,該公司已與國防、航天、網絡安全等領域達成戰略合作,其技術棧正成為高安全性場景的首選方案。
LFM2的發布,只是Liquid AI技術長征的第一步。據透露,未來幾個月內,公司將陸續推出系列強大模型,覆蓋更廣泛的模態與場景。隨著企業從云端LLM轉向經濟高效、快速、私密的本地智能,LFM2或將成為AI技術民主化的關鍵推手。
LFM2的誕生源于對AI底層邏輯的重構。與傳統基于Transformer的模型不同,LFM2采用結構化、自適應的算子構建,其靈感源自動態系統理論、信號處理與數值線性代數的深度融合。
這種設計使模型具備三大核心優勢:其一,訓練效率較上一代提升300%,在CPU上吞吐量較Qwen3、Gemma等模型提升200%,延遲顯著降低;其二,在長上下文處理(如32k token文檔分析)和資源受限場景(如移動端、物聯網設備)中表現卓越;其三,通過優化內存占用(LFM-3B僅需16GB內存,遠低于Meta Llama-3.2-3B的48GB),實現毫秒級實時推理與離線運行。
“我們以第一性原理構建模型,如同工程師設計發動機般嚴謹。”Liquid AI聯合創始人兼CEO Ramin Hasani在發布會上強調,“LFM2的目標是讓每臺設備都成為本地AI中心,釋放生成式AI在邊緣場景的潛力。”
從實測數據來看,在指令遵循、函數調用等智能體AI關鍵屬性上,LFM2平均表現顯著優于同規模競品,成為本地與邊緣用例的理想選擇;
在MMLU(多模態學習理解)、RULER(長上下文推理)等權威評測中,LFM2-3B模型性能超越前代7B-13B模型,LFM2-40B則以混合專家(MoE)架構實現質量與成本的平衡;
生態兼容性方面,模型權重已開源至Hugging Face,支持通過Liquid Playground即時測試,并即將集成至邊緣AI平臺與iOS原生應用。
LFM2的發布,恰逢全球邊緣AI市場爆發前夜。據預測,僅消費電子、機器人、智能家電等領域的邊緣AI技術,即可在2035年推動總潛在市場規模逼近1萬億美元。Liquid AI已與《財富》500強企業展開合作,通過提供超高效率的小型多模態基礎模型與安全的企業級部署方案,助力客戶實現數據主權與隱私保護。
“將大型生成式模型從云端遷移至設備端,是AI普惠化的必經之路。”Hasani指出,“LFM2的毫秒級延遲與離線能力,對手機、汽車、衛星等實時性要求極高的終端至關重要。”目前,該公司已與國防、航天、網絡安全等領域達成戰略合作,其技術棧正成為高安全性場景的首選方案。
LFM2的發布,只是Liquid AI技術長征的第一步。據透露,未來幾個月內,公司將陸續推出系列強大模型,覆蓋更廣泛的模態與場景。隨著企業從云端LLM轉向經濟高效、快速、私密的本地智能,LFM2或將成為AI技術民主化的關鍵推手。
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。
舉報投訴
-
邊緣AI
+關注
關注
0文章
239瀏覽量
6130
發布評論請先 登錄
相關推薦
熱點推薦
使用NORDIC AI的好處
; 自定義 Neuton 模型博客]
Axon NPU :集成在 nRF54LM20B 等高端 SoC 中的專用 AI 加速器,對 TensorFlow Lite 模型可實現最高約 1
發表于 01-31 23:16
工業視覺網關:RK3576賦能多路檢測與邊緣AI
~150ms6TOPS NPU 邊緣AI推理易對接 MES / 追溯系統
一、產線痛點:從“人看”到“機判”的轉變· 多工位/多角度同步:單機位覆蓋不足,典型項目需 8~12 路并發,且畫面時序一致性要求高
發表于 10-16 17:56
【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片到AGI芯片
、分布式群體智能
1)物聯網AGI系統
優勢:
組成部分:
2)分布式AI訓練
7、發展重點:基于強化學習的后訓練與推理
8、超越大模型:神經符號計算
三、AGI芯片的
發表于 09-18 15:31
【「AI芯片:科技探索與AGI愿景」閱讀體驗】+第二章 實現深度學習AI芯片的創新方法與架構
Transformer和視覺Transformer模型。
ViTA是一種高效數據流AI加速器,用于在邊緣設備上部署計算密集型視覺Transformer模型。
發表于 09-12 17:30
【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片的需求和挑戰
與邊緣AI的不同特點:
邊緣推理的優勢:可以提供數據處理速度和響應速度,滿足實時需求;可以縮短網絡延遲,降低成本;可以提高安全性和隱私性,
發表于 09-12 16:07
【Sipeed MaixCAM Pro開發板試用體驗】基于MaixCAM-Pro的AI生成圖像鑒別系統
能夠有效捕捉AI生成圖像與真實手繪掃描圖像在紋理、筆觸、光影、全局一致性等方面的細微差異。
邊緣端部署:將模型量化、編譯,最終高效運行在算力有限的MaixCAM-Pro開發板上。
發表于 08-21 13:59
愛芯元智重磅發布邊緣計算戰略
近日,愛芯元智在2025世界人工智能大會上重磅發布邊緣計算戰略。展會現場匯聚了眾多行業精英,共同見證了愛芯元智邊緣計算與AI融合發展的新路徑,為AI普惠美好生活擘畫新的藍圖。
信而泰×DeepSeek:AI推理引擎驅動網絡智能診斷邁向 “自愈”時代
網絡智能診斷平臺。通過對私有化網絡數據的定向訓練,信而泰打造了高性能、高可靠性的網絡診斷模型,顯著提升了AI輔助診斷的精準度與實用性。該方案實現了網絡全流量深度解析能力與AI智能
發表于 07-16 15:29
最新人工智能硬件培訓AI基礎入門學習課程參考2025版(離線AI語音視覺識別篇)
端側離線 AI 智能硬件作為 AI 技術的重要載體之一,憑借其無需依賴網絡即可實現智能功能的特性,在一些網絡條件受限或對數據隱私有較高要求的場景中,發揮著不可或缺的作用。本章基于CSK
發表于 07-04 11:14
Nordic收購 Neuton.AI 關于產品技術的分析
與 Nordic 的 nRF54 系列超低功耗無線 SoC 結合,使得即使是資源極為有限的設備也能高效運行邊緣 AI。Nordic 目前正在將 Neuton 深度集成到自身開發生態中,未來會提供更多工具、固件
發表于 06-28 14:18
首創開源架構,天璣AI開發套件讓端側AI模型接入得心應手
套件2.0全面支持 DeepSeek四大關鍵技術:混合專家模型(MoE)、多Token預測(MTP)多頭潛在注意力(MLA)、FP8推理(FP8 Inferencing),實現Token產生速度提升
發表于 04-13 19:52
新品 | Module LLM Kit,離線大語言模型推理模塊套裝
●●●PART.01產品簡介ModuleLLMKit是一款專注于離線AI推理與數據通信接口應用的智能模塊套件,整合了ModuleLLM與Module13.2LLMMate模塊,滿足多場景下的離
Banana Pi 發布 BPI-AI2N & BPI-AI2N Carrier,助力 AI 計算與嵌入式開發
存儲設計,輕松應對復雜AI模型與實時推理。其堅固耐用的工業級品質與超低成本,不僅適應嚴苛環境的應用,更為工程師提供了極致靈活的開發體驗,堪稱
發表于 03-19 17:54
Liquid AI發布邊緣AI模型LFM2,實現毫秒級實時推理與離線運行
評論