国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Liquid AI發布邊緣AI模型LFM2,實現毫秒級實時推理與離線運行

Carol Li ? 來源:電子發燒友 ? 作者:李彎彎 ? 2025-07-15 08:59 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發燒友網報道(文/李彎彎)近日,美國初創公司Liquid AI宣布正式推出下一代Liquid基礎模型(LFM2),該模型在邊緣模型類別中創下了速度、能效和質量的新紀錄。

LFM2的誕生源于對AI底層邏輯的重構。與傳統基于Transformer的模型不同,LFM2采用結構化、自適應的算子構建,其靈感源自動態系統理論、信號處理與數值線性代數的深度融合。

這種設計使模型具備三大核心優勢:其一,訓練效率較上一代提升300%,在CPU上吞吐量較Qwen3、Gemma等模型提升200%,延遲顯著降低;其二,在長上下文處理(如32k token文檔分析)和資源受限場景(如移動端、物聯網設備)中表現卓越;其三,通過優化內存占用(LFM-3B僅需16GB內存,遠低于Meta Llama-3.2-3B的48GB),實現毫秒級實時推理與離線運行。

“我們以第一性原理構建模型,如同工程師設計發動機般嚴謹。”Liquid AI聯合創始人兼CEO Ramin Hasani在發布會上強調,“LFM2的目標是讓每臺設備都成為本地AI中心,釋放生成式AI在邊緣場景的潛力。”

從實測數據來看,在指令遵循、函數調用等智能體AI關鍵屬性上,LFM2平均表現顯著優于同規模競品,成為本地與邊緣用例的理想選擇;

在MMLU(多模態學習理解)、RULER(長上下文推理)等權威評測中,LFM2-3B模型性能超越前代7B-13B模型,LFM2-40B則以混合專家(MoE)架構實現質量與成本的平衡;

生態兼容性方面,模型權重已開源至Hugging Face,支持通過Liquid Playground即時測試,并即將集成至邊緣AI平臺與iOS原生應用。

LFM2的發布,恰逢全球邊緣AI市場爆發前夜。據預測,僅消費電子機器人、智能家電等領域的邊緣AI技術,即可在2035年推動總潛在市場規模逼近1萬億美元。Liquid AI已與《財富》500強企業展開合作,通過提供超高效率的小型多模態基礎模型與安全的企業級部署方案,助力客戶實現數據主權與隱私保護。

“將大型生成式模型從云端遷移至設備端,是AI普惠化的必經之路。”Hasani指出,“LFM2的毫秒級延遲與離線能力,對手機、汽車、衛星等實時性要求極高的終端至關重要。”目前,該公司已與國防、航天、網絡安全等領域達成戰略合作,其技術棧正成為高安全性場景的首選方案。

LFM2的發布,只是Liquid AI技術長征的第一步。據透露,未來幾個月內,公司將陸續推出系列強大模型,覆蓋更廣泛的模態與場景。隨著企業從云端LLM轉向經濟高效、快速、私密的本地智能,LFM2或將成為AI技術民主化的關鍵推手。



聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 邊緣AI
    +關注

    關注

    0

    文章

    239

    瀏覽量

    6130
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    如何在邊緣AI應用場景中實現高性能、低功耗推理(上)

    。這種方法需要巨大的帶寬才能將海量數據傳輸到云端。 邊緣設備越來越多地使用AI推理技術,以實現快速實時響應并提高數據隱私和安全性,同時避免與
    的頭像 發表于 02-27 07:48 ?6493次閱讀
    如何在<b class='flag-5'>邊緣</b><b class='flag-5'>AI</b>應用場景中<b class='flag-5'>實現</b>高性能、低功耗<b class='flag-5'>推理</b>(上)

    使用NORDIC AI的好處

    ; 自定義 Neuton 模型博客] Axon NPU :集成在 nRF54LM20B 等高端 SoC 中的專用 AI 加速器,對 TensorFlow Lite 模型實現最高約 1
    發表于 01-31 23:16

    工業視覺網關:RK3576賦能多路檢測與邊緣AI

    ~150ms6TOPS NPU 邊緣AI推理易對接 MES / 追溯系統 一、產線痛點:從“人看”到“機判”的轉變· 多工位/多角度同步:單機位覆蓋不足,典型項目需 8~12 路并發,且畫面時序一致性要求高
    發表于 10-16 17:56

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片到AGI芯片

    、分布式群體智能 1)物聯網AGI系統 優勢: 組成部分: 2)分布式AI訓練 7、發展重點:基于強化學習的后訓練與推理 8、超越大模型:神經符號計算 三、AGI芯片的
    發表于 09-18 15:31

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+第二章 實現深度學習AI芯片的創新方法與架構

    Transformer和視覺Transformer模型。 ViTA是一種高效數據流AI加速器,用于在邊緣設備上部署計算密集型視覺Transformer模型
    發表于 09-12 17:30

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片的需求和挑戰

    邊緣AI的不同特點: 邊緣推理的優勢:可以提供數據處理速度和響應速度,滿足實時需求;可以縮短網絡延遲,降低成本;可以提高安全性和隱私性,
    發表于 09-12 16:07

    【Sipeed MaixCAM Pro開發板試用體驗】基于MaixCAM-Pro的AI生成圖像鑒別系統

    能夠有效捕捉AI生成圖像與真實手繪掃描圖像在紋理、筆觸、光影、全局一致性等方面的細微差異。 邊緣端部署:將模型量化、編譯,最終高效運行在算力有限的MaixCAM-Pro開發板上。
    發表于 08-21 13:59

    邊緣智能網關在水務行業中的應用—龍興物聯

    、重金屬等),數據通過邊緣網關實時處理。 優勢:? 秒異常報警:? 邊緣AI模型
    發表于 08-02 18:28

    愛芯元智重磅發布邊緣計算戰略

    近日,愛芯元智在2025世界人工智能大會上重磅發布邊緣計算戰略。展會現場匯聚了眾多行業精英,共同見證了愛芯元智邊緣計算與AI融合發展的新路徑,為AI普惠美好生活擘畫新的藍圖。
    的頭像 發表于 08-01 10:45 ?1305次閱讀

    信而泰×DeepSeek:AI推理引擎驅動網絡智能診斷邁向 “自愈”時代

    網絡智能診斷平臺。通過對私有化網絡數據的定向訓練,信而泰打造了高性能、高可靠性的網絡診斷模型,顯著提升了AI輔助診斷的精準度與實用性。該方案實現了網絡全流量深度解析能力與AI智能
    發表于 07-16 15:29

    最新人工智能硬件培訓AI基礎入門學習課程參考2025版(離線AI語音視覺識別篇)

    端側離線 AI 智能硬件作為 AI 技術的重要載體之一,憑借其無需依賴網絡即可實現智能功能的特性,在一些網絡條件受限或對數據隱私有較高要求的場景中,發揮著不可或缺的作用。本章基于CSK
    發表于 07-04 11:14

    Nordic收購 Neuton.AI 關于產品技術的分析

    與 Nordic 的 nRF54 系列超低功耗無線 SoC 結合,使得即使是資源極為有限的設備也能高效運行邊緣 AI。Nordic 目前正在將 Neuton 深度集成到自身開發生態中,未來會提供更多工具、固件
    發表于 06-28 14:18

    首創開源架構,天璣AI開發套件讓端側AI模型接入得心應手

    套件2.0全面支持 DeepSeek四大關鍵技術:混合專家模型(MoE)、多Token預測(MTP)多頭潛在注意力(MLA)、FP8推理(FP8 Inferencing),實現Token產生速度提升
    發表于 04-13 19:52

    新品 | Module LLM Kit,離線大語言模型推理模塊套裝

    ●●●PART.01產品簡介ModuleLLMKit是一款專注于離線AI推理與數據通信接口應用的智能模塊套件,整合了ModuleLLM與Module13.2LLMMate模塊,滿足多場景下的
    的頭像 發表于 03-28 18:49 ?1191次閱讀
    新品 | Module LLM Kit,<b class='flag-5'>離線</b>大語言<b class='flag-5'>模型</b><b class='flag-5'>推理</b>模塊套裝

    Banana Pi 發布 BPI-AI2N &amp; BPI-AI2N Carrier,助力 AI 計算與嵌入式開發

    存儲設計,輕松應對復雜AI模型實時推理。其堅固耐用的工業品質與超低成本,不僅適應嚴苛環境的應用,更為工程師提供了極致靈活的開發體驗,堪稱
    發表于 03-19 17:54