国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

中科院提出FastSAM快速分割一切模型!比Meta原版提速50倍!

CVer ? 來源:量子位(QbitAI) ? 2023-06-28 14:33 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

比Meta的「分割一切模型」(SAM)更快的圖像分割工具,來了!

最近中科院團隊開源了FastSAM模型,能以50倍的速度達到與原始SAM相近的效果,并實現25FPS的實時推理。

該成果在Github已經獲得2.4K+次星標,在Twitter、PaperswithCode等平臺也受到了廣泛關注。

da955e1a-1571-11ee-962d-dac502259ad0.png

相關論文預印本現已發表。

以下內容由投稿者提供

daa417ca-1571-11ee-962d-dac502259ad0.png

《Fast Segment Anything》

代碼:https://github.com/CASIA-IVA-Lab/FastSAM

論文:https://arxiv.org/abs/2306.12156

視覺基礎模型 SAM[1]在許多計算機視覺任務中產?了重?影響。它已經成為圖像分割、圖像描述和圖像編輯等任務的基礎。

然?,其巨?的計算成本阻礙了它在實際場景中的?泛應?。

最近,中科院?動化所提出并開源了?種加速替代?案 FastSAM。

通過將分割?切任務重新劃分為全實例分割和提?指導選擇兩個?任務,?帶實例分割分?的常規 CNN 檢測器以?出50倍的運?速度實現了與SAM?法相當的性能,是?個實時分割?切的基礎模型。

dab8fe6a-1571-11ee-962d-dac502259ad0.png

意義與動機

SAM 的出現帶動了 “分割?切”(Segment Anything)任務的發展。這?任務由于其泛化性和可擴展性,有很?可能成為未來?泛視覺任務的基礎。

FastSAM 為該任務提供了?套實時解決?案,進?步推動了分割?切模型的實際應?和發展。

本?將“分割?切”任務解耦為全實例分割和提?引導選擇兩階段,通過引???先驗結構,在提速 50 倍的情況下實現了與 SAM 相近的表現。

FastSAM 的優秀表現為視覺任務的架構選擇提供了新的視角——對于特定任務,專用模型結構或許在計算效率和精確度上仍具有優勢。

從模型壓縮的?度看,FastSAM 也證明了基于大模型產生高質量數據,通過引???先驗結構大幅降低計算復雜度的路徑的可?性。

示例

Web DEMO

在 HuggingFace 的 Space 中,你可以快速體驗 FastSAM 的分割效果。

你可以上傳一張自定義的圖片,選擇模式并設置參數,點擊分割按鈕,就可以得到一個滿意的分割結果。

現在支持一切模式和點模式的交互,其他模式將在未來嘗試支持。在 Replicate 上已支持所有模式的在線體驗。

dad56e74-1571-11ee-962d-dac502259ad0.jpg

dae83266-1571-11ee-962d-dac502259ad0.jpg

多種交互?式

FastSAM目前共支持三種交互方式。

dafa74bc-1571-11ee-962d-dac502259ad0.png

多點交互模式

FastSAM ?持多個帶有前景/背景標簽的點交互模式,可以很好地適應不同場景的應?需求。

以缺陷檢測場景為例,只需對缺陷部位添加前景點,對正常藥丸部分添加背景點,即可準確地檢測出物體缺陷。

db2819e4-1571-11ee-962d-dac502259ad0.png

框交互模式

FastSAM 也?持框交互模式。也以缺陷檢測為例,只需對缺陷?致位置進?框選,即可準確檢測出物體缺陷。

db3f0136-1571-11ee-962d-dac502259ad0.png

?本交互模式

FastSAM 也?持并開源了?本交互模式。通過不同的?本提示,FastSAM可以準確分割出不同顏?的?狗。

db55dc62-1571-11ee-962d-dac502259ad0.png

工作原理

如下圖所示,FastSAM 的網絡架構可分為兩個階段:全實例分割和提示引導選擇。

db6da3f6-1571-11ee-962d-dac502259ad0.png

在全實例分割階段,FastSAM 使用卷積神經網絡來對圖像中的所有對象或區域進行劃分。

在提示引導選擇階段,它采用包括點提示、框提示和文本提示的各種提示來選出關注對象。

與基于Transformer的方法不同,FastSAM融合了與視覺分割任務緊密相關的先驗知識,例如局部連接和對象分配策略。這使得它以更低地參數量和計算量下更快地收斂。

定性與定量分析

測試結果表明,FastSAM各方面的表現完全不輸于Meta的原始版本。

速度

從表中可以看出,FastSAM 取得了遠超 SAM 的速度表現,在「分割?切」模式下,SAM的速度會受到均勻點提?數量的影響,? FastSAM 由于結構的特點,運?時間不隨點提?數量的增加?增加,這使得它成為「分割?切」模式的更好選擇。

db7aa2cc-1571-11ee-962d-dac502259ad0.png

同時,由于 FastSAM 在結構設計中利?了?的先驗知識,使得它在實時推理的同時也具備了與 SAM 相當的性能。

邊緣檢測

下圖展?了具有代表性的邊緣檢測結果。經過定性觀察可以看出,盡管FastSAM的參數明顯較少(只有68M),但它也能產?很?質量的邊緣檢測結果。

db8b8a6a-1571-11ee-962d-dac502259ad0.png

從下表可以看出,FastSAM 取得了與 SAM 類似的性能。與 Ground Truth 相?,FastSAM和 SAM 都傾向于預測更多的邊緣,這種偏差在表中得到了定量的反映。

db9c7e10-1571-11ee-962d-dac502259ad0.png

物體候選

從下表可以看出,FastSAM 在 bbox AR@1000 的表現上超過了計算量最?的 SAM 模型(SAM-H E64),僅次于在 LVIS 數據集上監督訓練的 ViTDet-H[2]。

dbb0244c-1571-11ee-962d-dac502259ad0.png

可視化結果

SA-1B 分割結果:下圖展?了 FastSAM 在 SA-1B 數據集上不同場景和掩碼數量時的分割結果。

dbc02c2a-1571-11ee-962d-dac502259ad0.png

下游應?對?:下?三張圖對?了 FastSAM 和 SAM 在異常檢測、顯著物體分割和建筑物提取三個下游任務的效果,FastSAM 在不同模式下均取得了和 SAM 相當的表現。

dbd40254-1571-11ee-962d-dac502259ad0.png

dbeaa428-1571-11ee-962d-dac502259ad0.png

dc072a26-1571-11ee-962d-dac502259ad0.png

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 模型
    +關注

    關注

    1

    文章

    3751

    瀏覽量

    52097
  • SAM
    SAM
    +關注

    關注

    0

    文章

    118

    瀏覽量

    34394
  • 計算機視覺
    +關注

    關注

    9

    文章

    1715

    瀏覽量

    47623

原文標題:中科院提出FastSAM快速分割一切模型!比Meta原版提速50倍!

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    匯誠儀器與中科微電子蘇州研究合作,熱重分析儀助力科研創新

    近日,南京匯誠儀器儀表有限公司與中科院微電子所蘇州產業技術研究正式達成友好合作,研究成功采購匯誠儀器自主研發生產的TGA-601S熱重分析儀,用于微電子材料領域的科研檢測與技術攻關。此次合作既是
    的頭像 發表于 02-05 16:20 ?888次閱讀
    匯誠儀器與<b class='flag-5'>中科</b>微電子蘇州研究<b class='flag-5'>院</b>合作,熱重分析儀助力科研創新

    芯盾時代助力中科院蘇州納米所建立零信任安全架構

    芯盾時代中標中國科學院蘇州納米技術與納米仿生研究所(簡稱:中科院蘇州納米所)!芯盾時代基于零信任安全理念,構建以“身份”為核心的安全邊界,通過用戶身份與訪問管理平臺(IAM)幫助企業打破身份數據孤島
    的頭像 發表于 01-28 09:09 ?632次閱讀

    SAM(通用圖像分割基礎模型)丨基于BM1684X模型部署指南

    前言SAM是Meta提出分割一切的提示型模型,其在1100萬張圖像上訓練了超過10億個掩碼
    的頭像 發表于 01-12 16:17 ?302次閱讀
    SAM(通用圖像<b class='flag-5'>分割</b>基礎<b class='flag-5'>模型</b>)丨基于BM1684X<b class='flag-5'>模型</b>部署指南

    Meta的AI慢性病,靠Manus能治嗎?

    Meta
    腦極體
    發布于 :2026年01月08日 16:58:02

    中科曙光推出科學大模型站式開發平臺OneScience

    近日,在2025年中國計算機大會上,中科曙光發布了國內首個科學大模型站式開發平臺OneScience。該平臺遵循AI計算開放架構理念設計,并依托曙光AI超集群國產算力,深度復現并集成數十個AI
    的頭像 發表于 10-28 17:29 ?906次閱讀

    今日看點:中科院院士:未來人工智能助手將取代手機;合肥120億高端光罩項目開工

    中科院院士:未來人工智能助手將取代手機 近期,圖靈獎獲得者、中國科學院院士、清華大學人工智能學院院長姚期智公開表示,“無論我們喜歡與否,大約在未來三到五年內,每個人都會擁有個人工智能助手,甚至更大
    發表于 10-27 10:44 ?1390次閱讀

    中科院重慶研究在勢壘可光調諧的新型肖特基紅外探測器研究中獲進展

    傳統肖特基探測器和勢壘可光調諧的肖特基紅外探測器的對比 近日,中科院重慶綠色智能技術研究微納制造與系統集成研究中心在《創新》(The Innovation)上發表了題為Schottky
    的頭像 發表于 10-21 09:26 ?365次閱讀
    <b class='flag-5'>中科院</b>重慶研究<b class='flag-5'>院</b>在勢壘可光調諧的新型肖特基紅外探測器研究中獲進展

    中科院寧波材料所:雙結構石墨烯/PDMS復合傳感器,用于可穿戴設備應用

    在實際應用中,柔性傳感器需要在寬廣的測量范圍內展現出足夠高的靈敏度;然而,這種需求總是伴隨著權衡取舍。本文通過對激光誘導石墨烯(LIG)導電路徑的幾何創新,解決了上述挑戰。本文, 中科院寧波材料所趙
    的頭像 發表于 08-26 18:02 ?5677次閱讀
    <b class='flag-5'>中科院</b>寧波材料所:雙結構石墨烯/PDMS復合傳感器,用于可穿戴設備應用

    ?Groq LPU 如何讓萬億參數模型「飛」起來?揭秘 Kimi K2 40 提速背后的黑科技

    Groq LPU 如何讓萬億參數模型「飛」起來?揭秘 Kimi K2 40 提速背后的黑科技? 最近,Moonshot AI 的千億參數大模型 ?Kimi K2? 在 ?GroqCl
    的頭像 發表于 08-07 10:01 ?972次閱讀

    【正點原子STM32MP257開發板試用】基于 DeepLab 模型的圖像分割

    是谷歌團隊提出種用于語義分割的深度學習模型,屬于 DeepLab 系列模型的第三代版本。它在圖像語義
    發表于 06-21 21:11

    中科曙光助力中科院高能物理研究所打造溪悟大模型

    近年來,以大規模預訓練模型為代表的人工智能技術迅猛發展,為科研創新提供了全新范式。中科院高能物理研究所依托正負電子對撞機等大科學裝置,積累了海量高價值實驗數據,如何高效利用數據、加速成果產出,成為研究所面臨的核心課題。
    的頭像 發表于 05-06 15:19 ?871次閱讀

    中關村泛聯行來訪中科馭數

    中關村泛聯移動通信技術創新應用研究(以下簡稱“中關村泛聯”)專職副院長金毅敦行來訪中科馭數,雙方探討了6G技術發展現狀,以及DPU在6G場景的應用機會。
    的頭像 發表于 04-14 10:26 ?1312次閱讀

    中科昊芯DSP產品及公司信息

    中科昊芯是家致力于數字信號處理器(DSP)研發的高科技企業,源自中國科學院的科技成果轉化,其創始團隊擁有中科院自動化所的深厚背景,自2016年起便投身于RISC-V處理器的研究。依托RISC-V
    發表于 04-07 09:16

    安徽省水利科學研究攜手中科曙光完成DeepSeek大模型部署

    近日,安徽省(水利部淮河水利委員會)水利科學研究攜手中科曙光,成功完成國產大模型DeepSeek、BGE-M3嵌入模型及重排模型的本地化部
    的頭像 發表于 03-25 11:36 ?1032次閱讀

    無法在OVMS上運行來自Meta的大型語言模型 (LLM),為什么?

    無法在 OVMS 上運行來自 Meta 的大型語言模型 (LLM),例如 LLaMa2。 從 OVMS GitHub* 存儲庫運行 llama_chat Python* Demo 時遇到錯誤。
    發表于 03-05 08:07