国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

全球首個最大規模跨本體視觸覺多模態數據集白虎-VTouch發布

開放原子 ? 來源:OpenLoong開源社區 ? 2026-01-29 14:41 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

具身智能走向真實世界規模化應用,離不開可復現、可擴展、可協同演進的數據基礎設施。圍繞真實物理交互能力構建這一核心工程目標,1月26日,國家地方共建人形機器人創新中心聯合上海緯鈦科技有限公司正式發布全球首個最大規模跨本體視觸覺多模態數據集——白虎-VTouch(Vision-Based Tactile Sensor),總規模超過60,000分鐘。

近日,白虎-VTouch數據集首批6,000分鐘數據在OpenLoong開源社區和AtomGit平臺同步開放下載,并躍居AtomGit平臺數據集分類下載量第一。歡迎掃描二維碼或點擊閱讀原文下載使用,誠邀全球開發者與產業伙伴使用與共建。

白虎-VTouch的開源選擇

在OpenLoong社區的定位中,白虎-VTouch并不是一個“單點能力領先”的數據集,而是一次對具身智能數據范式的系統性補位。過去幾年,具身智能領域的快速發展更多依賴視覺、多模態語言以及仿真環境中的策略學習。但在真實世界任務中,機器人仍然普遍面臨“看得見卻做不好”的困境,其根源并不在模型規模,而在于真實物理交互數據的長期缺位。

白虎-VTouch的獨特指出在于其首次將高分辨率視觸覺信息、真實物理接觸過程以及跨機器人本體的一致標注體系放在同一個數據框架中進行系統性構建。這類數據本身具有高工程成本特性:高帶寬同步采集、復雜標定流程、多機器人平臺協同、真實場景反復復現,幾乎不具備被單一團隊長期獨占和閉源演進的可持續性。由此可見,若這類數據未能融入開源生態,其價值會被極大限制。

OpenLoong開源社區承載了白虎-VTouch的開源發布,并不只是簡單提供一個下載入口,而是將其作為社區級基礎能力的一部分進行組織。一方面,白虎-VTouch本身補足了具身智能Scaling Law中長期缺失的“觸覺與接觸”維度,使模型訓練首次能夠系統性學習接觸狀態、力控反饋與動作調整之間的關系;另一方面,通過開源,它也為不同研究路線、不同機器人平臺、不同控制范式提供了一個可以被反復驗證、復現和對比的公共基準。

白虎-VTouch被設計為一個可被持續擴展、持續復用的具身基礎語料庫。它的意義不止在于“已經采集了多少分鐘的數據”,而在于為整個社區建立了一種可復制的工程方法:如何在真實世界中穩定采集高質量視觸覺數據,如何保證多模態時序對齊,如何在不同本體之間保持語義一致性。這些能力,只有通過開源,才能真正沉淀為行業公共資產。

不同數據集對比

跨本體視觸覺多模態數據體系的工程突破

白虎-VTouch(Vision-Based Tactile Sensor)包含視觸覺傳感器數據、RGB-D數據、關節位姿數據等多模態信息,覆蓋輪臂機器人(D-Wheel)、雙足人形機器人(青龍)及手持智能終端等多種機器人本體結構,以真實物理交互過程為核心對象,將視觸覺傳感器數據、RGB-D視覺信息與機器人關節位姿狀態進行系統整合,構建覆蓋感知、接觸與動作全過程的多模態訓練語料體系。

跨層次交互理解具身標注體系

基于真實物理交互與多模態感知數據,團隊構建了跨層次交互理解具身標注體系,通過視覺、語言、動作與觸覺等多模態語義的聯合建模與對齊,實現跨模態表征學習與統一理解,為下一代具身VTLA提供數據標準。白虎-VTouch數據標注體系將分批次開源。

抽象思維層:理解“為什么”。通過將任務抽象意圖推演成通用化維度交叉思維鏈,模型直接學習背后的思維鏈規律組合。

動作邏輯層:明白“怎么做”。創建完備獨立的原子動作元語,結合自然語言指令將復雜長流程任務操作拆解為動作步驟序列,涵蓋操作邏輯與步驟內涵。

物理狀態層:感受“做什么”。通過視觸覺增強的物理交互信息深化智能體對自身狀態的掌握,同時確保物理真實一致性和多模態同步對齊。

“矩陣式”任務構建新范式

來源:OpenLoong開源社區

在任務構建方法上,白虎-VTouch并未沿用傳統的“人工定義單任務”路徑,而是提出“矩陣式”任務構建新范式。該范式以雙臂協同結構、原子操作類型、接觸與觸覺模式作為核心維度,并結合物體與幾何屬性、感知模態組合及任務層級結構等輔助維度進行系統性交叉,每一個維度交點,均對應一個可執行的最小任務單元。基于這一構建邏輯,白虎-VTouch覆蓋了家居家政、工業制造、餐飲服務與特殊作業四大真實應用領域,形成380+任務類型、100+原子技能、500+真實物品的高密度任務空間。同時,通過光照變化、遮擋干擾與姿態擾動等方式顯式引入泛化條件,使任務設計從一開始即面向真實部署環境。

補齊具身智能Scaling Law中缺失的“觸覺維度”

具身智能的Scaling Law,與大模型語境下的Scaling并不完全等價,其中長期缺失的一環,正是“接觸與觸覺”。

白虎-VTouch的核心價值之一,在于其系統性的引入了真實物理交互中的觸覺與接觸信息。白虎-VTouch所采用的視觸覺傳感器支持最高640×480分辨率與120Hz刷新率,在物體接觸過程可穩定記錄細粒度接觸變化,包含約9072萬對視觸覺接觸圖像真實物體接觸樣本。視觸覺接觸數據占本數據集規模的比重為57%,顯著擴展了真實物理交互場景的接觸范圍。基于視觸覺傳感器的高空間分辨率與多維力感知能力,數據集能夠以圖像級形式記錄接觸過程中的微觀形變、壓力分布與滑移狀態,使觸覺信息具備與視覺同等級別的可學習表征密度。

這類數據服務于對接觸狀態高度敏感的任務場景,補足了具身智能Scaling Law所缺失的“觸覺與接觸”維度,為模型建立“接觸前—接觸中—接觸后”的完整物理理解提供了必要基礎,也為機器人從“能看”走向“能觸、能控、能穩態泛化”奠定了關鍵語料支撐。

在任務層面,視觸覺信息重點覆蓋260+接觸密集型任務,其中,68%的任務在引入視觸覺感知后獲得了更完整、連續的接觸狀態描述,為精細操作、力控調整與失敗恢復等關鍵環節提供了直接增益,充分體現了視觸覺數據在提升復雜操作任務成功率方面的實際價值。

開發者使用路徑

在設計構想里,白虎-VTouch的使用路徑并不是“下載即結束”,而是應被嵌入到一個完整的開發閉環之中。針對不同階段的開發者,其需承擔的角色也有所差異。

對于初入具身智能領域的研究者或工程師而言,白虎-VTouch提供的是一個真實世界對齊的起點。開發者可以直接基于已開源的子集數據,快速理解視觸覺融合在真實操作中的作用方式,驗證純視覺策略與視觸覺策略在成功率和穩定性上的差異。這一階段,數據集更多承擔的是“認知校準”的作用,讓開發者盡早意識到真實物理交互與仿真或純視覺任務之間的本質差異。

對于已有一定算法積累的團隊,白虎-VTouch則是一個可復現實驗與泛化驗證的平臺。通過矩陣式任務構建,開發者可以有意識地選擇訓練子空間,并在未見組合上測試模型的泛化能力,而不是簡單追求單任務指標。這種使用方式尤其適合研究跨本體遷移、雙臂協同策略以及力控相關問題,也是該數據集設計時重點考慮的核心場景。

對于希望將算法落地到真實機器人系統中的開發者,白虎-VTouch與OpenLoong現有的本體平臺、控制框架及仿真工具形成了天然銜接。數據、模型與真實本體之間保持一致的接口與語義,使“訓練—推理—部署”不再是割裂的三個階段,而是一條可反復迭代的工程流水線。這一點,也是白虎-VTouch被選擇在OpenLoong開源社區開源發布的重要原因之一。

任務詞云

白虎-VTouch在OpenLoong開源社區開源后,其視觸覺融合數據集、模型實現與任務組織方式已作為公共資源向社區開放,支持開發者直接下載、復現實驗并開展二次開發。圍繞統一的數據結構與基線設置,不同團隊可以在同一操作語境下進行方法對比與系統驗證,降低雙臂操作研究與工程實踐的起步成本。

OpenLoong開源社區將持續匯聚來自不同機器人構形、任務場景與應用方向的實踐反饋,推動數據集與模型在真實使用中不斷完善,歡迎更多開發者與研究者加入OpenLoong開源社區,基于白虎-VTouch數據集開展實驗、提出改進并共同擴展雙臂機器人視觸覺融合的能力邊界。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 開源
    +關注

    關注

    3

    文章

    4203

    瀏覽量

    46120
  • 數據集
    +關注

    關注

    4

    文章

    1236

    瀏覽量

    26188
  • 具身智能
    +關注

    關注

    0

    文章

    389

    瀏覽量

    857

原文標題:首個跨本體視觸覺多模態數據集白虎-VTouch正式在OpenLoong社區開源

文章出處:【微信號:開放原子,微信公眾號:開放原子】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    聯想集團史上最大規模Tech World科技盛會成功舉辦

    2026年1月6日,全球消費電子展CES 2026開幕首日,聯想集團史上最大規模的Tech World科技盛會在全球首座全沉浸式球幕場館——拉斯維加斯大球Sphere成功舉辦。
    的頭像 發表于 01-09 16:29 ?921次閱讀
    聯想集團史上<b class='flag-5'>最大規模</b>Tech World科技盛會成功舉辦

    格靈深瞳模態大模型榮登InfoQ 2025中國技術力量年度榜單

    靈感實驗室聯合LLaVA社區發布模態大模型LLaVA-OneVision-1.5,實現了訓練數據、代碼和模型權重的全鏈路開源,在多項公開
    的頭像 發表于 01-05 10:05 ?502次閱讀

    商湯科技正式發布并開源全新模態模型架構NEO

    商湯科技正式發布并開源了與南洋理工大學S-Lab合作研發的全新模態模型架構 —— NEO,為日日新SenseNova 模態模型奠定了新一
    的頭像 發表于 12-08 11:19 ?1014次閱讀
    商湯科技正式<b class='flag-5'>發布</b>并開源全新<b class='flag-5'>多</b><b class='flag-5'>模態</b>模型架構NEO

    格靈深瞳模態大模型Glint-ME讓圖文互搜更精準

    在電商、安防等場景下,圖文互搜應用廣泛。隨著以CLIP為代表的模態表征方法相繼提出,過去單一模態搜索(文搜文、圖搜圖)被突破,模型可以同時理解文本、圖像、音頻乃至視頻,實現
    的頭像 發表于 11-02 15:56 ?1709次閱讀
    格靈深瞳<b class='flag-5'>多</b><b class='flag-5'>模態</b>大模型Glint-ME讓圖文互搜更精準

    亞馬遜云科技上線Amazon Nova模態嵌入模型

    Embeddings模態嵌入模型現已在Amazon Bedrock上線,這是一款專為Agentic RAG與語義搜索應用打造的頂尖模態嵌入模型。該模型是
    的頭像 發表于 10-29 17:15 ?259次閱讀
    亞馬遜云科技上線Amazon Nova<b class='flag-5'>多</b><b class='flag-5'>模態</b>嵌入模型

    中科曙光助力紫東太初4.0大模型重磅發布

    近日,全球首個“深度推理+模態”大模型——“紫東太初”4.0在2025東湖國際人工智能高峰論壇上正式發布。中科曙光作為核心生態伙伴,依托中
    的頭像 發表于 09-24 09:33 ?642次閱讀

    米爾RK3576部署端側模態輪對話,6TOPS算力驅動30億參數LLM

    首輪推理延遲,適配對響應速度敏感的車載、醫療等場景; 其二,模態融合再升級—— 在圖文基礎上集成語音、傳感器數據,實現 “看 + 聽 + 感知” 的
    發表于 09-05 17:25

    淺析模態標注對大模型應用落地的重要性與標注實例

    ”的關鍵工序——模態標注重要性日益凸顯。 一、什么是模態標注? 模態標注是指對文本、圖像、
    的頭像 發表于 09-05 13:49 ?2224次閱讀

    基于大規模人類操作數據預訓練的VLA模型H-RDT

    近年來,機器人操作領域的VLA模型普遍基于本體機器人數據預訓練,這類方法存在兩大局限:不同機器人本體和動作空間的差異導致統一訓練困難;現
    的頭像 發表于 08-21 09:56 ?1095次閱讀
    基于<b class='flag-5'>大規模</b>人類操作<b class='flag-5'>數據</b>預訓練的VLA模型H-RDT

    Cognizant籌辦最大規模氛圍編程活動

    -Cognizant正在籌辦全球最大規模的氛圍編程活動,以提升數千名員工的AI素養 為抓住人工智能經濟將創造的巨大機遇,Cognizant與Lovable、Windsurf、Cursor
    的頭像 發表于 08-03 18:44 ?667次閱讀
    Cognizant籌辦<b class='flag-5'>最大規模</b>氛圍編程活動

    偉創力高效電源模塊在超大規模數據中心的應用

    受云端存儲和數據處理需求持續增長的推動,數據中心正以前所未有的速度擴張。當前全球大規模數據中心,即規模
    的頭像 發表于 07-07 15:41 ?1257次閱讀

    全球首個胃癌影像篩查AI模型發布

    浙江省腫瘤醫院聯合阿里巴巴達摩院,發布全球首個胃癌影像篩查AI模型DAMO GRAPE,首次利用平掃CT影像識別早期胃癌病灶,并聯合全國20家醫院,在近10萬人的大規模臨床研究中大幅
    的頭像 發表于 06-30 14:37 ?3840次閱讀

    薄型、頻段、大規模物聯網前端模塊 skyworksinc

    電子發燒友網為你提供()薄型、頻段、大規模物聯網前端模塊相關產品參數、數據手冊,更有薄型、頻段、大規模物聯網前端模塊的引腳圖、接線圖、封
    發表于 05-15 18:32
    薄型、<b class='flag-5'>多</b>頻段、<b class='flag-5'>大規模</b>物聯網前端模塊 skyworksinc

    NVIDIA技術驅動帕西尼觸覺感知與人形機器人智能突破

    感知科技實現了從接觸仿真、觸覺信號產生、仿真數據生成,再到觸覺模態模型訓練的全流程 GPU 加速,提升標定和訓練效率 100 倍,完成觸覺
    的頭像 發表于 04-21 09:15 ?1418次閱讀

    ?模態交互技術解析

    模態交互 模態交互( Multimodal Interaction )是指通過多種感官通道(如視覺、聽覺、觸覺等)或多種交互方式(如語音
    的頭像 發表于 03-17 15:12 ?4394次閱讀