1月27日,螞蟻集團旗下螞蟻靈波科技發布其首個開源的空間感知模型LingBot-Depth,并宣布與奧比中光達成戰略合作意向。作為行業領先的機器人及AI視覺科技公司,奧比中光在LingBot-Depth模型的研發與測試階段提供了關鍵硬件支持,LingBot-Depth模型已通過奧比中光深度視覺實驗室認證。未來,雙方將持續展開技術協同,共同推動空間智能從算法創新走向真實場景落地。
螞蟻靈波科技作為螞蟻集團旗下的具身智能公司,專注具身智能基座的研發,本次發布的LingBot-Depth攻克了具身智能在真實復雜環境中面臨的視覺感知難題。針對玻璃、鏡面、金屬等透明或高反光物體導致的深度信息缺失,該模型基于奧比中光的Gemini 330 系列雙目3D相機提供的芯片級3D原始數據,智能補全深度信息,顯著提升機器人在復雜光學場景下的感知魯棒性與作業成功率。

在最具挑戰的稀疏深度補全任務中,LingBot-Depth性能整體優于現有多種主流模型。圖中數值越低代表性能越好。(圖片來源:螞蟻靈波科技)
隨著機器人、具身智能不斷向各類場景延伸,AI對空間環境的感知與理解能力至關重要。而前沿算法模型的落地與持續優化,離不開高性能、高可靠性的硬件支持。奧比中光Gemini 330系列雙目3D相機搭載其專為機器人場景自研的深度引擎芯片MX6800,融合主動與被動成像技術,能夠在從漆黑到陽光的各種光照條件下,輸出精準、可靠的三維數據;其次,自研芯片的加持,使高性能深度圖像計算及高精度傳感器同步都可在相機中完成,從而降低上位機算力要求,實現極低的數據傳輸時延。
LingBot-Depth模型依托奧比中光Gemini 330系列雙目3D相機進行RGB-Depth數據采集與效果驗證,并基于深度引擎芯片直出的深度數據進行訓練與優化,實現了空間智能算法的創新突破。值得一提的是,LingBot-Depth模型已通過奧比中光深度視覺實驗室的專業認證,在精度、穩定性及復雜場景適應性方面均達到行業領先水平。
基于奧比中光的芯片級3D原始數據,LingBot-Depth在透明及反光場景下深度圖的完整性和邊緣清晰度明顯提升。(圖片來源:螞蟻靈波科技)
目前,雙方已達成戰略合作伙伴關系,將基于LingBot-Depth模型推出新一代深度相機,依托Gemini 330系列相機提供的芯片級3D數據,進一步通過技術協同、生態共建,為機器人處理各行各業極端場景、走向真正落地提供強大的技術支撐。
螞蟻靈波科技CEO朱興表示,LingBot-Depth驗證了“高質量芯片級深度數據+面向真實場景的算法建模”對提升復雜環境可用性的價值。在不改變既有傳感器形態的前提下,通過軟硬協同與工程化評測閉環,有望讓更多機器人在透明/反光等高難場景中獲得更穩定的深度輸入。
奧比中光泛機器人產品中心負責人鐘亮洪表示,空間智能的落地離不開硬件與算法的深度協同。螞蟻靈波在空間智能模型與算法層面的探索,與奧比中光在3D視覺芯片及機器人視覺方面的技術積累形成了良好的互補。此次合作中,Gemini 330提供的芯片級深度數據,為LingBot-Depth模型提供了真實、穩定、高質量的數據基礎,這是機器人“腦眼”聯動、軟硬協同的典型實踐。
自2015年開始深耕機器人賽道,奧比中光致力于構建“機器人與 AI 視覺產業中臺”,已為全球超過3000家客戶與開發者提供技術與產品,目前在中國服務機器人、韓國移動機器人3D視覺領域市占率均超過70%。未來,螞蟻靈波與奧比中光將圍繞“具身感知 × 空間智能”持續深化合作,攜手推動空間智能技術在復雜環境中的穩定部署與規模化應用,加速機器人邁向“看清并行動于真實世界”。
-
機器人
+關注
關注
213文章
31074瀏覽量
222189 -
奧比中光
+關注
關注
1文章
178瀏覽量
9207 -
螞蟻集團
+關注
關注
0文章
107瀏覽量
4612
原文標題:從具身感知到空間智能:奧比中光攜手螞蟻靈波加速機器人“看清世界”
文章出處:【微信號:orbbec,微信公眾號:奧比中光】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
奧比中光與螞蟻靈波達成戰略合作意向
評論