成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

重塑跨智能體靈巧手抓取,NUS邵林團隊提出全新交互式表征,斬獲CoRL Workshop優秀機器人論文獎

人工智能
在本論文中,我們提出了一種基于相對距離矩陣 D(R,O) 的新穎表征方法,用于捕捉機器人手與物體之間的交互信息,從而提升靈巧手的抓取性能。與現有方法過于依賴特定物體或機器手表示的局限性不同,我們的方法通過引入統一框架彌合了這種差距,并在不同機器人和物體幾何形狀之間實現了良好的泛化能力。

想象一下,市面上有數十種形態各異的靈巧手,每一款都被設計得精巧而獨特。然而,是否有可能存在一種通用的抓取策略,無需為每款靈巧手單獨優化,卻能夠適應各種機器人手型和多樣物體形狀?這一看似遙不可及的夢想,正在逐步成為現實。

靈巧抓取是機器人操作領域的一項核心挑戰,它要求機器人手能夠與物體實現精確且穩定的交互接觸。然而,如何有效建模這種高自由度且復雜的交互關系,并生成精準、多樣且高效的抓取策略,一直是該領域亟待解決的難題。

近期,新加坡國立大學計算機學院的邵林團隊提出了 D(R,O) Grasp:一種面向跨智能體靈巧抓取的機器人與物體交互統一表示。該方法通過創新性地建模機器人手與物體在抓取姿態下的交互關系,成功實現了對多種機器人手型與物體幾何形狀的高度泛化能力,為靈巧抓取技術的未來開辟了全新的方向。該論文在 CoRL 2024 MAPoDeL Workshop 中獲得了 Best Robotics Paper Award。

圖片

  • 論文標題:D(R,O) Grasp: A Unified Representation of Robot and Object Interaction for Cross-Embodiment Dexterous Grasping
  • 項目主頁:https://nus-lins-lab.github.io/drograspweb/
  • 論文鏈接:https://arxiv.org/abs/2410.01702
  • 代碼鏈接:https://github.com/zhenyuwei2003/DRO-Grasp

一、引言

靈巧抓取是機器人完成復雜操作任務的關鍵,但由于靈巧手的高自由度及穩定抓取所需的復雜交互,任務挑戰巨大。目前基于深度學習的方法主要分為機器人中心 (robot-centric) 和物體中心 (object-centric) 兩類。

機器人中心方法(如手腕姿態或關節角度表示)直接將觀測映射為控制命令,推理速度快,但樣本效率低,且因映射依賴特定機器人結構,難以泛化到不同手型。

物體中心方法(如接觸點和接觸熱力圖表示)通過描述物體幾何與接觸信息,泛化能力強,適應不同物體和手型。然而,需額外優化步驟(如指尖逆運動學求解)將預測結果轉化為運動學可行的抓取姿態,計算復雜且耗時。

為克服這些局限,我們提出交互中心 (interaction-centric) 的統一表示 D(R,O)。該方法捕捉機器手運動學與物體幾何的交互關系,彌補機器人中心方法的泛化不足,同時提升物體中心方法的推理效率,實現跨機器人手型與物體形狀的泛化,為靈巧抓取提供高效且魯棒的解決方案。

圖片

圖 1 靈巧手抓取方法比較

二、方法

圖片

圖 2 D(R,O) Grasp 整體框架

給定物體點云和機器人手的 URDF 文件,模型的目標是生成靈巧且多樣化的抓取姿態,能夠在不同的物體和機器人手型之間實現廣泛的泛化。D(R,O) Grasp 整體框架如圖 2 所示,主要有以下三個部分組成:

  • 基于對比學習的配置不變預訓練
  • D(R,O)表征預測
  • 基于 D(R,O) 表征的抓取姿態生成

1.基于對比學習的配置不變預訓練

學習靈巧抓取需要理解機器手與物體的空間關系,目標是將機器手的特定配置與物體匹配。然而,由于不同配置下機器手整體姿態變化顯著,模型難以捕捉局部幾何特征的一致性。為此,我們提出一種配置不變的預訓練方法,通過訓練神經網絡對齊不同配置下的幾何特征,促進匹配并提升多姿態適應能力。

我們首先采樣并存儲機器手各 link 的點云數據。基于前向運動學模型,可為任意配置計算對應點云,確保不同配置下點云的一致性。在預訓練中,規范配置(如張開手姿態)和抓取配置的點云分別輸入機器人編碼器網絡提取逐點特征。我們通過點間歐氏距離加權正負點對關系,進行逐點對比學習,并計算如下損失函數:

圖片

該方法通過對齊不同配置下編碼器的幾何特征,簡化機器手與物體匹配難度,提高模型的泛化能力。

2.D(R,O) 表征預測

我們預測的 D(R,O) 表征是一個機器手點云和物體點云之間相對距離矩陣(Distances of Robot and Object)。首先,我們使用兩個相同結構的編碼器分別提取機器手點云和物體點云的幾何特征:

圖片

在此過程中,機器手的編碼器使用預訓練網絡并在訓練中保持凍結。為建立兩組特征的對應關系,我們引入兩個 Transformer 模型嵌入點間對應信息,并使用殘差連接:

圖片

為實現跨智能體抓取的多樣性,我們采用條件變分自編碼器(CVAE)網絡捕捉機器手、物體與抓取姿態的多種組合變化。具體而言,將機器手與物體在抓取姿態下的點云拼接后輸入 CVAE 編碼器,利用點云特征作為條件生成隱變量。隨后,將隱變量與每個點特征拼接,得到機器手和物體的綜合特征。

對于機器手某點與物體某點的綜合特征,我們采用結合 MLP 網絡和 softplus 函數的核函數計算相對距離,確保結果具有對稱性和非負性:

圖片

通過對所有點對進行上述計算,我們最終得到完整的 D(R,O) 表征如下:

圖片

3.基于 D(R,O) 表征的抓取姿態生成

給定預測的 D(R,O) 表征,我們獲得了機器人手點云與物體點云之間的相對距離關系。由于物體點云已知,我們可利用這些距離關系通過多點定位(Multilateration)技術計算出隱式描述的機器人手點云。本質上,這是一個最小二乘優化問題:

該問題已證明具有閉式解,可快速計算機器人手點云。在三維空間中,確定一個點的位置僅需四個相對距離,而 D(R,O) 表征提供了上百個距離。相比直接預測點云,這種表征對神經網絡預測誤差更加魯棒。

得到機器人手點云后,為求解相應關節值,我們將逆運動學分為兩步:首先,使用 SVD 分解從點云計算出每個 link 的 6D 姿態;然后,以這些 6D 姿態為優化目標,利用雅克比矩陣迭代更新初始關節值,最終得到期望抓取姿態的關節值。

這一優化過程約束簡單,即便是 ShadowHand 等高自由度靈巧手,也可在不到 1 秒內完成優化,大幅提升抓取生成速度。

三、實驗結果

圖片

圖 3 與 baseline 的實驗結果對比

在實驗中,我們評估了抓取成功率、姿態多樣性及生成效率三個指標。抓取結果在 10 個全新物體上進行了測試,使用 Barrett、Allegro 和 ShadowHand 三款靈巧手進行比較。圖 3 表顯示,我們的方法在所有靈巧手上都顯著超越了現有方法的成功率,驗證了方法的有效性。此外,生成速度亦大幅優于其他方法,這對靈巧操控任務至關重要。

圖片

圖 4 生成抓取與 baseline 失敗抓取可視化

與基準方法相比,我們的方法生成的抓取姿態更自然且魯棒,而基準方法易產生不自然、穿透嚴重且穩定性差的抓取。

圖片

圖 5 不同條件下實驗結果對比

從圖 5 表前兩行可見,跨智能體訓練較單一機器人訓練在成功率上略有提升,證明了跨智能體的良好泛化能力。即便輸入部分點云,我們的方法也能取得優異表現,展示了其廣泛適用性。

圖片

圖 6 多樣化的抓取姿態生成

由于訓練數據中輸入和抓取旋轉已對齊,模型能隱式映射這些旋轉,從而根據輸入方向生成適宜抓取姿態。如圖 6 所示,六個不同方向下模型均生成可行抓取,體現方法的可控性。同時,通過從正態分布中采樣隱變量,模型在相同方向上生成多個抓取姿態,展現多樣性。

圖片

圖 7 預訓練點云匹配可視化

圖 7 展示了預訓練模型捕捉到的不同配置下幾何特征的對齊關系,不同機器人手間的強匹配性突顯了特征的遷移能力。正如圖 3 表所示,去除預訓練參數直接訓練編碼器會導致性能顯著下降,進一步證明預訓練的重要性。

圖片

圖 8 真機實驗效果

在真實機器人實驗中,算法部署到 XArm 和 LeapHand 上,并在 10 個全新物體實驗中達成 89% 成功率,展現了方法在靈巧抓取中的有效性和良好泛化能力。更多實驗視頻請見項目主頁。

圖片

四、總結

在本論文中,我們提出了一種基于相對距離矩陣 D(R,O) 的新穎表征方法,用于捕捉機器人手與物體之間的交互信息,從而提升靈巧手的抓取性能。與現有方法過于依賴特定物體或機器手表示的局限性不同,我們的方法通過引入統一框架彌合了這種差距,并在不同機器人和物體幾何形狀之間實現了良好的泛化能力。此外,我們設計的預訓練方法有效增強了模型適應不同手部配置的能力,從而支持廣泛的機器人系統應用。實驗結果表明,我們的方法在抓取成功率、姿態多樣性以及計算效率方面均取得了顯著提升,為靈巧抓取任務提供了新的解決方案。

責任編輯:姜華 來源: 機器之心
相關推薦

2025-03-19 10:26:10

2025-04-14 10:05:00

模型AI框架

2025-05-30 08:55:00

機器人AI訓練

2021-05-13 09:00:00

人工智能機器人web

2025-06-09 09:03:58

2024-10-06 16:50:00

AI訓練

2013-04-10 14:51:43

IDF2013英特爾施浩德

2022-10-26 13:27:12

論文

2024-03-15 15:15:15

數據模型開源

2025-04-25 09:17:00

2023-11-10 12:53:35

論文AI

2022-05-19 08:12:15

Windows 11微軟操作系統

2020-12-11 08:00:00

數據可視化工具大數據

2022-12-19 14:39:29

機器人論文

2020-12-25 16:30:17

機器學習/隱私保護

2024-11-01 14:52:24

2017-09-13 10:29:26

iPhone XiPhone 8
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 久久福利电影 | 久久机热| 欧美一级片在线看 | 国产成人免费在线 | 国产在线精品一区二区三区 | 日韩一级 | 亚洲 中文 欧美 日韩 在线观看 | 日本特黄a级高清免费大片 国产精品久久性 | 免费观看的黄色网址 | 色五月激情五月 | av网站在线免费观看 | 在线婷婷 | 久久久久免费精品国产小说色大师 | 久久专区 | 久久九七 | 中文字幕一区二区视频 | 4h影视 | 久久日韩精品 | 成人日韩av | 日韩色图视频 | 国产精品久久久久久久午夜片 | 玖玖综合网 | 亚洲精品在线免费 | 999精品网| 国产一级毛片视频 | 美国黄色一级片 | 在线免费看黄 | 99国产精品一区二区三区 | 欧美中文 | 欧美精品在线一区 | 91精品国产综合久久久久久漫画 | 日韩一区二区三区在线 | 精品久久久久久久 | 91av在线免费 | 一区二区三区视频在线免费观看 | 羞羞视频在线观看 | 在线视频一区二区 | 精品国产色 | 欧美精产国品一二三区 | 欧美在线一区二区三区 | 日本天堂视频在线观看 |