成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

15個可交互的真實房屋場景,李飛飛組開源大型室內場景模擬環境

人工智能 新聞
在這項研究中,斯坦福視覺與學習實驗室(SVL)Silvio / 李飛飛組的研究者推出了一個全新的模擬環境 iGibson,從而可以為大型真實場景中的交互任務開發機器人解決方案。

在這項研究中,斯坦福視覺與學習實驗室(SVL)Silvio / 李飛飛組的研究者推出了一個全新的模擬環境 iGibson,從而可以為大型真實場景中的交互任務開發機器人解決方案。iGibson 包含 15 個充分可交互、視覺上逼真、依據真實房屋構建的場景,并且可以支持 CubiCasa5K 和 3D-Front 的 8000 余個場景。真正實現了「可交互性」。

15個可交互的真實房屋場景,李飛飛組開源大型室內場景模擬環境

近來,面向 AI 和機器人的模擬環境得到了大力發展。僅僅幾年前,機器人模擬環境還算是相對稀有的產物,但如今,各大學術會議(NeurIPS、CoRL、甚至 ICRA 和 IROS)幾乎所有與 AI 機器人相關的論文都會用到模擬環境。那么,模擬環境是如何幫助到 AI 發展的呢?可以歸結為以下幾點原因:

首先,在機器人領域,機器學習正逐漸發揮越來越大的作用,從而導致了數據需求的迅猛增長 [2] [3] [4] [5]?,F實世界中,機器人只能“real-time” 即時地產生數據,但海量的數據需求導致了從現實世界收集數據變得不現實。此外,機器學習需要收集的數據具備多樣性,涉及到機器人的隨機探索(random exploration)。如果在現實世界中讓機器人隨機活動,對機器人本身和周遭事物都是有挺大風險的。

其次,在模擬環境變得越來越 robust、逼真(視覺效果和物理引擎)、便捷的同時,算力的增長也導致了大部分機器都可以運行這些模擬環境。因此即便沒有足夠的資金來購置機器人,也可以通過模擬環境來從事機器人研究。模擬環境降低了機器人研究的準入門檻,讓更多的人能推進該領域的發展。

最后,隨著關于各種機器人任務(例如導航、抓握、操作等)的論文數量不斷增長,一個問題也日漸凸顯:機器人領域需要可復現的基準(repeatable benchmark)。一個成熟的學科需要能簡潔、可靠地復現實驗結果,這樣才能讓不同的方法理論得到有效地對比。與現實世界相比,在模擬環境中實現可復現的基準要容易許多。

然而,當前結合物理模擬與機器人任務的模擬環境往往局限于一小類任務,并且僅包含 clean 和小型場景。包含家庭和辦公室等大型場景的少數模擬環境要么無能力改變場景,僅側重于導航性能,如 Habitat;要么使用游戲引擎或者簡化的交互模式,如 AI2Thor、VirtualHome。所以,在處理那些需要與場景進行豐富交互的任務而言,這些模擬器不支持端到端感覺運動控制回路的開發,也就難以完成此類任務。此外,簡化的交互模式也導致很難將可學得的交互策略轉換為可執行的真實機器人指令。

基于如上這些想法,來自斯坦福視覺與學習實驗室(SVL)的研究者開發了 iGibson 以用來訓練和測試 interactive(可交互的)AI 智能體 iGibson。

那么,iGibson 的特殊點在哪里呢?首先我們先來區分一下這兩個概念:

Physics simulator (物理引擎): 物理引擎可以計算不同行為對現環境產生的物理影響。比如對一個物體施加一個力的后果,或者對于水流的模擬。隨著計算機圖形學的發展,現在有許多成熟的物理引擎。其中在機器人領域最為突出的是 Bullet, PyBullet, MuJoCo, Nvidia PhysX and Flex, UnrealEngine, DART, Unity, and ODE 等。

Simulation environment (模擬環境): 模擬環境是一個整體框架,包含多個元件:物理引擎、渲染引擎、模型(包括場景、物體、機器人)等。我們可以用模擬環境模擬一個給定的任務,并用它來研究其解決方案。

那么,對一個研究人員而言,想解決什么任務或想研究什么課題就決定了用什么模擬環境,所謂工欲善其事,必先利其器。對 iGibson 而言,我們想研究的是:基于視覺信號,機器人如何在大型真實場景(如一整間公寓)中解決需要與環境互動的任務。

論文鏈接:https://arxiv.org/pdf/2012.02924.pdf

項目地址:https://github.com/StanfordVL/iGibson/releases/tag/1.0.0

網站地址:http://svl.stanford.edu/igibson/

pip 地址:https://pypi.org/project/gibson2/

doc 地址:http://svl.stanford.edu/igibson/docs/

英文版 blog 地址:https://ai.stanford.edu/blog/igibson/

與現有模擬引擎的對比

已有的模擬引擎無法支持我們想研究的任務,即可以真實地在大型場景中進行物理互動?;诠潭C械臂的模擬環境(如 meta-world, RLBench, RoboSuite, DoorGym)并不包含真實的場景,從而不支持需要在室內導航的任務。為室內導航開發的模擬環境(包括我們之前開發的 Gibson v1 和 Habitat)雖然可以解決視覺導航(visual navigation)和視覺語言導航(visual language navigation),但所包含的場景為三維重建的靜止 mesh 模型。這意味著整個場景被封存在了重建時的位置,物品無法移動,機器人也不能與場景進行交互。

除此之外,例如 Sapien, AI2Thor, ThreeDWorld (TDW)的一些模擬環境開始逐漸支持場景級的交互任務。Sapien 側重的問題是與鉸接(articulated)物體的互動(如門、柜等)。TDW 提供高質量的聲音、形變、液體模擬(基于英偉達的 Flex 物理引擎)。但 Sapien 和 TDW 均不提供大型場景模型,從而不支持有關大型場景的任務研究。AI2Thor 雖包含了可互動的場景,但互動為腳本化的符號交互,把現實中連續的互動和變化離散化了—當物體滿足一個先覺條件,agent 可以發出一個指令,從而這個物體進入其下個狀態。例如,一個冰箱的敞開程度本應是連續值,但現在只有 “開” 和“關”兩個狀態。AI2Thor 之后出現了 RoboThor,但其只提供簡單的傳感器與一種機器人 LoCoBot 的模擬。受限于 LoCoBot 的技術限制與環境的離散化,機器人無法在模擬環境內學習并解決復雜的交互任務。

我們想要研究的任務是復雜的、long-horizon(長線)、 mobile manipulation(移動操作)任務,例如:收拾房間、找尋物品等。為了研究可以落地到現實世界的解決方案,模擬可真實交互的大型場景變得尤為重要。

15個可交互的真實房屋場景,李飛飛組開源大型室內場景模擬環境

iGibson 的一些功能

iGibson 最重要的功能是 interactivity(可交互性),即構建可以真實交互的大型場景。為此,我們實現了如下關鍵功能:

15 個充分可交互、視覺上逼真、依據真實房屋構建的場景。其中所有物體可真實交互,包含了材料與動力學信息;

可支持 CubiCasa5K[6]的 8000 余個場景。

15個可交互的真實房屋場景,李飛飛組開源大型室內場景模擬環境

真實的傳感器信號模擬,包括:RGB (基于物理渲染引擎(Physics-based renderer)),深度圖,1 束或 16 束的激光雷達,語義 / 實例 / 材料分割圖,光流,場景流等;

內置運動規劃算法,用于規劃機器人底座的移動(在環境中導航)與機械臂的移動(抓取操縱物體)。

15個可交互的真實房屋場景,李飛飛組開源大型室內場景模擬環境

內置域隨機化功能,可隨機替換 visual textures (視覺圖像)、材料與動力學信息、物體實例。由此,我們可以產生出無窮無盡的隨機環境用于訓練與測試。

人機交互系統,可為機器人提供人工示范。

iGibson 功能的一些應用

我們在論文中展示了這些功能的用處,例如:iGibson 的光學雷達模擬可以幫助 agent 遷移到真實場景。

iGibson 場景的充分可交互性可以幫助預訓練機器人視覺,從而加速機器人學習并完成復雜的交互任務。

用 iGibson 解決更復雜的機器人任務

上述的 iGibson 功能能幫助人們更好的開發大型場景交互任務的解決方案。我們認為,其中一個很重要的問題是 Interactive Navigation (交互導航)。在這個任務中,agents 不僅需要導航,也需要改變其環境(如開門、移開障礙物)。這種需要改變環境的導航是在現實場景中最常見的。

為了在 iGibson 模擬環境中解決這個任務,我們開發了一套分層強化學習(hierarchical reinforcement learning)算法來決定 agent 的具體動作(當需要交互時用機械臂,當需要移動時用底座,也可同時利用機械臂和底座 [8]。

此外我們也提出了一個結合了運動規劃算法的解決方案:算法來指定下個交互應該在何處發生,運動規劃會基于此計算一條符合運動學且避障的軌跡 [9] 。

但我們認為這只是 iGibson 潛力的冰山一角。目前我們實驗室 SVL(Stanford Vision and Learning Lab)有許多的項目在使用 iGibson,來提出、攻克各種各樣的交互任務。

總結

我們認為模擬環境有極大的潛力來幫助研究人員解決機器人與 AI 的各種問題。iGibson 是一個完全開源的、面向大型場景交互任務的模擬環境。我們真心希望 iGibson 能為機器人與 AI 的研究做出貢獻。

注:關于 Gibson: iGibson 的名字來源于心理學、認知科學泰斗 James J. Gibson [1904-1979]。Gibson 生前提出了許多開創性的想法,包括關于知覺的新概念:

知覺是一個生態(ecological)的過程,即本體不應從其所處的生態環境中剝離出去;

知覺是一個動態(active)的過程,即知覺需要交互和主觀能動性。

在當時,主流學說認為知覺是一個被動接受并處理的過程。Gibson 的觀點則相反,認為 agents 是在與環境的交互中主動尋求、而不是被動接受信息。Gibson 也提出了 “affordance”(承擔特質)的概念:環境給予 agent 的行動可能,例如門提供“打開” 的功能,椅子提供 “支撐” 的功能。我們同事是這樣概括 Gibson 先生的 research 的:“ask not what’s inside your head, but what your head is inside of” (不要光注重于你腦中的世界,請著眼于你所處的世界)。 

責任編輯:張燕妮 來源: 機器之心Pro
相關推薦

2021-08-27 10:04:53

機器人

2018-04-09 12:44:45

Docker使用場景開發

2015-01-06 09:48:34

Docker多租戶docker應用

2023-11-27 07:40:55

2023-11-05 15:15:47

AI技術

2020-07-27 10:23:10

開源技術 數據

2024-12-23 13:50:00

數據訓練模型

2022-04-28 23:27:08

人工智能機器學習工具

2022-02-28 08:55:31

數據庫MySQL索引

2022-09-14 12:21:04

開源軟件

2021-09-16 15:41:59

機器學習數據科學算法

2011-03-28 16:23:23

nagios開源監控

2024-06-21 13:18:25

模型訓練

2020-04-07 15:22:56

李飛飛AI人工智能

2023-04-20 18:45:44

2011-06-28 07:45:00

開發測試云微軟研究院云計算案例

2024-10-14 14:30:00

2025-02-08 09:30:00

2024-12-13 14:20:00

AI模型訓練

2019-04-10 15:37:32

人工智能自動駕駛技術
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 一道本在线 | 91在线视频播放 | 蜜月aⅴ国产精品 | 日韩免费视频 | 亚洲精品久久久久久国产精华液 | 精品国产一区二区三区久久 | 国产精品美女久久久 | 日韩精品 电影一区 亚洲 | 一区二区成人在线 | 在线中文字幕第一页 | 国产福利在线小视频 | 国产女人与拘做受视频 | 国产在线观| 精品久久久久久久人人人人传媒 | 精品一区国产 | 欧美一区二区三区在线看 | 欧美日韩国产在线观看 | 久久亚洲国产精品日日av夜夜 | 精品成人免费一区二区在线播放 | 日本天堂视频在线观看 | 日本精品一区二区三区在线观看视频 | www.99热这里只有精品 | 看毛片的网站 | 国产精品欧美精品 | 美日韩精品 | 欧美精品91 | 91av视频在线免费观看 | 日韩在线一区二区三区 | 国产精品久久久久免费 | 亚洲午夜精品视频 | 欧美另类日韩 | 国产精品视频久久 | 中国黄色在线视频 | 欧美高清视频一区 | av网站免费观看 | 成人高清在线 | 亚洲精品视频免费 | 伊人一区 | 亚洲激情综合 | 国产精品视频免费播放 | 一区二区精品在线 |