成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

終結者最強大腦!谷歌發布史上最大「通才」模型PaLM-E,5620億參數,看圖說話還能操控機器人

人工智能 新聞
谷歌剛剛上線了一個炸彈級「通才」模型PaLM-E,足足有5620億參數。它是一種多模態具身視覺語言模型,從引導機器人執行任務,到回答關于可觀察世界的問題,全都能搞定。

大語言模型的飛速「變異」,讓人類社會的走向越來越科幻了。點亮這棵科技樹后,「終結者」的現實仿佛離我們越來越近。

前幾天,微軟剛宣布了一個實驗框架,能用ChatGPT來控制機器人和無人機。

谷歌當然也不甘其后,在周一,來自谷歌和柏林工業大學的團隊重磅推出了史上最大視覺語言模型——PaLM-E。

圖片

論文地址:https://arxiv.org/abs/2303.03378

作為一種多模態具身視覺語言模型 (VLM),PaLM-E不僅可以理解圖像,還能理解、生成語言,而且竟然還能將兩者結合起來,處理復雜的機器人指令。

此外,通過PaLM-540B語言模型與ViT-22B視覺Transformer模型相結合,PaLM-E最終的參數量高達5620億。

圖片

橫跨機器人、視覺-語言領域的「通才」模型

PaLM-E,全稱Pathways Language Model with Embodied,是一種具身視覺語言模型。

它的強大之處在于,能夠利用視覺數據來增強其語言處理能力。

圖片

當我們訓練出最大的視覺語言模型,并與機器人結合后,會發生什么?結果就是PaLM-E,一個 5620億參數、通用、具身的視覺語言通才——橫跨機器人、視覺和語言

據論文介紹,PaLM-E是一個僅有解碼器的LLM,在給定前綴(prefix)或提示(prompt)下,能夠以自回歸方式生成文本補全。

其訓練數據為包含視覺、連續狀態估計和文本輸入編碼的多模式語句。

經過單個圖像提示訓練,PaLM-E不僅可以指導機器人完成各種復雜的任務,還可以生成描述圖像的語言。

可以說,PaLM-E展示了前所未有的靈活性和適應性,代表著一次重大飛躍,特別是人機交互領域。

更重要的是,研究人員證明,通過在多個機器人和一般視覺語言的不同混合任務組合進行訓練,可以帶來從視覺語言轉移到具身決策的幾種方法,讓機器人規劃任務時能夠有效地利用數據。

圖片

除此之外,PaLM-E尤為突出的一點在于,擁有強大的正遷移能力。

在不同領域訓練的PaLM-E,包括互聯網規模的一般視覺-語言任務,與執行單一任務機器人模型相比,性能明顯提高。

圖片

而在模型尺度上,研究人員則觀察到了一個顯著的優勢。

語言模型越大,在視覺語言與機器人任務的訓練中,保持的語言能力就越強。

從模型規模來看,5620億參數的PaLM-E幾乎保持了它所有的語言能力。

盡管只在單個圖像進行訓練,但PaLM-E在多模態思維鏈推理和多圖像推理等任務中表現出突出的能力。

在OK-VQA基準上,PaLM-E取得了新的SOTA。

圖片

測評結果

在測試中,研究人員展示了如何使用PaLM-E在兩個不同實體上執行規劃以及長跨度的任務。

值得注意的是,所有這些結果都是使用基于相同數據訓練的相同模型獲得的。

在以前,機器人通常需要人工的協助才能完成長跨度任務。但現在,PaLM-E通過自主學習就可以搞定了。

圖片

比如,「從抽屜里拿出薯片」這類指令中,就包括了多個計劃步驟,以及來自機器人攝像頭的視覺反饋。

經過端到端訓練的PaLM-E,可以直接從像素開始對機器人進行規劃。由于模型被集成到一個控制回路中,所以機器人在拿薯片的過程中,對途中的干擾都有魯棒性。

人類:給我來點薯片。

機器人:1. 走到抽屜旁 2.打開最上面的抽屜 3. 從最上面的抽屜里拿起綠色的薯片 4.放在柜臺上。

圖片

同樣,讓機器人去拿一個蘋果時,給出圖片后,機器人執行任務步驟如下——

人類:給我拿一個蘋果。

機器人:1.走向蘋果 2.拿起蘋果 3.把它拿給操作員 4.放下蘋果 5.完成。

圖片

除了執行長跨度任務,PaLM-E可以讓機器人執行規劃任務,比如排列積木。

研究人員根據視覺和語言輸入成功地進行多階段的計劃,并結合了長時間范圍的視覺反饋,進而讓模型能夠成功地規劃一個長周期的任務「將積木按顏色分類到不同的角落」。

如下,在排列組合上,機器人化身為多面手,按顏色將積木排序。

圖片

模型的泛化方面,PaLM- E控制的機器人可以把紅色積木移到咖啡杯的旁邊。

值得一提的是,數據集只包含有咖啡杯的三個演示,但其中沒有一個包括紅色的積木塊。

圖片

類似的,雖然模型此前從未見過烏龜,但照樣可以順利地把綠色積木推到烏龜旁邊

圖片

在零樣本推理方面,PaLM-E可以在給定圖像的情況下講述笑話,并展示了包括感知,基于視覺的對話和計劃在內的能力。

圖片

多張圖的關系,PaLM-E也整得很明白,比如圖一(左)在圖二(右)的哪個位置。

圖片

此外,PaLM-E還可以在給定帶有手寫數字的圖像執行數學運算。

比如,如下手寫餐館的菜單圖,2張披薩需要多少錢,PaLM-E就直接給算出來了。

圖片

以及一般的QA和標注等多種任務。

圖片

最后,研究結果還表明,凍結語言模型是通向完全保留其語言能力的通用具身多模態模型的可行之路。

但同時,研究人員還發現了一條解凍模型的替代路線,即擴大語言模型的規模可以顯著減少災難性遺忘。

責任編輯:張燕妮 來源: 新智元
相關推薦

2023-03-09 06:31:14

視覺語言模型人工智能

2025-03-21 10:21:19

2018-05-06 16:52:51

2023-02-27 09:40:47

機器人ChatGPT

2022-08-18 15:13:37

模型參數

2023-03-10 13:01:50

模型AI

2017-01-09 17:41:41

2021-10-25 09:06:29

模型人工智能計算

2019-10-29 09:10:05

機器人人工智能系統

2009-06-04 15:26:18

2022-08-17 14:35:49

谷歌機器人模型

2024-07-12 13:40:23

2012-09-10 09:28:51

2023-04-06 13:45:50

模型

2017-03-30 09:21:15

智能機器人互動

2023-05-19 10:26:01

谷歌模型

2009-03-23 09:00:19

ChromeGoogle瀏覽器

2019-01-16 23:58:06

曠視科技機器人

2025-06-06 08:52:00

機器人智能推理

2023-09-21 10:29:01

AI模型
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 久久久久久国产精品三区 | 国产成人精品综合 | 69堂永久69tangcom | 伊人色综合久久久天天蜜桃 | 一区二区成人 | 国产高清免费视频 | 日韩精品999| 日本在线看片 | 久久一区二区视频 | 一区二区三区免费观看 | 国产精品精品视频一区二区三区 | 久久久久久国产精品 | 成人做爰9片免费看网站 | 国产在线一区观看 | 中文字幕 在线观看 | 国产精品一区久久久 | 91视频进入 | 在线免费观看一区二区 | 欧美日韩黄色一级片 | 久久人体视频 | 久久久高清 | www.蜜桃av.com | caoporn国产精品免费公开 | 久久国产精品99久久久久 | 欧美 日韩 综合 | www.中文字幕.com | 午夜私人影院在线观看 | 亚洲精品二区 | 精品区一区二区 | 亚洲成人一区二区在线 | 不卡的av在线| 欧美一区二区三区四区视频 | 黑人精品欧美一区二区蜜桃 | 中文字幕日韩欧美一区二区三区 | 亚洲一区二区中文字幕在线观看 | 性色视频在线观看 | 久草在线青青草 | 国产乱码精品一区二区三区忘忧草 | 日韩亚洲视频 | 国产欧美一区二区三区日本久久久 | 欧美性jizz18性欧美 |