成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

一文盤點(diǎn)NeurIPS'22杰出論文亮點(diǎn)!英偉達(dá)AI大佬一句話總結(jié)每篇重點(diǎn),一并看透今年技術(shù)趨勢(shì)

人工智能 新聞
總結(jié)推文發(fā)出之后,立刻在網(wǎng)上掀起一陣熱度,眾多AI大佬都在轉(zhuǎn)發(fā)。

本文經(jīng)AI新媒體量子位(公眾號(hào)ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請(qǐng)聯(lián)系出處。

15篇NeurIPS’22杰出論文重磅出爐,具體亮點(diǎn)都是啥?

來(lái)來(lái)來(lái),大佬已經(jīng)幫你總結(jié)好了!

圖片

師從李飛飛,現(xiàn)在在英偉達(dá)工作的大佬,用49條推文,帶你回顧過(guò)去一年AI圈的重要研究。

雖然到不了NeurIPS’22的現(xiàn)場(chǎng),但也能提前在推特上體驗(yàn)下大會(huì)的盛況。

總結(jié)推文發(fā)出之后,立刻在網(wǎng)上掀起一陣熱度,眾多AI大佬都在轉(zhuǎn)發(fā)。

圖片

還有人從中看出了今年的技術(shù)趨勢(shì)。

圖片

每篇亮點(diǎn)都是啥?

總結(jié)這一線程的老哥名叫Linxi”Jim”Fan(以下簡(jiǎn)稱Jim)。

對(duì)于每篇論文,他都給出了一句話提煉亮點(diǎn),并簡(jiǎn)要解釋了自己的看法,還將論文地址和相關(guān)拓展鏈接一并附上。

具體都講了啥,我們一篇篇來(lái)看~

圖片

1、訓(xùn)練計(jì)算最優(yōu)的大語(yǔ)言模型

一句話總結(jié):提出一個(gè)700億規(guī)模的新語(yǔ)言模型“Chinchilla”,效果比千億級(jí)別GPT-3、Gopher更強(qiáng)。

Jim表示,通過(guò)這個(gè)模型,研究人員證明了想要實(shí)現(xiàn)“計(jì)算最優(yōu)”,模型大小和訓(xùn)練數(shù)據(jù)規(guī)模必須同等縮放。

這意味著,目前大多數(shù)大語(yǔ)言模型的訓(xùn)練數(shù)據(jù)是不夠的。

再考慮到新的縮放定律,即使將模型參數(shù)擴(kuò)大到千萬(wàn)億級(jí),效果恐怕也不及將訓(xùn)練token提升4倍。

圖片

2、谷歌Imagen的強(qiáng),在于文本編碼器

一句話總結(jié):Imagen是一個(gè)大型從文本到圖像的超分辨率擴(kuò)散模型,可以生成逼真圖像,并且在評(píng)級(jí)中擊敗了Dall·E 2。

Jim指出,和Dall·E 2相比,Imagen使用了更為強(qiáng)大的文本編碼器T5-XXL,這直接影響了它的語(yǔ)言理解能力。

比如同題對(duì)比中,左邊是谷歌Imagen選手眼中的“貓貓絆倒人類雕像”,右邊DALL·E 2選手的創(chuàng)作則是醬嬸兒的:

圖片

3、ProcTHOR:房間模型模擬器

一句話總結(jié):ProcTHOR是一個(gè)可以生成大量定制化、可實(shí)際應(yīng)用房間模型的AI。

和Chinchilla一樣,ProcTHOR也需要大量數(shù)據(jù)來(lái)訓(xùn)練,然后從中摸索出自己的生成方案。

該成果由艾倫人工智能實(shí)驗(yàn)室提出,在此之前他們還為家用機(jī)器人提出了一些模型,如AI2THOR 和 ManipulaTHOR,可以讓他們感知房間環(huán)境。

4、MineDojo:看70000小時(shí)《我的世界》視頻學(xué)會(huì)人類高級(jí)技巧

圖片

一句話總結(jié):該研究提出一個(gè)由3個(gè)智能體(agent)組成的“具身GPT-3”,可以感知無(wú)限世界并在其中行動(dòng)。

研究團(tuán)隊(duì)認(rèn)為,想要訓(xùn)練出通才agent需要具備3方面因素:

第一、一個(gè)開放的環(huán)境,可以包含無(wú)限不同種類的任務(wù)(比如地球就是個(gè)開放環(huán)境);

第二、一個(gè)大規(guī)模知識(shí)庫(kù),可以教會(huì)AI做什么事、該做哪些事;

第三、足夠靈活的代理框架,能將知識(shí)轉(zhuǎn)化為實(shí)際操作。

綜上,《我的世界》是一個(gè)絕佳的訓(xùn)練場(chǎng)地。研究團(tuán)隊(duì)讓AI看了70000小時(shí)《我的世界》視頻后,它學(xué)會(huì)了使用鉆石鎬、打造“簡(jiǎn)易避難所”等人類玩家的高級(jí)操作。

值得一提的是,該成果的模擬套件、數(shù)據(jù)庫(kù)、算法代碼、預(yù)訓(xùn)練模型,甚至注釋工具,全部對(duì)外開源

圖片

5、LAION-5B:史上最大規(guī)模公共開放的多模態(tài)圖文數(shù)據(jù)集

圖片

一句話總結(jié):一個(gè)包含58.5億個(gè)CLIP過(guò)濾的圖像-文本對(duì)數(shù)據(jù)集。

LAION-5B不用過(guò)多介紹了,Stable Diffusion使用正是它。

該數(shù)據(jù)集獲得了今年NeurIPS最杰出數(shù)據(jù)集論文獎(jiǎng)。

圖片

目前Stable Diffusion 2也已經(jīng)上線了。

6、超越神經(jīng)網(wǎng)絡(luò)縮放定律:通過(guò)數(shù)據(jù)集修剪擊敗冪律

圖片

一句話總結(jié):通過(guò)仔細(xì)篩選訓(xùn)練示例、而不是盲目收集更多數(shù)據(jù),有可能大大超越神經(jīng)網(wǎng)絡(luò)的縮放定律。

該研究中,Meta和斯坦福的學(xué)者們通過(guò)數(shù)據(jù)蒸餾,縮小數(shù)據(jù)集規(guī)模,但是保持模型性能不下降。

實(shí)驗(yàn)驗(yàn)證,在剪掉ImageNet 20%的數(shù)據(jù)量后,ResNets表現(xiàn)和使用原本數(shù)據(jù)時(shí)的正確率相差不大。

研究人員表示,這也為AGI實(shí)現(xiàn)找出了一條新路子。

7、讓AI自己調(diào)超參數(shù)

圖片

一句話總結(jié):使用超級(jí)隨機(jī)梯度下降法,實(shí)現(xiàn)自動(dòng)調(diào)超參數(shù)。

谷歌大腦設(shè)計(jì)了一個(gè)基于AI的優(yōu)化器VeLO,整體由LSTM(長(zhǎng)短期記憶網(wǎng)絡(luò))和超網(wǎng)絡(luò)MLP(多層感知機(jī))構(gòu)成。

其中每個(gè)LSTM負(fù)責(zé)設(shè)置多個(gè)MLP的參數(shù),各個(gè)LSTM之間則通過(guò)全局上下文信息進(jìn)行相互協(xié)作。

采用元訓(xùn)練的方式,VeLO以參數(shù)值和梯度作為輸入,輸出需要更新的參數(shù)。

結(jié)果表明,VeLO在83個(gè)任務(wù)上的加速效果超過(guò)了一系列當(dāng)前已有的優(yōu)化器。

圖片

8、利用自然語(yǔ)言和程序抽象讓機(jī)器學(xué)會(huì)人類歸納性偏好

圖片

一句話總結(jié):利用自然語(yǔ)言描述和引導(dǎo)程序,讓智能體的行為更像人類。

論文表明,語(yǔ)言和程序中存儲(chǔ)了大量人類抽象先驗(yàn)知識(shí),智能體可以在元強(qiáng)化學(xué)習(xí)設(shè)置中學(xué)到這些歸納性偏好。

如下是是否使用人類抽象先驗(yàn)知識(shí)的對(duì)比:

圖片

9、新方法提高擴(kuò)散模型生成結(jié)果

一句話總結(jié):英偉達(dá)通過(guò)對(duì)擴(kuò)散模型的訓(xùn)練流程進(jìn)行分析,得到新的方法來(lái)提高最后生成的結(jié)果。

圖片

此次研究提出了很多實(shí)用的方法改進(jìn)了模型的生成效果:

  • 一個(gè)新的采樣過(guò)程,大大減少了合成過(guò)程中的采樣步數(shù);
  • 改進(jìn)了訓(xùn)練過(guò)程中噪聲水平的分布;
  • 其他一些改進(jìn)方法,如non-leaking增強(qiáng),即不會(huì)將生成分布暴露給生成器。

10、神經(jīng)語(yǔ)料庫(kù)索引器(NCI)

一句話總結(jié):NCI可以直接為特定的查詢生成相關(guān)的文檔標(biāo)識(shí)符,并顯著提高信息檢索性能。

圖片

傳統(tǒng)的檢索系統(tǒng)是基于文檔向量嵌入和最近鄰搜索。

而NCI則使用了一個(gè)端到端的可微模型,極大地簡(jiǎn)化了搜索管道,并且有可能在單個(gè)框架中統(tǒng)一檢索、排序和Q&A

圖片

11、一種新的采樣方法

一句話總結(jié):加州大學(xué)設(shè)計(jì)出一個(gè)最有效的算法從多個(gè)分布中進(jìn)行采樣,按需采樣。

圖片

研究利用隨機(jī)零和博弈的方法研究了多重分布學(xué)習(xí)問(wèn)題。

多重分布學(xué)習(xí)在機(jī)器學(xué)習(xí)公平性、聯(lián)邦學(xué)習(xí)以及多主題協(xié)作中都有著重要的應(yīng)用。

在這其中,分布可能是不平衡或重疊的,所以最佳的算法應(yīng)該按需采樣。

12、分布外樣本(OOD)檢測(cè)是可學(xué)習(xí)的嗎?

一句話總結(jié):OOD檢測(cè)在某些條件下是不可學(xué)習(xí)的,但是這些條件不適用于一些實(shí)際情況。

Jim表示,具體來(lái)講,我們所熟悉的監(jiān)督式學(xué)習(xí)的測(cè)試數(shù)據(jù)是內(nèi)部分發(fā)的,但現(xiàn)實(shí)世界卻是混亂的。

而這個(gè)研究運(yùn)用PAC學(xué)習(xí)理論,提出了3個(gè)具體的不可能性定理,推斷應(yīng)用于實(shí)際環(huán)境中確定OOD檢測(cè)的可行性。

更重要的是,此項(xiàng)工作還為現(xiàn)有的OOD檢測(cè)方法提供了理論基礎(chǔ)。

13、基于黎曼得分的生成模型(RSGMs)

圖片

一句話總結(jié):這是一類將模型擴(kuò)展到黎曼流形的生成模型(與歐幾里德空間中的數(shù)據(jù)相反)

擴(kuò)散模型目前已經(jīng)在人工智能領(lǐng)域取得了很大的進(jìn)展,不過(guò)大多數(shù)模型都被假設(shè)是一個(gè)扁平的流形。

但在機(jī)器人學(xué)、地球科學(xué)或蛋白質(zhì)折疊等領(lǐng)域,數(shù)據(jù)也能很好地在黎曼流形上描述。

這項(xiàng)研究使得Stable Diffusion有望應(yīng)用在氣候科學(xué)上。

圖片

14、SGD的高維極限定理

一句話總結(jié):研究用一個(gè)統(tǒng)一的方法,了解在高維情況下具有恒定步長(zhǎng)的隨機(jī)梯度下降的縮放極限。

圖片

其核心貢獻(xiàn)是發(fā)展一個(gè)統(tǒng)一的方法,在連續(xù)步長(zhǎng)之下,使我們了解SGD在高維的比例限制。

研究團(tuán)隊(duì)還在目前正流行的模型中證明了這個(gè)方法,示例也展示了很好的效果:

包括收斂的多模態(tài)時(shí)間尺度以及收斂到次優(yōu)解決方案,概率從隨機(jī)初始化開始有界地遠(yuǎn)離零。

15、RODEO:減小估計(jì)梯度方法REINFORCE的方差。

一句話總結(jié):利用Stein算子控制變量來(lái)增強(qiáng)REINFORCE的性能。

圖片

離散變量使神經(jīng)網(wǎng)絡(luò)不可微,所以估計(jì)梯度的一種常見方法是REINFORCE,但這種方法又存在很大的方差。

本文提出了一種利用Stein算子控制變量增強(qiáng)REINFORCE的高性能方法:“ RODEO”。

并且,這種控制變量可以在線調(diào)整以最小化方差,并且不需要對(duì)目標(biāo)函數(shù)進(jìn)行額外的評(píng)估。

在基準(zhǔn)生成建模任務(wù)中,例如訓(xùn)練二進(jìn)制變分自動(dòng)編碼器,在具有相同數(shù)量的函數(shù)估計(jì)的情況下,研究的梯度估計(jì)器實(shí)現(xiàn)了有史以來(lái)最低的方差。

大佬來(lái)自英偉達(dá),師從李飛飛

總結(jié)這一超強(qiáng)線程的大佬Jim,現(xiàn)就職于英偉達(dá)

他的研究方向是開發(fā)具有通用能力的自主智能體,如上讓AI學(xué)會(huì)《我的世界》人類玩家技巧的論文,正是他的成果。

他博士就讀于斯坦福大學(xué)視覺實(shí)驗(yàn)室,師從李飛飛。

曾在谷歌云、OpenAI、百度硅谷AI實(shí)驗(yàn)室等實(shí)習(xí)。

責(zé)任編輯:張燕妮 來(lái)源: 量子位
相關(guān)推薦

2023-09-05 23:34:52

Kubernetes云原生

2014-05-07 10:47:51

移動(dòng)金融互聯(lián)網(wǎng)金融GMIC

2020-11-27 09:57:11

Python代碼PyPy

2015-08-03 10:21:04

設(shè)計(jì)模式表達(dá)

2025-05-12 01:22:00

2023-09-06 15:23:30

Docker容器K8S

2019-08-15 11:42:56

程序員電腦軟件

2010-03-29 11:55:12

無(wú)線上網(wǎng)報(bào)錯(cuò)

2023-05-08 15:44:23

3D數(shù)字人

2024-02-08 09:33:37

蘋果AI

2022-12-12 13:45:46

模型修圖

2011-06-03 16:42:47

SEO

2025-05-20 13:52:12

GPU集群微軟

2020-12-16 10:43:44

PythonPyPy代碼

2018-01-15 10:45:43

社交網(wǎng)絡(luò)互聯(lián)網(wǎng)巨頭百度

2019-09-05 10:13:28

2024-07-01 07:40:00

2014-12-16 08:58:17

甲骨文Oracle數(shù)據(jù)庫(kù)選件

2023-12-13 21:50:59

騰訊AI模型
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

主站蜘蛛池模板: 国产精品污www在线观看 | 18成人在线观看 | 国产色网站 | 91精品在线看 | 国产欧美在线一区 | 欧美激情精品久久久久久 | 18av在线播放 | 国产一区二区免费电影 | 亚洲精品黄 | 欧美一区二区小视频 | 一区二区三区视频在线 | 天堂视频中文在线 | 狠狠操天天干 | 日韩精品免费 | 一区二区免费视频 | 国产一区二区三区四区三区四 | 亚洲一区在线播放 | 日韩精品在线看 | 视频在线一区二区 | 国产精品99视频 | 色接久久 | 91秦先生艺校小琴 | 91精品久久久久久久久中文字幕 | 成人av在线网站 | 精品一区二区三区四区外站 | 黄色免费在线观看网址 | 国产亚洲高清视频 | 免费看国产一级特黄aaaa大片 | 一区二区三区四区不卡视频 | 精品国产一区二区三区性色av | 中文字幕av中文字幕 | 精品国产一区二区三区性色 | 欧美日韩一区二区三区四区 | 91精品国产91久久久久游泳池 | 亚洲在线一区二区 | 伊人色综合久久久天天蜜桃 | 精品免费 | 精品视频在线播放 | 欧美情趣视频 | 亚洲手机在线 | 亚洲精品9999 |