成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

打入AI底層!NUS尤洋團(tuán)隊(duì)用擴(kuò)散模型構(gòu)建神經(jīng)網(wǎng)絡(luò)參數(shù),LeCun點(diǎn)贊

人工智能 新聞
研究團(tuán)隊(duì)提出了一種用于生成神經(jīng)網(wǎng)絡(luò)參數(shù)的擴(kuò)散模型p(arameter)-diff。用它來生成網(wǎng)絡(luò)參數(shù),速度比直接訓(xùn)練最多提高44倍,而且表現(xiàn)毫不遜色。

擴(kuò)散模型,迎來了一項(xiàng)重大新應(yīng)用——

像Sora生成視頻一樣,給神經(jīng)網(wǎng)絡(luò)生成參數(shù),直接打入了AI的底層!

這就是新加坡國立大學(xué)尤洋教授團(tuán)隊(duì)聯(lián)合UCB、Meta AI實(shí)驗(yàn)室等機(jī)構(gòu)最新開源的研究成果。

圖片

具體來說,研究團(tuán)隊(duì)提出了一種用于生成神經(jīng)網(wǎng)絡(luò)參數(shù)的擴(kuò)散模型p(arameter)-diff。

用它來生成網(wǎng)絡(luò)參數(shù),速度比直接訓(xùn)練最多提高44倍,而且表現(xiàn)毫不遜色。

這一模型一經(jīng)發(fā)布,就迅速在AI社區(qū)引發(fā)強(qiáng)烈討論,圈內(nèi)人士對(duì)此的驚嘆,毫不亞于普通人看到Sora時(shí)的反應(yīng)。

甚至有人直接驚呼,這基本上相當(dāng)于AI在創(chuàng)造新的AI了。

圖片

就連AI巨頭LeCun看了之后,也點(diǎn)贊了這一成果,表示這真的是個(gè)cute idea。

圖片

而實(shí)質(zhì)上,p-diff也確實(shí)具有和Sora一樣重大的意義,對(duì)此同實(shí)驗(yàn)室的Fuzhao Xue(薛復(fù)昭)博士進(jìn)行了詳細(xì)解釋:

Sora生成高維數(shù)據(jù),即視頻,這使得Sora成為世界模擬器(從一個(gè)維度接近AGI)。

而這項(xiàng)工作,神經(jīng)網(wǎng)絡(luò)擴(kuò)散,可以生成模型中的參數(shù),具有成為元世界級(jí)學(xué)習(xí)器/優(yōu)化器的潛力,從另一個(gè)新的重要維度向AGI邁進(jìn)。

圖片

言歸正傳,p-diff到底是如何生成神經(jīng)網(wǎng)絡(luò)參數(shù)的呢?

將自編碼器與擴(kuò)散模型結(jié)合

要弄清這個(gè)問題,首先要了解一下擴(kuò)散模型和神經(jīng)網(wǎng)絡(luò)各自的工作特點(diǎn)。

擴(kuò)散生成過程,是從隨機(jī)分布到高度特定分布的轉(zhuǎn)變,通過復(fù)合噪聲添加,將視覺信息降級(jí)為簡單噪聲分布。

而神經(jīng)網(wǎng)絡(luò)訓(xùn)練,同樣遵循這樣的轉(zhuǎn)變過程,也同樣可以通過添加噪聲的方式來降級(jí),研究人員正是在這一特點(diǎn)的啟發(fā)之下提出p-diff方法的。

圖片

從結(jié)構(gòu)上看,p-diff是研究團(tuán)隊(duì)在標(biāo)準(zhǔn)潛擴(kuò)散模型的基礎(chǔ)之上,結(jié)合自編碼器設(shè)計(jì)的。

研究者首先從訓(xùn)練完成、表現(xiàn)較好的網(wǎng)絡(luò)參數(shù)中選取一部分,并展開為一維向量形式。

然后用自編碼器從一維向量中提取潛在表示,作為擴(kuò)散模型的訓(xùn)練數(shù)據(jù),這樣做可以捕捉到原有參數(shù)的關(guān)鍵特征。

訓(xùn)練過程中,研究人員讓p-diff通過正向和反向過程來學(xué)習(xí)參數(shù)的分布,完成后,擴(kuò)散模型像生成視覺信息的過程一樣,從隨機(jī)噪聲中合成這些潛在表示。

最后,新生成的潛在表示再被與編碼器對(duì)應(yīng)的解碼器還原成網(wǎng)絡(luò)參數(shù),并用于構(gòu)建新模型。

圖片

下圖是通過p-diff、使用3個(gè)隨機(jī)種子從頭開始訓(xùn)練的ResNet-18模型的參數(shù)分布,展示了不同層之間以及同一層不同參數(shù)之間的分布模式。

圖片

為了評(píng)估p-diff所生成參數(shù)的質(zhì)量,研究人員利用3種類型、每種兩個(gè)規(guī)模的神經(jīng)網(wǎng)絡(luò),在8個(gè)數(shù)據(jù)集上對(duì)其進(jìn)行了測試。

下表中,每組的三個(gè)數(shù)字依次表示原始模型、集成模型和用p-diff生成的模型的測評(píng)成績。

結(jié)果可以看到,用p-diff生成的模型表現(xiàn)基本都接近甚至超過了人工訓(xùn)練的原始模型。

圖片

效率上,在不損失準(zhǔn)確度的情況下,p-diff生成ResNet-18網(wǎng)絡(luò)的速度是傳統(tǒng)訓(xùn)練的15倍,生成Vit-Base的速度更是達(dá)到了44倍。

圖片

額外的測試結(jié)果證明,p-diff生成的模型與訓(xùn)練數(shù)據(jù)有顯著差異。

從下圖(a)可以看到,p-diff生成的模型之間的相似度低于各原始模型之間的相似度,以及p-diff與原始模型的相似度。

而從(b)和(c)中可知,與微調(diào)、噪聲添加方式相比,p-diff的相似度同樣更低。

這些結(jié)果說明,p-diff是真正生成了新的模型,而非僅僅記憶訓(xùn)練樣本,同時(shí)也表明其具有良好的泛化能力,能夠生成與訓(xùn)練數(shù)據(jù)不同的新模型。

圖片

目前,p-diff的代碼已經(jīng)開源,感興趣的話可以到GitHub中查看。

論文地址:https://arxiv.org/abs/2402.13144

GitHub:https://github.com/NUS-HPC-AI-Lab/Neural-Network-Diffusion

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2024-02-26 08:25:00

模型訓(xùn)練

2020-03-06 15:25:23

網(wǎng)絡(luò)神經(jīng)人工智能數(shù)據(jù)

2024-03-18 09:53:40

GPD神經(jīng)網(wǎng)絡(luò)模型

2024-02-29 11:56:10

AI模型

2024-11-05 16:19:55

2023-08-23 12:59:35

2023-12-20 13:34:56

2017-03-22 12:13:36

AI神經(jīng)網(wǎng)絡(luò)模型算法

2023-09-03 14:17:56

深度學(xué)習(xí)人工智能

2019-01-05 08:40:17

VGG神經(jīng)網(wǎng)絡(luò)

2023-05-12 14:58:50

Java神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)

2018-03-22 13:34:59

TensorFlow神經(jīng)網(wǎng)絡(luò)

2024-12-09 07:15:00

世界模型AILLM

2024-01-18 15:18:48

數(shù)據(jù)模型

2020-03-25 09:48:10

AI芯片神經(jīng)網(wǎng)絡(luò)

2022-03-16 18:38:06

AI特斯拉神經(jīng)網(wǎng)絡(luò)

2021-03-05 12:58:31

AISEER模型

2021-10-15 10:32:42

神經(jīng)網(wǎng)絡(luò)AI算法

2024-06-05 19:26:01

2024-11-08 14:10:00

模型視頻生成
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

主站蜘蛛池模板: 青娱乐av| 亚洲视频免费在线观看 | 色婷婷综合网站 | 亚洲精品视频在线播放 | 国产精品久久久久久一区二区三区 | 日韩在线视频精品 | 特级特黄特色的免费大片 | 亚洲天堂一区 | 天天操网 | 国产综合视频 | 国产精品片aa在线观看 | 国产精品福利视频 | 亚洲精品一区二区三区免 | 精品国产乱码久久久久久牛牛 | 日韩在线一区二区三区 | 在线播放国产一区二区三区 | 成人小视频在线观看 | 欧美激情综合五月色丁香小说 | 久久99精品久久久久久 | 亚洲午夜电影 | 久国产| 草草视频在线免费观看 | 999国产视频 | a在线视频| 中文字幕精品一区久久久久 | 久久久久久精 | 网络毛片 | 一区二区三区不卡视频 | 99久久99热这里只有精品 | 国产精品久久久久久久久久免费看 | 97国产精品 | 久久一久久 | 夜夜草 | 国产探花在线精品一区二区 | 黄色视频a级毛片 | 亚洲国产高清在线观看 | 亚洲成人自拍 | 精品免费看 | 久久er99热精品一区二区 | 99精品一区二区 | 国产亚洲精品综合一区 |