成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

谷歌研究院最新發(fā)現(xiàn):訓練結果不準確,超大數(shù)據(jù)規(guī)模要背鍋!

新聞 人工智能
最近Geogle reserach 的一篇論文,卻認為對超大規(guī)模數(shù)據(jù)集進行整理的趨勢,反而會阻礙有效開發(fā)人工智能系統(tǒng)。

 [[428092]]

目前AI領域 的一大趨勢是什么?沒錯,就是擴大數(shù)據(jù)集規(guī)模。然而最近Geogle reserach 的一篇論文,卻認為對超大規(guī)模數(shù)據(jù)集進行整理的趨勢,反而會阻礙有效開發(fā)人工智能系統(tǒng)。

數(shù)據(jù)規(guī)模真的越大越好?

算力和數(shù)據(jù)是人工智能兩大主要驅動力。無論是計算機視覺,還是自然語言處理等AI系統(tǒng)似乎都離不開數(shù)據(jù)集。

在超大規(guī)模數(shù)據(jù)時代,數(shù)據(jù)和學習結果是這樣的關系:

數(shù)據(jù)規(guī)模越大,AI模型越精準、高效。在大部分人眼里,這似乎是個不爭的事實。

數(shù)據(jù)規(guī)模和模型精確度難道真的是呈現(xiàn)正相關關系嗎?

最近,Geogle Research 上發(fā)布的一篇論文,對這一普遍持有的觀點,提出了質疑的呼聲。

[[428094]]

規(guī)模一大, “飽和”就無處不在!

這篇名為Expolring the limits of pre-training model 挑戰(zhàn)了機器學習效果和數(shù)據(jù)關系的既有假設。經(jīng)過試驗得出的結論是:無論是通過擴大數(shù)據(jù)規(guī)模還是超參數(shù)來改進上游性能,下游可能會出現(xiàn)“飽和”現(xiàn)象。

所謂飽和就是.....你懂的哈,就是沒有梯度信號傳入神經(jīng)元,也無法到權重和數(shù)據(jù),這樣網(wǎng)絡就很難以進行學習了。

為了證明飽和效應的觀點,作者對視覺變形器、ResNets和MLP-混合器進行了4800次實驗,每個實驗都有不同數(shù)量的參數(shù),從1000萬到100億,都在各自領域現(xiàn)有的最高容量數(shù)據(jù)集進行訓練,包括ImageNet21K和谷歌自己的JFT-300M。

文中還提到了一種極端的情況,上游和下游的性能是互相矛盾的 ,也就是說:要想獲得更好的下游性能,可能得犧牲掉上游任務的精確度。

這一假設一旦得到驗證,就意味著 "超大規(guī)模 "數(shù)據(jù)集,如最近發(fā)布的LAION-400M(包含4億個文本/圖像對),以及GPT-3神經(jīng)語言引擎背后的數(shù)據(jù)(包含1750億個參數(shù)),有可能受限于傳統(tǒng)機器學習的架構和方法。龐大的數(shù)據(jù)量可能會使得下游任務飽和,降低了其泛化的能力。

其實呢,之前的假設也不是完全在“胡言亂語”,只是要加上一個條件即:既定數(shù)據(jù)規(guī)模的超參數(shù)要在一個較為簡單的線性函數(shù)關系中 , 且是一個固定的值。

考慮到有限的計算資源和經(jīng)濟成本等問題,先前的研究范圍較小,讓人們對數(shù)據(jù)集和有效AI系統(tǒng)間的關系產生了不全面的認知。原來以偏概全是通病!

事實上怎么可能有這么簡單呢?

文章又反駁道“先前關于論證數(shù)據(jù)規(guī)模有效性的研究,僅是在有限的范圍進行的。 因而不能妄下定論。“

唱反調也得有依據(jù)!文章為什么會得出這樣的結論呢?原來真相就在眼前!

[[428095]]

上下游的關系不簡單!

先前的研究是在線性函數(shù)的假設基礎上,呈現(xiàn)出了對數(shù)關系。

然而經(jīng)過研究發(fā)現(xiàn),情況是這樣的

從圖中可以發(fā)現(xiàn),下游任務在某些點,會發(fā)生飽和。但這些“飽和點”并不固定。因而文章推論,上下游之間的關系是非線性的。

數(shù)據(jù)、模型規(guī)模的擴大,倒是能提高上游性能。但是由于這種非線性關系的存在,提高上游的準確度的同時,下游準確度就不能夠保證了。

預訓練模型不能讓人們”一勞永逸“!

本文討論了 "預訓練 "的做法,這種措施旨在節(jié)省計算資源,減少從零開始訓練大規(guī)模數(shù)據(jù)所需的時間。

預訓練可以明顯提高模型的魯棒性和準確性。但新的論文表明,即使在相對較短的預訓練模板中,但是考慮到特征的復雜性,預訓練模型不適合于所有情況。如果研究人員繼續(xù)依賴預訓練模型,可能影響到最終結果的準確性。

論文最后提到,”我們不能期望找到適用于所有下游任務的預訓練模型。"

[[428097]]

規(guī)模有多大,就有多準確?

Geogle research 的研究結果對這一定論,勇敢說出了”不“,的確讓人們眼前一亮!是否會對整個AI研究領域,帶來突破性的進展呢?也許會由此帶動更多的相關研究,會不知不覺掀起另一波”浪潮“?咱們走著瞧!

 

責任編輯:張燕妮 來源: 新智元
相關推薦

2021-03-22 11:16:50

人工智能應用基礎設施

2012-06-20 09:39:02

惡意網(wǎng)站

2022-08-16 08:35:45

Black Hat網(wǎng)絡安全

2013-02-28 10:24:18

2015-08-27 13:36:31

大數(shù)據(jù)

2016-10-09 13:19:43

2025-03-10 09:30:00

2019-04-04 13:00:19

Linuxshell命令

2016-07-06 11:38:10

移動 出海

2022-03-21 09:47:02

深度學習模型人工智能

2017-12-29 14:37:54

云計算

2024-07-29 07:04:00

大模型AI訓AI人工智能

2021-02-01 09:51:35

IBM中國研究院

2021-01-12 15:11:01

AI 數(shù)據(jù)人工智能

2025-06-04 13:56:51

模型AI數(shù)據(jù)

2022-04-22 11:22:47

達摩院阿里巴巴

2021-10-15 10:11:00

遠程管理監(jiān)控數(shù)據(jù)中心

2019-11-15 11:19:55

大數(shù)據(jù)人工智能技術

2024-06-05 19:45:08

2025-06-25 09:28:38

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产精品精品久久久 | 免费观看成人鲁鲁鲁鲁鲁视频 | 一级大黄色片 | 欧美日韩18 | 成人一区二 | 午夜看电影在线观看 | 91大片 | av一二三区| 免费在线观看av的网站 | 亚洲欧美综合精品久久成人 | 国产91亚洲精品一区二区三区 | 国产精品一区在线观看你懂的 | 伊人久久综合 | 久草视频网站 | 国产成人精品一区二区三区在线 | 国产免费一级一级 | 久久国产福利 | 成人免费福利视频 | 日韩欧美一区二区三区免费观看 | 黄色网页在线 | 国产在线一区二区 | 亚洲国产一区在线 | 日韩色图视频 | 亚洲精品久久久 | 欧美激情一区 | 91美女在线观看 | 精品免费在线 | 欧美国产日韩在线观看 | 日本一区二区高清视频 | 午夜免费视频 | 色网在线看 | 精品一区在线看 | 亚洲综合久久久 | 亚洲精品自在在线观看 | 亚洲精品一区国语对白 | 99久久视频| 日日夜精品视频 | 九九久久精品 | 久久精品小短片 | 99精品一区| 精品国产乱码久久久久久蜜臀 |