成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

重回榜首的BERT改進版開源了,千塊V100、160GB純文本的大模型

新聞 開源
前段時間 Facebook 創建的改進版 BERT——RoBERTa,打敗 XLNet 登上了 GLUE 排行榜榜首。

 前段時間 Facebook 創建的改進版 BERT——RoBERTa,打敗 XLNet 登上了 GLUE 排行榜榜首。近日,Facebook 公開了該模型的研究細節,并開源了模型代碼。

BERT 自誕生以來就展現出了卓越的性能,GLUE 排行榜上前幾名的模型一度也大多使用 BERT。然而,XLNet 的橫空出世,

打破了 BERT 的紀錄

。不過,不久之后,劇情再次出現反轉,Facebook 創建的改進版 BERT——RoBERTa,登上了 GLUE 排行榜榜首。

重回榜首的BERT改進版開源了,千塊V100、160GB純文本的大模型

圖源:https://gluebenchmark.com/leaderboard/

Facebook 的研究人員表示,如果訓練得更久一點、數據再大一點,

BERT 就能重返SOTA

那么 RoBERTa 到底訓練了多長時間,使用了多少數據呢?近日,Facebook 研究人員公開了研究細節。

論文地址:https://arxiv.org/pdf/1907.11692.pdf

GitHub 地址:https://github.com/pytorch/fairseq/tree/master/examples/roberta

RoBERTa 到底有多大

之前 XLNet 團隊就對標準的 BERT 和 XLNet

做過一次公平的對比

,他們測試了在相同參數水平、預訓練數據、超參配置等情況下兩者的效果。當然,XLNet 通過修改架構與任務,它的效果是全面超過標準 BERT 的。但如果 BERT 要再次超越 XLNet,那么數據和算力都需要更多。

算力

據介紹,Facebook 研究人員在多臺 DGX-1 計算機上使用混合精度浮點運算,每臺計算機具備 8 個 32GB Nvidia V100 GPU,這些 GPU 通過 Infiniband 連接。

但研究者并沒有具體說 RoBERTa 使用了多少張 V100 GPU 訓練了多長時間,我們只能了解到他們訓練 Large 模型用 1024 塊 V100 訓練了一天,這樣以谷歌云的價格來算需要 6.094 萬美元。如下是原論文所述:

We pretrain for 100K steps over a comparable BOOKCORPUS plus WIKIPEDIA dataset as was used in Devlin et al. (2019). We pretrain our model using 1024 V100 GPUs for approximately one day.

因為 XLNet 的 TPU 訓練價格也是 6 萬美元,而且直觀上用 GPU 訓練會比 TPU 貴,所以我們根據上面的描述猜測 6.094 萬美元是在 BOOKCORPUS 加 WIKIPEDIA 數據集上訓練的成本。此外,XLNet 數據集擴充十倍,它的 TPU 訓練成本也增加了 5 倍,也許 RoBERTa 也遵循同樣的規則?

數據

BERT 模型預訓練的關鍵是大量文本數據。Facebook 研究人員收集了大量數據集,他們考慮了五個不同大小、不同領域的英語語料庫,共有 160GB 純文本,而 XLNet 使用的數據量是 126GB。這些語料庫分別是:

  • BOOKCORPUS (Zhu et al., 2015) 和英語維基百科:這是 BERT 訓練時所用的原始數據 (16GB);
  • CC-NEWS:Facebook 研究人員從 CommonCrawl News 數據集的英語部分收集到的數據,包含 2016 年 9 月到 2019 年 2 月的 6300 萬英語新聞文章(過濾后有 76GB 大小);
  • OPENWEBTEXT (Gokaslan and Cohen, 2019):Radford et al. (2019) 中介紹的 WebText 語料庫的開源克隆版本。其中包含爬取自 Reddit 網站共享鏈接的網頁內容 (38GB);
  • STORIES:Trinh and Le (2018) 中提到的數據集,包含 CommonCrawl 數據的子集,該數據集經過過濾以匹配 Winograd schemas 的故事性風格 (31GB)。

這樣的數據量已經非常大了,它是原來 BERT 數據量的十多倍。但正如 XLNet 作者楊植麟所言,數據量大并不一定能帶來好處,我們還需要在數量與質量之間做權衡。也許十倍量級的數據增加,可能還不如幾倍高質量數據帶來的提升大。

RoBERTa 到底是什么

Facebook 對 BERT 預訓練模型進行了復現研究,對調參和訓練數據規模的影響進行了評估,發現 BERT 訓練嚴重不足。于是他們提出了 BERT 的改進版——RoBERTa,它可以匹敵甚至超過所有 post-BERT 方法的性能。

這些改進包括:

  • 模型訓練時間更長,batch 規模更大,數據更多;
  • 移除「下一句預測」這一訓練目標;
  • 在更長的序列上訓練;
  • 動態改變應用于訓練數據上的掩碼模式。

Facebook 研究人員還收集了一個新型大數據集 CC-NEWS,以更好地控制訓練數據集規模的影響。CC-NEWS 數據集的規模與其他私人使用數據集差不多。

總之,Facebook 研究人員關于 RoBERTa 的研究貢獻可以總結如下:

  • 展示了一組重要的 BERT 設計選擇、訓練策略,介紹了一些可使下游任務性能更優的替代方法;
  • 使用新型數據集 CCNEWS,并確認使用更多數據進行預訓練可以進一步提升模型在下游任務上的性能;
  • 訓練方面的改進證明,在正確的設計選擇下,掩碼語言模型預訓練的性能堪比其他近期方法。

RoBERTa 都改了些啥

對于原版 BERT,直接用它來做極大數據的預訓練并不能 Work,我們還需要一些特殊的技巧來提升模型的魯棒性,這也就是 Facebook 研究者主要嘗試的。如下研究人員在論文中揭示并量化了 BERT 要進行哪些改進才能真正變得穩健。

1. 靜態 vs. 動態掩碼

BERT 依賴隨機掩碼和預測 token。原版的 BERT 實現在數據預處理期間執行一次掩碼,得到一個靜態掩碼。Facebook 研究者將該策略與動態掩碼進行比較,動態掩碼即,每次向模型輸入一個序列時都會生成掩碼模式。在預訓練進行更多步或使用更大的數據集時,這點變得尤其重要。

重回榜首的BERT改進版開源了,千塊V100、160GB純文本的大模型

表 1: BERT_BASE 的靜態和動態掩碼比較。

2. 模型輸入格式和下一句預測

在原版的 BERT 預訓練步驟中,模型觀察到兩個連接在一起的文檔片段,這兩個片段要么是從相同的文檔中連續采樣,要么采樣自一個文檔的連續部分或不同文檔。為了更好地理解這種結構,研究者比較了幾種訓練格式:

  • SEGMENT-PAIR+NSP:這種方式和 BERT 中用到的原始輸入格式相同,NSP 是 Next Sentence Prediction(下一句預測)結構的縮寫。
  • SENTENCE-PAIR+NSP:每個輸入包含一對自然語言句子,采樣自一個文檔的連續部分或不同文檔。
  • FULL-SENTENCES:每個輸入都包含從一或多個文檔中連續采樣的完整句子,以保證總長度至多 512 token。
  • DOC-SENTENCES:這種輸入的構造與 FULL-SENTENCES 類似,只是它們可能不會跨過文檔邊界。
重回榜首的BERT改進版開源了,千塊V100、160GB純文本的大模型

表 2:在 BOOKCORPUS 和 WIKIPEDIA 上預訓練的基礎模型的開發集結果。所有的模型都訓練 1M 步,batch 大小為 256 個序列。

3. 大批量訓練

神經機器翻譯領域之前的工作表明,在學習率適當提高時,以非常大的 mini-batch 進行訓練可以同時提升優化速度和終端任務性能。最近的研究表明,BERT 也能適應大批量訓練。

重回榜首的BERT改進版開源了,千塊V100、160GB純文本的大模型

表 3:在 BOOKCORPUS 和 WIKIPEDIA 上用不同的 batch 大小(bsz)訓練的基礎模型在留出訓練數據(ppl)和開發集上的困惑度。

4. 文本編碼

Byte-Pair Encoding(BPE)是字符級和詞級別表征的混合,支持處理自然語言語料庫中的眾多常見詞匯。

原版的 BERT 實現使用字符級別的 BPE 詞匯,大小為 30K,是在利用啟發式分詞規則對輸入進行預處理之后學得的。Facebook 研究者沒有采用這種方式,而是考慮用更大的 byte 級別 BPE 詞匯表來訓練 BERT,這一詞匯表包含 50K 的 subword 單元,且沒有對輸入作任何額外的預處理或分詞。這種做法分別為 BERTBASE 和 BERTLARGE 增加了 15M 和 20M 的額外參數量。

實驗結果

Facebook 研究人員綜合所有這些改進,并評估了其影響。結合所有改進后的方法叫作 RoBERTa(Robustly optimized BERT approach)。

為了厘清這些改進與其他建模選擇之前的重要性區別,研究人員首先基于 BERT LARGE 架構訓練 RoBERTa,并做了一系列對照試驗以確定效果。

重回榜首的BERT改進版開源了,千塊V100、160GB純文本的大模型

表 4:隨著訓練數據的增大(文本數量從 16GB → 160GB)、訓練步長的增加(100K → 300K → 500K 訓練步),RoBERTa 在開發集上的結果。在對照試驗中,表格中每一行都累積了前幾行的改進。

對于 GLUE,研究人員考慮了兩種微調設置。在第一種設置中(單任務、開發集),研究人員分別針對每一項 GLUE 任務微調 RoBERTa,僅使用對應任務的訓練數據。在第二種設置中(集成,測試集),研究人員通過 GLUE 排行榜對比 RoBERTa 和其他方法。

重回榜首的BERT改進版開源了,千塊V100、160GB純文本的大模型

表 5:多個模型在 GLUE 上的結果。所有結果都基于 24 層的模型架構。

責任編輯:張燕妮 來源: 機器之心
相關推薦

2009-01-12 09:42:11

固態硬盤SSD2.5寸固態盤

2023-03-08 15:54:49

2018-06-04 14:53:21

Tesla V100NVIDIA計算平臺

2020-07-30 14:05:53

谷歌華為芯片

2022-09-06 08:31:09

線程池工具系統

2023-09-26 08:39:28

限流方式滑動窗口計數器

2023-10-31 13:01:00

2023-02-06 18:10:22

模型算法

2011-04-20 14:16:02

愛普生V100掃描儀

2011-04-20 13:59:28

愛普生V100掃描儀

2012-07-31 09:47:22

微軟Windows 8

2012-07-31 13:31:34

Windows 8鼠標鍵盤

2025-02-28 12:32:42

2023-12-01 12:31:22

AI模型

2017-12-29 12:14:12

易觀千帆

2022-02-15 16:32:13

惡意軟件網絡安全漏洞

2023-11-03 07:47:12

機器資源大模型:

2023-07-12 14:28:45

谷歌模型

2022-01-25 08:52:26

微軟Edge瀏覽器
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产精品久久久久9999鸭 | 国产欧美日韩在线 | 免费成人高清 | 国产探花在线观看视频 | 精品久久久久久久久久 | 久久久久国产精品 | 成人免费精品视频 | 亚洲精品免费观看 | 精品综合 | 久久草在线视频 | av在线播放国产 | 久久网一区二区三区 | 国产精品一区二区三区在线 | 四虎成人在线播放 | 国产 欧美 日韩 一区 | 狠狠综合久久av一区二区小说 | 国产精品1区2区3区 男女啪啪高潮无遮挡免费动态 | 自拍偷拍第一页 | 天天插天天干 | 国产乡下妇女做爰 | 欧美日高清视频 | 夜夜艹天天干 | 国产精品视频www | 大乳boobs巨大吃奶挤奶 | 国产韩国精品一区二区三区 | 艹逼网| 成人av网站在线观看 | 亚洲 欧美 日韩在线 | 男人av在线播放 | 五月婷六月丁香 | 精品欧美一区二区三区免费观看 | 色就是色欧美 | 精品国产99 | 日本久久网站 | 国产精品一区二区久久久久 | 欧美专区在线 | 成人h视频在线 | 久久成人免费视频 | 国产1页 | 日本人和亚洲人zjzjhd | 久久精品一级 |