成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

GitHub超9千星:一個API調用六種架構,27個預訓練模型

新聞 前端
只需一個API,直接調用BERT, GPT, GPT-2, Transfo-XL, XLNet, XLM等6大框架,包含了27個預訓練模型。簡單易用,功能強大。

 [[271226]]

只需一個API,直接調用BERT, GPT, GPT-2, Transfo-XL, XLNet, XLM等6大框架,包含了27個預訓練模型。簡單易用,功能強大。

One API to rule them all。

3天前,著名最先進的自然語言處理預訓練模型庫項目pytorch-pretrained-bert改名Pytorch-Transformers重裝襲來,1.0.0版橫空出世。

GitHub超9千星:一個API調用六種架構,27個預訓練模型

只需一個API,直接調用BERT, GPT, GPT-2, Transfo-XL, XLNet, XLM等6大框架,包含了27個預訓練模型。

簡單易用,功能強大。目前已經包含了PyTorch實現、預訓練模型權重、運行腳本和以下模型的轉換工具:

  • BERT,論文:“BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding”,論文作者:Jacob Devlin, Ming-Wei Chang, Kenton Lee,Kristina Toutanova
  • OpenAI 的GPT,論文:“Improving Language Understanding by Generative Pre-Training”,論文作者:Alec Radford, Karthik Narasimhan, Tim Salimans, Ilya Sutskever
  • OpenAI的GPT-2,論文:“Language Models are Unsupervised Multitask Learners”,論文作者:Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei,Ilya Sutskever
  • 谷歌和CMU的Transformer-XL,論文:“Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context”,論文作者:Zihang Dai, Zhilin Yang, Yiming Yang, Jaime Carbonell, Quoc V. Le, Ruslan Salakhutdinov.
  • 谷歌和CMU的XLNet,論文:“XLNet: Generalized Autoregressive Pretraining for Language Understanding”,論文作者:Zhilin Yang, Zihang Dai, Yiming Yang, Jaime Carbonell, Ruslan Salakhutdinov, Quoc V. Le
  • Facebook的XLM,論文:“Cross-lingual Language Model Pretraining”,論文作者:Guillaume Lample,Alexis Conneau

這些實現都在幾個數據集(參見示例腳本)上進行了測試,性能與原始實現相當,例如BERT中文全詞覆蓋在SQuAD數據集上的F1分數為93;OpenAI GPT 在RocStories上的F1分數為88;Transformer-XL在WikiText 103上的困惑度為18.3;XLNet在STS-B的皮爾遜相關系數為0.916。

項目中提供27個預訓練模型,下面是這些模型的完整列表,以及每個模型的簡短介紹。

GitHub超9千星:一個API調用六種架構,27個預訓練模型

BERT-base和BERT-large分別是110M和340M參數模型,并且很難在單個GPU上使用推薦的批量大小對其進行微調,來獲得良好的性能(在大多數情況下批量大小為32)。

為了幫助微調這些模型,作者提供了幾種可以在微調腳本中激活的技術 run_bert_classifier.py和run_bert_squad.py:梯度累積(gradient-accumulation),多GPU訓練(multi-gpu training),分布式訓練(distributed training )和16- bits 訓練( 16-bits training)。

注意,這里要使用分布式訓練和16- bits 訓練,你需要安裝NVIDIA的apex擴展。

作者在doc中展示了幾個基于BERT原始實現和擴展的微調示例,分別為:

  • 九個不同GLUE任務的序列級分類器;
  • 問答集數據集SQUAD上的令牌級分類器;
  • SWAG分類語料庫中的序列級多選分類器;
  • 另一個目標語料庫上的BERT語言模型。

這里僅展示GLUE的結果:

GitHub超9千星:一個API調用六種架構,27個預訓練模型

該項目是在Python 2.7和3.5+上測試(例子只在python 3.5+上測試)和PyTorch 0.4.1到1.1.0測試。

項目地址:

https://github.com/huggingface/pytorch-transformers

責任編輯:張燕妮 來源: 新智元
相關推薦

2023-09-06 11:35:11

2025-04-17 07:10:03

API架構項目

2016-01-15 17:36:29

云計算云應用

2012-10-15 13:26:31

云計算架構

2024-11-26 14:20:00

開發模型工具

2020-11-11 18:25:21

GitHub代碼 jQuery

2022-11-01 14:50:00

數據計算

2023-06-05 10:09:03

研究人工智能

2024-01-05 13:25:00

架構架構模式開發

2017-06-26 10:35:58

前端JavaScript繼承方式

2009-08-18 17:53:08

思科認證介紹思科培訓

2025-03-03 13:02:05

2024-05-10 10:01:26

自動駕駛模型

2013-02-22 18:37:50

容錯服務器

2024-05-30 08:51:28

Spring數據分布式

2021-01-25 13:45:14

模型人工智能深度學習

2009-02-11 09:46:00

ASON網絡演進

2019-10-31 10:43:05

Python 開發編程語言

2024-08-30 11:11:01

2024-02-06 12:50:08

AI訓練
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 色综合久久天天综合网 | 日本不卡一区二区三区在线观看 | 欧美日韩精品一区 | 日本a级大片 | 久久久网| 国产农村妇女精品一二区 | 国产精品电影网 | 久久精品a级毛片 | 另类一区| 天天色官网 | 日本精品久久久久久久 | 亚洲人在线观看视频 | 国产精品日韩在线观看一区二区 | 成人av在线网站 | 国产一级淫片a直接免费看 免费a网站 | 成人一区二区在线 | 午夜精品久久久 | 黄色成人免费看 | 日本在线视频一区二区 | 国产欧美日韩一区 | 中文字幕日韩一区 | 成人毛片一区二区三区 | 久久精品色欧美aⅴ一区二区 | 亚洲国产成人av好男人在线观看 | 综合久久一区 | 在线午夜 | 99这里只有精品视频 | 夜夜操操操 | 午夜免费看| 久久91精品久久久久久9鸭 | 欧美专区在线 | 欧美成人高清视频 | 国产精品欧美一区二区三区不卡 | 91在线精品视频 | 欧美日韩一区二区三区不卡视频 | 欧美日韩综合视频 | 作爱视频免费看 | 国产.com | 在线观看av不卡 | 成人av久久| 亚洲国产精品激情在线观看 |