成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

谷歌ALBERT模型V2+中文版來了,GitHub熱榜第二

新聞 前端
比BERT模型參數小18倍,性能還超越了它。這就是谷歌前不久發布的輕量級BERT模型——ALBERT。

 本文經AI新媒體量子位(公眾號ID:QbitAI)授權轉載,轉載請聯系出處。

比BERT模型參數小18倍,性能還超越了它。

這就是谷歌前不久發布的輕量級BERT模型——ALBERT

不僅如此,還橫掃各大“性能榜”,在SQuAD和RACE測試上創造了新的SOTA。

而最近,谷歌開源了中文版本和Version 2,項目還登上了GitHub熱榜第二

<span><span><span><i style=谷歌ALBERT模型V2+中文版來了,GitHub熱榜第二">

ALBERT 2性能再次提升

在這個版本中,“no dropout”、“additional training data”、“long training time”策略將應用到所有的模型。

與初代ALBERT性能相比結果如下。

<span><span><span><i style=谷歌ALBERT模型V2+中文版來了,GitHub熱榜第二">

從性能的比較來說,對于ALBERT-base、ALBERT-large和ALBERT-xlarge,v2版要比v1版好得多。

說明采用上述三個策略的重要性。

平均來看,ALBERT-xxlarge比v1略差一些,原因有以下2點:

額外訓練了1.5M步(兩個模型的唯一區別就是訓練1.5M和3M步);
對于v1,在BERT、Roberta和XLnet給出的參數集中做了一點超參數搜索;對于v2,只是采用除RACE之外的V1參數,其中使用的學習率為1e-5和0 ALBERT DR。

總的來說,Albert是BERT的輕量版, 使用減少參數的技術,允許大規模的配置,克服以前的內存限制。

<span><span><span><i style=谷歌ALBERT模型V2+中文版來了,GitHub熱榜第二">

Albert使用了一個單模型設置,在 GLUE 基準測試中的性能:

<span><span><span><i style=谷歌ALBERT模型V2+中文版來了,GitHub熱榜第二">

Albert-xxl使用了一個單模型設置,在SQuaD和RACE基準測試中的性能:

<span><span><span><i style=谷歌ALBERT模型V2+中文版來了,GitHub熱榜第二">

中文版下載地址

Base
https://storage.googleapis.com/albert_models/albert_base_zh.tar.gz

Large
https://storage.googleapis.com/albert_models/albert_large_zh.tar.gz

XLarge
https://storage.googleapis.com/albert_models/albert_xlarge_zh.tar.gz

Xxlarge
https://storage.googleapis.com/albert_models/albert_xxlarge_zh.tar.gz

ALBERT v2下載地址

Base
[Tar File]:
https://storage.googleapis.com/albert_models/albert_base_v2.tar.gz
[TF-Hub]:
https://tfhub.dev/google/albert_base/2

Large
[Tar File]:
https://storage.googleapis.com/albert_models/albert_large_v2.tar.gz
[TF-Hub]:
https://tfhub.dev/google/albert_large/2

XLarge
[Tar File]:
https://storage.googleapis.com/albert_models/albert_xlarge_v2.tar.gz
[TF-Hub]:
https://tfhub.dev/google/albert_xlarge/2

Xxlarge
[Tar File]:
https://storage.googleapis.com/albert_models/albert_xxlarge_v2.tar.gz
[TF-Hub]:
https://tfhub.dev/google/albert_xxlarge/2

預訓練模型

可以使用 TF-Hub 模塊:

Base
[Tar File]:
https://storage.googleapis.com/albert_models/albert_base_v1.tar.gz
[TF-Hub]:
https://tfhub.dev/google/albert_base/1

Large
[Tar File]:
https://storage.googleapis.com/albert_models/albert_large_v1.tar.gz
[TF-Hub]:
https://tfhub.dev/google/albert_large/1

XLarge
[Tar File]:
https://storage.googleapis.com/albert_models/albert_xlarge_v1.tar.gz
[TF-Hub]:
https://tfhub.dev/google/albert_xlarge/1

Xxlarge
[Tar File]:
https://storage.googleapis.com/albert_models/albert_xxlarge_v1.tar.gz
[TF-Hub]:
https://tfhub.dev/google/albert_xxlarge/1

TF-Hub模塊使用示例:

  1. tags=set()ifis_training:tags.add("train")albert_module=hub.Module("https://tfhub.dev/google/albert_base/1",tags=tags,trainable=True)albert_inputs=dict(input_ids=input_ids,input_mask=input_mask,segment_ids=segment_ids)albert_outputs=albert_module(inputs=albert_inputs,signature="tokens",as_dict=True)#Ifyouwanttousethetoken-leveloutput,use#albert_outputs["sequence_output"]instead.output_layer=albert_outputs["pooled_output"

預訓練說明

要預訓練ALBERT,可以使用run_pretraining.py:

  1. pipinstall-ralbert/requirements.txtpython-malbert.run_pretraining\--input_file=...\--output_dir=...\--init_checkpoint=...\--albert_config_file=...\--do_train\--do_eval\--train_batch_size=4096\--eval_batch_size=64\--max_seq_length=512\--max_predictions_per_seq=20\--optimizer='lamb'\--learning_rate=.00176\--num_train_steps=125000\--num_warmup_steps=3125\--save_checkpoints_steps=5000 

GLUE上的微調

要對 GLUE 進行微調和評估,可以參閱該項目中的run_glue.sh文件。

底層的用例可能希望直接使用run_classifier.py腳本。

run_classifier.py可對各個 GLUE 基準測試任務進行微調和評估。

比如 MNLI:

  1. pipinstall-ralbert/requirements.txtpython-malbert.run_classifier\--vocab_file=...\--data_dir=...\--output_dir=...\--init_checkpoint=...\--albert_config_file=...\--spm_model_file=...\--do_train\--do_eval\--do_predict\--do_lower_case\--max_seq_length=128\--optimizer=adamw\--task_name=MNLI\--warmup_step=1000\--learning_rate=3e-5\--train_step=10000\--save_checkpoints_steps=100\--train_batch_size=128 

可以在run_glue.sh中找到每個GLUE任務的default flag。

從TF-Hub模塊開始微調模型:

  1. albert_hub_module_handle==https://tfhub.dev/google/albert_base/1 

在評估之后,腳本應該報告如下輸出:

  1. *****Evalresults*****global_step=...loss=...masked_lm_accuracy=...masked_lm_loss=...sentence_order_accuracy=...sentence_order_loss=... 

在SQuAD上微調

要對 SQuAD v1上的預訓練模型進行微調和評估,請使用 run SQuAD v1.py 腳本:

  1. pipinstall-ralbert/requirements.txtpython-malbert.run_squad_v1\--albert_config_file=...\--vocab_file=...\--output_dir=...\--train_file=...\--predict_file=...\--train_feature_file=...\--predict_feature_file=...\--predict_feature_left_file=...\--init_checkpoint=...\--spm_model_file=...\--do_lower_case\--max_seq_length=384\--doc_stride=128\--max_query_length=64\--do_train=true\--do_predict=true\--train_batch_size=48\--predict_batch_size=8\--learning_rate=5e-5\--num_train_epochs=2.0\--warmup_proportion=.1\--save_checkpoints_steps=5000\--n_best_size=20\--max_answer_length=30 

對于 SQuAD v2,使用 run SQuAD v2.py 腳本:

  1. pipinstall-ralbert/requirements.txtpython-malbert.run_squad_v2\--albert_config_file=...\--vocab_file=...\--output_dir=...\--train_file=...\--predict_file=...\--train_feature_file=...\--predict_feature_file=...\--predict_feature_left_file=...\--init_checkpoint=...\--spm_model_file=...\--do_lower_case\--max_seq_length=384\--doc_stride=128\--max_query_length=64\--do_train\--do_predict\--train_batch_size=48\--predict_batch_size=8\--learning_rate=5e-5\--num_train_epochs=2.0\--warmup_proportion=.1\--save_checkpoints_steps=5000\--n_best_size=20\--max_answer_length=30 

傳送門

GitHub項目地址:
https://github.com/google-research/ALBERT

 

責任編輯:張燕妮 來源: 量子位
相關推薦

2019-09-02 14:58:03

深度學習編程人工智能

2022-06-02 15:10:35

AI數據模型

2023-02-28 12:56:15

AIChatGPT

2009-03-05 09:41:54

谷歌瀏覽器中文版

2024-04-25 09:41:24

項目模型

2019-12-04 15:00:04

GitHub 技術開源

2024-02-21 15:05:30

2009-11-18 09:36:22

谷歌操作系統Chrome OS

2024-11-20 14:10:00

搜索AI

2019-06-30 15:10:45

GitHub中文版程序員

2023-03-22 07:51:11

2023-05-16 20:04:35

QQMidjourney機器人

2022-12-12 10:28:40

ChatGPTAI

2023-10-10 07:19:07

Github開源庫系統

2019-12-26 15:31:17

騰訊框架開源

2023-05-26 14:10:00

模型AI

2019-08-20 15:22:40

GitHub代碼開發者

2009-08-18 16:19:57

Google Insi

2010-05-28 18:07:47

TortoiseSVN

2019-11-18 09:44:51

GitHub代碼開發者
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 精品国产一区二区三区久久久久久 | 久久久久91 | 黄色片网此 | 免费一二区 | 日韩二三区 | 国产精品视频久久 | 精品国产乱码一区二区三 | 午夜视频在线免费观看 | 永久av | 欧美精品一二三区 | 亚洲精品一区二区三区在线 | 成人免费区一区二区三区 | 日韩一区二区三区视频在线观看 | 日韩精品1区2区 | 亚洲欧美一区二区三区国产精品 | 俺去俺来也www色官网cms | 欧美日韩网站 | 日本不卡一区二区三区在线观看 | 亚洲91精品 | 91 在线| 这里精品 | 干干干日日日 | 久久久夜夜夜 | 中文字幕一区二区三区精彩视频 | 成人免费视频7777777 | 91直接看| 日韩欧美一级片 | 一区久久 | 人人艹人人爽 | 亚州精品成人 | 一二三区在线 | 久草视频在线播放 | 日本网站免费观看 | 五月激情婷婷在线 | 国产在线一区二 | 国产 91 视频 | 日本一二三区在线观看 | 日韩精品一区二区三区在线观看 | 99久久成人| 欧美一级做性受免费大片免费 | 91视频在线看 |