成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

基于T5的兩階段的多任務(wù)Text-to-SQL預(yù)訓(xùn)練模型MIGA

人工智能 新聞
網(wǎng)易互娛 AI Lab 聯(lián)合廣東外語外貿(mào)大學(xué)和哥倫比亞大學(xué)基于預(yù)訓(xùn)練語言模型 T5 的預(yù)訓(xùn)練方式,提出了兩階段的多任務(wù)預(yù)訓(xùn)練模型 MIGA。

越來越多的工作證明了預(yù)訓(xùn)練語言模型(PLM)中蘊含著豐富的知識,針對不同的任務(wù),用合適的訓(xùn)練方式來撬動 PLM,能更好地提升模型的能力。在 Text-to-SQL 任務(wù)中,目前主流的生成器是基于語法樹的,需要針對 SQL 語法進行設(shè)計。

近期,網(wǎng)易互娛 AI Lab 聯(lián)合廣東外語外貿(mào)大學(xué)和哥倫比亞大學(xué)基于預(yù)訓(xùn)練語言模型 T5 的預(yù)訓(xùn)練方式,提出了兩階段的多任務(wù)預(yù)訓(xùn)練模型 MIGA。MIGA 在預(yù)訓(xùn)練階段引入三個輔助任務(wù),并將他們組織成統(tǒng)一的生成任務(wù)范式,可以將所有的 Text-to-SQL 數(shù)據(jù)集統(tǒng)一進行訓(xùn)練;同時在微調(diào)階段,MIGA 針對多輪對話中的錯誤傳遞問題進行 SQL 擾動,提升了模型生成的魯棒性。

目前對于 Text-to-SQL 的研究,主流的方法主要是基于 SQL 語法樹的 encoder-decoder 模型,可以確保生成的結(jié)果一定符合 SQL 語法,但是需要針對 SQL 語法進行特殊設(shè)計。最近也有一些關(guān)于 Text-to-SQL 的研究是基于生成式語言模型,可以很方便地繼承預(yù)訓(xùn)練語言模型的知識和能力。

為了降低對基于語法樹的依賴,更好地挖掘預(yù)訓(xùn)練語言模型的能力,該研究在預(yù)訓(xùn)練 T5 模型的框架下,提出了一個兩階段的多任務(wù) Text-to-SQL 預(yù)訓(xùn)練模型 MIGA (MultI-task Generation frAmework)。

MIGA 分為兩階段的訓(xùn)練過程:

  • 在預(yù)訓(xùn)練階段,MIGA 使用與 T5 相同的預(yù)訓(xùn)練范式,額外提出了三個與 Text-to-SQL 相關(guān)的輔助任務(wù),從而更好地激發(fā)預(yù)訓(xùn)練語言模型中的知識。該訓(xùn)練方式可以將所有的 Text-to-SQL 的數(shù)據(jù)集進行統(tǒng)一,擴充了訓(xùn)練數(shù)據(jù)的規(guī)模;而且也可以靈活地去設(shè)計更多有效的輔助任務(wù),進一步發(fā)掘預(yù)訓(xùn)練語言模型的潛在知識。
  • 在微調(diào)階段,MIGA 針對多輪對話和 SQL 中容易存在的錯誤傳遞問題,在訓(xùn)練過程中對歷史 SQL 進行擾動,使得生成當(dāng)前輪次的 SQL 效果更加穩(wěn)定。

MIGA 模型在兩個多輪對話 Text-to-SQL 公開數(shù)據(jù)集上表現(xiàn)優(yōu)于目前最好的基于語法樹的模型,相關(guān)研究已經(jīng)被 AAAI 2023 錄用。

圖片

論文地址:https://arxiv.org/abs/2212.09278

MIGA 模型細節(jié)

圖片?

圖 1 MIGA 模型圖。

多任務(wù)預(yù)訓(xùn)練階段

該研究主要參考 T5 的預(yù)訓(xùn)練方式,基于已經(jīng)訓(xùn)練好的 T5 模型,設(shè)計了四個預(yù)訓(xùn)練任務(wù):

  • Text-to-SQL 主任務(wù):上圖中的黃色部分,通過設(shè)計 Prompt 為”translate dialogue to system query”,然后以一些 special tokens 來將歷史對話、數(shù)據(jù)庫信息和 SQL 語句拼接輸入到 T5-encoder 中,讓 decoder 直接輸出對應(yīng)的 SQL 語句;
  • 相關(guān)信息預(yù)測:上圖中的綠色部分,設(shè)計 Prompt 為”translate dialogue to relevant column”,T5-encoder 的輸入也是與主任務(wù)一致,decoder 則需要輸出與當(dāng)前問題相關(guān)的數(shù)據(jù)表和列,目的是加強模型對 Text-to-SQL 的理解;
  • 當(dāng)前輪次的操作預(yù)測:上圖中的灰色部分,設(shè)計 Prompt 為”translate dialogue to turn switch”,這個任務(wù)主要是針對多輪對話中的上下文理解進行設(shè)計,對比上一輪的對話和 SQL,decoder 需要輸出當(dāng)前對話的目的做了哪些變化,比如圖中例子是 where 條件進行了改動;
  • 最終對話預(yù)測:上圖中的藍色部分,設(shè)計 Prompt 為”translate dialogue to final utterance”,目的是為了讓模型去更好的理解上下文對話,需要 decoder 輸出整個多輪對話下來,最后時刻的 SQL 對應(yīng)的一句完整問題描述。

通過這樣的一個統(tǒng)一的訓(xùn)練方式設(shè)計,MIGA 可以通用而又靈活地去處理更多與任務(wù)相關(guān)的額外任務(wù),而且還有一下優(yōu)點:

  1. 參考人類編寫 SQL 的步驟,對話文本到 SQL 任務(wù)被分解為多個子任務(wù),允許主任務(wù)從中學(xué)習(xí);
  2. 訓(xùn)練樣本的構(gòu)造格式與 T5 一致,可以最大限度地發(fā)揮預(yù)訓(xùn)練 T5 模型對目標(biāo)任務(wù)的潛力;
  3. 統(tǒng)一的框架允許多個輔助任務(wù)的靈活調(diào)度。當(dāng)應(yīng)用于特定任務(wù)時,僅需在特定任務(wù)的標(biāo)記數(shù)據(jù)中使用相同的訓(xùn)練目標(biāo)對上面的預(yù)訓(xùn)練模型進行微調(diào)即可。

在預(yù)訓(xùn)練階段,該研究整合了 Text-to-SQL 數(shù)據(jù)集 Spider 和對話 Text-to-SQL 數(shù)據(jù)集 SparC 和 CoSQL 的數(shù)據(jù)來訓(xùn)練 T5 模型。

微調(diào)階段?

在預(yù)訓(xùn)練階段之后,該研究針對目標(biāo)任務(wù)的標(biāo)注數(shù)據(jù),單純使用 Text-to-SQL 任務(wù)來進一步微調(diào)模型。該研究在預(yù)測當(dāng)前輪次的 SQL 時,會拼接之前輪次的預(yù)測 SQL,在此過程中,為了盡量克服多輪對話和生成中所帶來的錯誤傳遞問題,該研究提出了 SQL 擾動的方案,對輸入數(shù)據(jù)中的歷史輪次 SQL,以 α 概率來進行擾動。SQL 語句的擾動主要以 β 的概率采樣相應(yīng)的 token,然后進行以下其一的擾動:

  • 用相同數(shù)據(jù)表中的列,來隨機修改或者新增 SELECT 部分中的列;
  • 隨機修改 JOIN 條件中的結(jié)構(gòu),比如交換兩個表的位置;
  • 修改”*” 所有列為一些其他的列;
  • 交換”asc” 和”desc”。

上述的擾動是該研究在實驗中統(tǒng)計發(fā)現(xiàn)最常見的一些錯誤傳遞導(dǎo)致的 SQL 生成錯誤情況,因此針對這些情況來進行擾動,降低模型關(guān)于這方面的依賴。

實驗評估

評估數(shù)據(jù)集為多輪對話 Text-to-SQL:SparC 和 CoSQL。

評估指標(biāo)為:

  • QM:Question Match,表示單輪問題中的生成的 SQL 與標(biāo)注輸出完全匹配的比例;
  • IM:Interaction Match,表示多輪對話中整個完整輪次所有生成的 SQL 與標(biāo)注輸出完全匹配的比例。

在表 1 的對比實驗中,MIGA 在兩個數(shù)據(jù)集上的 IM 分數(shù),以及 CoSQL 的 QM 分數(shù)上,超過了目前最好的多輪對話 Text-to-SQL 模型。而且對比同類型的基于 T5 的方案,MIGA 分別在 IM 上提升了 7.0% 和 QM 上提升了 5.8%。

圖片

表 1 對比實驗分析,第一部分為樹模型,第二部分為基于預(yù)訓(xùn)練生成模型。

在表 2 的消融實驗中,該研究對 MIGA 的兩階段訓(xùn)練過程中的幾個任務(wù)進行了探索,同時證明了這些任務(wù)分別都會對目標(biāo)任務(wù)有不同程度的提升。

圖片

表 2 針對 SparC 任務(wù),分別去除各項任務(wù)或數(shù)據(jù),在指標(biāo)上都有所降低。

在實際的案例分析結(jié)果,MIGA 在生成的穩(wěn)定性和正確性,對比基于 T5-3B 訓(xùn)練模型更好,可以看到 MIGA 在多表連接操作和列和表格的映射上要優(yōu)于其他模型。在 Case#1 的 Question#2 中,T5-3B 模型不能為相對復(fù)雜的 JOIN 結(jié)構(gòu)(兩表連接)生成有效的 SQL,進而導(dǎo)致 Question#3 中更復(fù)雜的 JOIN 結(jié)構(gòu)(三表連接)也預(yù)測錯誤。而 MIGA 準(zhǔn)確地預(yù)測了 JOIN 結(jié)構(gòu),并較好地維持了之前的條件 t1.sex="f"。在 Case#2 中,T5- 3B 混淆了不同表中的多個列,并將 earnings 誤認為是 people 表的列,而 MIGA 可以正確識別該列屬于 poker_player 表,并將其鏈接至 t1。

圖片?

表 3 案例分析。

結(jié)語

網(wǎng)易互娛 AI Lab 針對 Text-to-SQL 提出了一個基于 T5 的兩階段的多任務(wù)預(yù)訓(xùn)練模型:MIGA。在預(yù)訓(xùn)練階段,MIGA 將 Text-to-SQL 任務(wù)分解出了額外三個子任務(wù),并將其統(tǒng)一為序列到序列的生成范式,從而更好地激發(fā)預(yù)訓(xùn)練 T5 模型。并且在微調(diào)階段引入了 SQL 擾動機制,降低多輪 Text-to-SQL 生成場景下的錯誤傳遞帶來的影響。

未來,研究團隊會進一步探索更多有效的策略來撬動超大語言模型的能力,并且探索更優(yōu)雅更有效的方式來進一步克服因為錯誤傳遞而導(dǎo)致的效果降低問題。

責(zé)任編輯:張燕妮 來源: 機器之心
相關(guān)推薦

2022-06-15 07:42:00

谷歌T5模型

2021-01-13 15:16:45

谷歌架構(gòu)開發(fā)者

2017-08-30 18:15:54

MySql

2023-06-12 07:50:45

2023-02-01 09:46:29

2021-10-12 19:12:15

單步實現(xiàn)系統(tǒng)

2025-06-10 08:02:15

2023-05-19 07:25:34

2024-12-06 07:10:00

2022-03-28 10:44:51

MySQL日志存儲

2013-04-24 13:55:04

SPARCT5M5

2022-09-28 15:34:06

機器學(xué)習(xí)語音識別Pytorch

2024-11-13 08:34:32

T5聊天機器人大模型

2023-12-08 07:48:42

GPT模型時間序列

2024-05-21 14:12:07

2017-12-26 13:53:31

深度學(xué)習(xí)遷移學(xué)習(xí)

2022-03-28 09:00:00

SQL數(shù)據(jù)庫機器學(xué)習(xí)

2023-11-29 07:47:58

DDIA兩階段提交

2018-10-29 08:44:29

分布式兩階段提交事務(wù)

2023-05-03 20:55:29

點贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 影音先锋中文字幕在线观看 | 日韩欧美在线观看视频 | 99久久婷婷国产综合精品电影 | 久久av一区二区三区 | 国产成人一区二区 | 一区二区三区成人 | 国产在线一区二 | 天堂在线91 | 久久大| 欧美一级做性受免费大片免费 | 久久久久一区二区三区 | 国产精品夜间视频香蕉 | 欧美一级做a爰片免费视频 国产美女特级嫩嫩嫩bbb片 | 男女深夜网站 | 亚欧精品 | 在线看片福利 | 国产精品永久在线观看 | 日韩一区二区三区在线视频 | 一级黄色影片在线观看 | 亚洲欧美一区二区三区1000 | 少妇无套高潮一二三区 | 日韩一区二区三区在线视频 | 一区二区三区国产好 | 91最新在线视频 | 国产一区二区影院 | www.色五月.com | 久久精品网 | 国产成人精品亚洲日本在线观看 | 99re热精品视频 | 四虎在线观看 | www.天天操 | 亚洲欧美网站 | 91免费看片| 国产精品中文字幕在线观看 | 日韩视频在线免费观看 | 欧美三级在线 | 男人的天堂久久 | 69av在线视频 | 日韩精品久久久久久 | 久久精品二区亚洲w码 | 久久国产日韩欧美 |