成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

對比對齊模型:神經機器翻譯中的注意力到底在注意什么

開發 開發工具
神經機器翻譯近來廣受關注,基于注意力的NMT逐漸流行。但是,很少有研究分析注意力到底在「注意」什么?它與對齊一樣嗎?本文將對此進行分析。

神經機器翻譯(NMT)近期備受關注,它極大地改進了多種語言的機器翻譯質量,取得了頂級的結果。神經機器翻譯模型的核心架構基于常見的編譯器-解碼器方法,學習把源語言編碼成分布式表征,并把這些表征解碼成目標語言。在不同的神經機器翻譯模型中,基于注意力的 NMT 逐漸流行,因為它在每一翻譯步使用源句最相關的部分。這一能力使得注意力模型在翻譯長句時極為優秀。

從 2015 年 Bahdanau 等人的論文將注意力模型引入神經機器翻譯以來,出現了各種變體。然而,少有研究分析「attention」到底捕捉到了什么現象。有一些研究認為 attention 與傳統的詞對齊類似,一些方法也嘗試使用傳統的詞對齊來訓練注意力模型,實驗結果表明注意力模型也可被視為重排序模型(reordering model)和對齊模型(alignment model)。

但在此論文中,作者調查了注意力模型和對齊模型之間的區別,以及注意力機制到底捕捉到了什么。論文旨在解答兩個問題:注意力模型只能做對齊嗎?在不同的句法現象中注意力與對齊的類似程度有多大?

該論文的貢獻有:

  • 提供了 NMT 中的注意力機制與詞對齊的詳細對比。
  • 雖然不同的注意力機制會與詞對齊有不同程度的符合度,但完全符合對詞預測而言不總是有利的。
  • 研究表明根據生成的詞類型,注意力也會有不同的模式。
  • 研究證明注意力并不總是符合對齊機制。研究表明注意力與對齊的區別源于注意力模型關注當前要翻譯詞的上下文,這會影響當前詞的翻譯結果。

論文:What does Attention in Neural Machine Translation Pay Attention to?

論文:What does Attention in Neural Machine Translation Pay Attention to?

論文鏈接:https://arxiv.org/pdf/1710.03348.pdf

摘要:神經機器翻譯的注意力機制提供了在每一個翻譯步中編碼源句最相關部分的可能性,因此注意力機制通常被當做對齊模型。然而,目前并沒有論文專門研究注意力機制,分析注意力模型究竟學到了什么。所以,關于注意力機制和傳統對齊模型的相似性和區別的問題仍然沒有答案。在這篇論文中,我們對注意力機制進行了詳細分析,并和傳統的對齊模型作了比較。對于注意力機制只能做詞對齊,還是能捕捉更多信息,我們給出了解答。我們的研究表明,對于某些案例,注意力機制和對齊模型是不同的,注意力能夠捕捉到更多有用的信息。

翻譯樣本中每一個生成詞的源句子最相關部分的注意力可視化。我們可以看到在「would」和「like」的例子中,注意力是如何在多個源詞中「彌散」開的。

圖 1

圖 1:翻譯樣本中每一個生成詞的源句子最相關部分的注意力可視化。我們可以看到在「would」和「like」的例子中,注意力是如何在多個源詞中「彌散」開的。

圖 2

圖 2:注意力和對齊不一致的例子。帶邊框的單元格展示了 RWTH 數據集手工對齊的結果(見表 1)。我們可以看到在「will」和「come」的例子中,注意力是如何偏離對齊點的。

RWTH 德英數據集提供的手動對齊統計數據

表 1:RWTH 德英數據集提供的手動對齊統計數據。

輸入-饋送系統(input-feeding system)的平均注意力損失和平均詞預測損失。

圖 3:輸入-饋送系統(input-feeding system)的平均注意力損失和平均詞預測損失。

輸入-饋送模型的詞預測損失和注意力損失之間的相關性

圖 4:輸入-饋送模型的詞預測損失和注意力損失之間的相關性。

輸入-饋送模型的注意力熵(attention entropy)及其與注意力損失之間的相關性

圖 5:輸入-饋送模型的注意力熵(attention entropy)及其與注意力損失之間的相關性。

輸入-饋送系統的注意力熵和詞預測損失之間的相關性

圖 6:輸入-饋送系統的注意力熵和詞預測損失之間的相關性。

【本文是51CTO專欄機構“機器之心”的原創譯文,微信公眾號“機器之心( id: almosthuman2014)”】

戳這里,看該作者更多好文

責任編輯:趙寧寧 來源: 51CTO專欄
相關推薦

2024-06-28 08:04:43

語言模型應用

2019-10-25 16:18:34

機器學習人工智能計算機

2018-08-26 22:25:36

自注意力機制神經網絡算法

2020-09-17 12:40:54

神經網絡CNN機器學習

2024-12-09 00:00:10

2025-02-12 10:17:12

2017-08-09 10:02:12

NMT神經網絡自然語言處理

2024-09-19 10:07:41

2022-03-25 11:29:04

視覺算法美團

2025-02-10 00:00:55

MHAValue向量

2024-02-19 00:12:00

模型數據

2024-10-31 10:00:39

注意力機制核心組件

2017-07-07 15:46:38

循環神經網絡視覺注意力模擬

2025-02-25 09:40:00

模型數據AI

2023-05-05 13:11:16

2018-05-03 16:27:29

RNN神經網絡ResNet

2011-07-07 13:12:58

移動設備端設計注意力

2023-10-07 07:21:42

注意力模型算法

2024-06-06 09:18:48

2024-12-05 16:19:14

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 免费在线观看成人 | 久久久91精品国产一区二区三区 | 国产精品久久久久久久久久久久 | 久久高清 | 成年无码av片在线 | 亚洲自拍偷拍欧美 | www亚洲精品 | 色网在线看 | 亚洲精品免费在线 | 免费视频一区二区 | 成在线人视频免费视频 | 成人精品一区二区三区中文字幕 | 黑人精品欧美一区二区蜜桃 | 国产精品久久久久久久久久免费看 | 黄网站免费观看 | 久久久久久99 | 天天射天天操天天干 | 狠狠av| 久久6视频 | 亚洲成av人片在线观看无码 | 四虎网站在线观看 | 精品免费国产视频 | 91国产精品| 精品久久香蕉国产线看观看亚洲 | 成人h视频在线 | 精品国产乱码久久久久久闺蜜 | 麻豆亚洲 | 成人精品在线视频 | 国产精品一区二区av | 天色综合网 | 日本黄色大片免费 | 91短视频网址 | 中文字幕日韩欧美一区二区三区 | 久久亚洲精品久久国产一区二区 | 一区二区三区中文字幕 | 午夜影院在线观看视频 | 99pao成人国产永久免费视频 | 亚洲 成人 在线 | 91久久精品一区二区三区 | 久久久久黄 | 蜜桃视频一区二区三区 |