成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

揭秘!機器人和你對話時在想什么?

企業動態
為什么聊天機器人越來越普及?聊天機器人不僅可以節省時間,提升效率,還能一天24小時提供服務,更是可以減少誤差。聊天機器人背后的問題原理是什么?效率如何提升?就是今天我們要了解的內容。本篇內容已被收錄于ACL2019,希望對你有所幫助。

 ????為什么聊天機器人越來越普及?聊天機器人不僅可以節省時間,提升效率,還能一天24小時提供服務,更是可以減少誤差。聊天機器人背后的問題原理是什么?效率如何提升?就是今天我們要了解的內容。本篇內容已被收錄于ACL2019,希望對你有所幫助。

1.背景

在Chatbot整體解決方案中, 既有面向任務型的taskbot(諸如訂機票、查天氣等), 也有更偏向知識問答的qabot,而在客服場景下,最基礎的類型也是這類。如果從知識庫的形式來區分qabot,可以有 基于「文檔」的doc-qabot、基于「知識圖譜」的kg-qabot、基于「問答對」的faq-qabot等。我們這里重點關注的是最后一種faq-qabot(也簡稱faqbot), 這種形式的方案對用戶而言易理解易維護,也是目前chatbot解決方案中不可缺的一部分。

faqbot就是將query匹配到一條「問答對」上,從技術的角度看,有兩大類方法, 一是text classification, 二是text matching,它們各有適合的場景,前者適合咨詢量大且比較穩定的faq,后者適合長尾或時常變化的faq。

店小蜜是我們提供給阿里平臺商家的一套智能客服解決方案。在店小蜜中, 基于Faq的問答是個很基礎的部分,我們在這個領域,在文本分類和文本匹配上進行了各方面的研究和實踐, 在本篇中重點對文本匹配的基礎模型進行介紹。

「文本匹配」是NLP方向的一個重要研究領域,有著悠久的歷史,很多NLP任務都與此相關,比如 natual language inference、parahparase identification、answer selection等,都可以歸結成「文本匹配」問題。

有很多人研究這個課題, 當前優秀的匹配模型有哪些?這些模型有什么異同?這些模型存在哪些問題?這些都是我們展開這個項目需要先分析和回答的問題。我們通過分析SNLI榜單上的模型,有幾個結論:

  • 優秀的匹配模型都可以歸納成embed-encode-interacte-aggregate-predict五個步驟, interact部分主要是做inter-sentence alignment;
  • 在interact步驟中的對齊操作,設計會比較復雜;而且很多模型只有一次interact步驟;
  • 也有些更深的模型結構,會做多次的inter-sentence alignment, 但因為較深的模型面臨著梯度消失、難以訓練的問題;
  • 不管是參數量還是響應時間,支撐像店小蜜這樣對實時性能要求比較高的場景,都不是很理想。

所以我們在設計的時候, 要求我們的模型在更少的參數量、更簡潔的模型結構、更少的inference cost, 保證更容易訓練、更適合部署到生產環境, 在這幾個前提下, 我們也希望能借鑒深層網絡的優勢,讓我們可以很方便地加深我們的網絡層次, 讓模型有更強的表達能力。

2.模型

我們通過對學術界提出的各種模型,諸如Decomposable Attention Model、CAFE、DIIN等, 歸納總結,一個匹配模型的整體框架基本上有Embedding Layer、Encoder Layer、Interaction Layer、Aggregation Layer和Prediction Layer五層, 只是每一層都有不同的設計,我們實現一種可插拔的匹配模型框架, 每層都有一些典型的實現。

??

??

為了增強我們模型框架的表達能力, 我們將Encoder+Interaction Layer打包成一個Block, 通過堆疊多個Block, 通過多次的inter-sentence alignment,可以讓我們的模型更充分地理解兩句文本之間的匹配關系。

??

??

我們基于這種框架,通過大量試驗得到一個模型結構RE2, 可以在各類公開數據集、和我們自己的業務數據上都能得到最優的結果,如下圖所示。

??

??

RE2包括有N個Block, 多個Block的參數完全獨立。在每個Block內有一個encoder產出contextual representation, 然后將encoder的輸入和輸出拼在一起,做inter-sentence alignment,之后通過fusion得到Block的輸出。第i個Block的輸出,會通過Augmented Residual Connection的方式與這個Block的輸入進行融合, 作為第i+1個Block的輸入。

下面我們詳細介紹每個部分:

2.1 Augmented Residual Connection

??

??

在interaction layer的輸入中,存在三種信息, 一是original point-wise information, 在這里就是原始的詞向量,在每個Block中都會使用這份信息;二是通過encoder編碼得到的contextual information;三是之前兩層Block經過對齊加工過的信息。這三份信息,對最終的結果都有不可替代的作用, 在試驗分析中會展顯這一點。在我們這里encoder使用兩層CNN(SAME padding)。

2.2 Alignment Layer

這塊我們使用Decomposable Attention Model(Parikh et al., 2016)的對齊機制:

??

??

2.3 Fusion Layer

這塊我們參考CAFE中對concat、multiply、sub三個操作分別通過FM計算三個scalar特征值, 我們針對這三個操作, 用獨立的三個全連接網絡計算三個vector特征, 之后將三個vector拼接并用進行projection。

??

??

2.4 Prediction Layer

輸出層就比較常規,針對文本相似度匹配這類任務, 我們使用對稱的形式:

??

??

針對文本蘊含、問答匹配這類任務, 我們使用

??

??

其中H表示多層全聯接網絡。

3.試驗

3.1 數據集

要驗證模型效果,我們選擇三類NLP任務, Nature Language Inference、Paraphrase Identification、Question Answering, 選用SNLI、MultiNLI、SciTail、Quora Question Pair、Wikiqa這樣幾份公開數據集。評估指標,前兩個任務選用Acc, 后一個任務選擇MAP/MRR。

3.2 實現細節

我們用Tensorflow實現模型, 用Nvidia P100 GPU 訓練模型, 英文數據集使用NLTK分詞并統一轉小寫、去除所有標點。序列長度不做限制,每個batch中的序列統一pad到這個batch中最長序列長度,詞向量選用840B-300d Glove向量,在訓練過程中fix住,所有OOV詞初始化為0向量,訓練中不更新這些參數。所有其他參數使用He initialization, 并用Weight normalization歸一化;每個卷積層或全聯接層之后,有dropout層,keep rate設為0.8;輸出層是兩層前饋網絡;Block數量在1-5之間調參。

在這幾份公開數據集上, 隱層大小設為150;激活函數使用GeLU激活函數。優化算法選用Adam,學習率先線性warmup然后指數方式衰減,初始學習率在1e-4~ 3e-3之間調參;batch size在64~512之間調參。

3.3 結果

我們在這幾份公開數據集上,均取得state-of-art的結果(不使用BERT的情況下):

??

??

同樣這個模型性能上也有很良好的表現,參數量和inference speed都有很強的競爭力, 從而可以在我們店小蜜這樣的工業場景中得到廣泛應用,給我們匹配準確率這樣的業務指標上帶來顯著的提升。

??

??

3.4 結果分析

★ 3.4.1 Ablation study

我們構造了四個baseline模型, 分別是:

  • 1) w/o enc-in: alignment layer只使用encoder的輸出;
  • 2) w/o residual:去除所有block之間的residual 連接;
  • 3) w/o enc-out: 去除所有encoder,alignment layer只使用block的輸入;
  • 4) highway: 使用highway 網絡融合encoder的輸入和輸出,而不是直接拼接。

??

??

在SNLI上得到的結果如圖所示。通過1)3)和完整模型的對比, 我們發現alignment layer只使用encoder的輸出或只使用encoder的輸入,都會得到很差的結果,說明原始的詞向量信息、之前Block產出的align信息、當前Block中encoder產出的上下文信息,對最終的結果都是缺一不可的。通過2)和完整模型的對比,我們發現Block之間residual連接發揮了作用;而4)和完整模型的對比顯示,我們直接拼接的方式是個更優解。

★ 3.4.2 Block數量的影響

如上圖所示,通過Augmented Residual Connection連接的網絡,更容易在深層網絡中生效,能夠支撐更深的網絡層次,而其他baseline 模型,在Block數量大于3時, 效果會有很明顯的下降,并不能支撐更深層模型的應用。

★ 3.4.3 Occlusion sensitivity

前面講過, 在alignment layer的輸入中,其實是三類信息的拼接:原始的詞向量信息、之前Block產出的align信息、當前Block中encoder產出的上下文信息, 為了更好地理解這三份信息對最終結果的影響,我們參照機器視覺中相關工作, 進行了Occlusion sensitivity的分析。我們在SNLI-dev數據上,使用包含3個Block的一個RE2模型,分別將某層Block中alignment layer輸入特征的某部分mask成0向量,然后觀察在entailment、neutral 、 contradiction三個類別上的準確率變化:

??

??

可以得到幾個分析結論:

  • mask原始的詞向量信息, 會對neutral和contradiction類的識別帶來比較大的損失, 說明原始詞向量信息在判斷兩個句子差異性上發揮著重要作用;
  • mask之前Block產出的alignment信息, 會對neutral和contradiction類帶來比較大的影響,尤其是最后一層Block的這部分信息對最終的結果影響最大, 說明residual connection使得當前Block能更準確地關注應該關注的部分;
  • mask住Encoder的輸出結果, 對entailment的影響更大,因為encoder是對phrase-level 的語義進行建模, encoder的產出更有助于entailment的判斷。

★ 3.4.4 Case study

??

??

我們選了一個具體的case分析多層Block的作用。

這個case中, 兩句話分別是“A green bike is parked next to a door”“The bike is chained to the door”。在第一層Block中,是詞匯/短語級別的對齊, 而“parked next to”和“chained to”之間只有很弱的連接,而在第三層Block中, 可以看到兩者已經對齊, 從而模型可以根據“parked next to”和“chained to”之間的關系,對兩句話整體的語義關系做出判斷。從中也可以看到,隨著Block的遞增, 每層Block的alignment關注的信息都隨之進行著調整,通過不止一次的alignment, 可以讓模型更好地理解兩句話之間的語義關系。

4. 業務結果

在店小蜜中,自定義知識庫是由商家維護,我們提供知識定位方案;在店小蜜無法給出準確回復時, 我們會推薦相關知識,這里的文本匹配模型,也主要用在店小蜜的這兩個業務模塊。我們重點優化了7個大類行業模型(服飾、美妝洗護、鞋、電器、茶酒零食、母嬰、數碼)、一個大盤基礎模型和相關知識推薦模型。在保證覆蓋率的情況下, 7類主營行業準確率從不到80%提升到89.5%,大盤基礎模型準確率提升到84%,知識推薦有效點擊從14%左右提升到19.5%。

店小蜜自定義知識庫后臺配置:

??

??

店小蜜旺旺咨詢示例:

??

??

??

??

總結展望

我們在工業場景下,實現了一個簡潔同時具有很強表達能力的模型框架,并在公開數據集和業務數據集上取得很好的結果。

  • 這種「通用」的語義匹配模型,已經對當前的業務帶來很大的提升, 但是,針對店小蜜這樣的業務場景, 是否在不同行業不同場景下可以得到更合適更有特色的解決方案,比如融合進商品知識、活動知識等外部知識做文本匹配。
  • 怎么進一步完善FaqBot的技術體系,比如在文本分類、Fewshot分類等方向,也是我們團隊的一個重點工作。
  • 隨著BERT模型的出現,NLP各項任務都達到了新的SOTA。然而BERT過于龐大,對計算資源的需求很高,因此我們想利用Teacher-Student框架將BERT模型的能力遷移到RE2模型上。

 

責任編輯:武曉燕 來源: 51CTO專欄
相關推薦

2020-10-23 11:09:53

人工智能

2018-03-20 16:40:07

天貓精靈阿里對話

2022-07-05 11:32:16

人工智能機器人心理健康

2009-03-11 11:12:24

2023-05-17 11:05:16

機器人深度學習算法

2017-03-30 09:02:50

AI機器人會話

2017-10-09 16:32:04

2024-02-04 09:43:53

機器人物聯網

2023-07-20 10:49:18

人工智能機器人

2023-09-25 14:56:19

機器人

2023-02-16 14:02:28

人工智能機器人

2017-08-03 12:31:34

白熊視頻人工智能程序員

2021-08-19 15:44:20

機器人人工智能機器學習

2023-03-26 19:38:09

2017-05-08 12:05:51

機器人智慧養老人工智能

2021-06-11 16:50:12

人工智能AI機器人

2022-12-13 17:38:04

客服機器人推薦系統

2015-03-09 17:50:56

GMIC

2023-08-25 15:40:24

2023-09-08 11:42:19

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 欧美激情视频一区二区三区免费 | 国产一区二区三区在线视频 | 成人免费视频网站在线看 | 国产精品视频网 | 9久久 | 玖玖爱365| 国产午夜精品一区二区三区四区 | 精品亚洲一区二区 | 亚洲精品久久久久久下一站 | 日韩精品在线一区 | 一级一级一级毛片 | 蜜桃臀av一区二区三区 | 在线国产欧美 | www.一区二区三区.com | 懂色中文一区二区三区在线视频 | 国产精品视频一区二区三区 | 亚洲性视频网站 | 免费特级黄毛片 | 九九综合| 天天精品在线 | 日本电影网站 | 91精品国产91久久久久久丝袜 | 一区二区三区国产在线观看 | 免费成人高清在线视频 | 国内精品久久久久 | 色婷婷综合久久久中字幕精品久久 | 日本a v在线播放 | 日韩在线大片 | 99精品国产一区二区三区 | 欧美free性| 午夜免费| 欧美www在线 | 男人av在线播放 | 欧美国产激情二区三区 | 国产精品免费一区二区 | 日日夜夜精品 | 在线色网 | 成人精品毛片国产亚洲av十九禁 | 欧美日韩成人影院 | 精品久久久久一区二区国产 | 天天操天天射天天舔 |