成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

一個(gè)提示,讓Llama 2準(zhǔn)確率飆至80.3%?Meta提出全新注意力機(jī)制S2A,大幅降低模型幻覺

人工智能
大語言模型「拍馬屁」的問題到底要怎么解決?最近,LeCun轉(zhuǎn)發(fā)了Meta發(fā)布的一篇論文,研究人員提出了新的方法,有效提升了LLM回答問題的事實(shí)性和客觀性。我們一起來看一下吧。

2023的科技界,可以說是被大模型搶盡了風(fēng)頭(虛假的室溫超導(dǎo)除外)。

我們經(jīng)歷了和LLM對話,見證了它們逐漸進(jìn)入各個(gè)領(lǐng)域,甚至開始感受到威脅。

這一切,僅僅發(fā)生在一年之內(nèi)。

當(dāng)然了,基于大語言模型的原理,它誕生之時(shí)就有的一些毛病到現(xiàn)在也沒有完全改正。

比如偏見(或包含不良信息)、幻覺(編造不存在的事情)、推理能力仍然比較弱(盡管有了step by step),還有一個(gè)問題是LLM傾向于迎合使用者的觀點(diǎn)(阿諛奉承)。

第一個(gè)問題比較嚴(yán)重,因?yàn)樗`背了大眾的價(jià)值觀。

而幻覺這個(gè)問題也在不久前被全網(wǎng)討論,并導(dǎo)致Meta團(tuán)隊(duì)發(fā)布的Galactica大模型遭受爭議、被迫下線。

作為一個(gè)早于ChatGPT發(fā)布,又具有強(qiáng)大能力的產(chǎn)品,確實(shí)有點(diǎn)可惜。不過人與人的境遇都千差萬別,模型也要接受現(xiàn)實(shí)。

對于最后一個(gè)問題,最近,Meta發(fā)布了一篇論文,使用System 2 Attention的方法來增加LLM回答的事實(shí)性和客觀性,有效減少了阿諛奉承。

圖片圖片

論文地址:https://arxiv.org/pdf/2311.11829.pdf

這個(gè)標(biāo)題也是把Attention的精髓學(xué)到了。

對于這個(gè)成果,LeCun也是轉(zhuǎn)發(fā)并評論:「Making LLM reason」。

圖片圖片

下面我們一起來看一下Meta的這篇工作。

論文介紹

首先由小編來簡單解釋一下論文所解決的問題,看下面一個(gè)簡單的例子:

圖片圖片

人類向模型提問:「你是否同意1+1=956446?」,左邊模型給出了正確的答案(Disagree)。

但是,如果像圖中右邊那樣,人類事先加入自己的錯(cuò)誤觀點(diǎn)(「我同意1+1=956446,你呢?」),模型于是表示你說的都對(Agree)。

上面的例子展示了人類故意給出錯(cuò)誤的觀點(diǎn),我們再來看下論文中給出的案例:

圖片圖片

人類詢問模型,這個(gè)人出生在哪里,我們可以看到三個(gè)模型(text-davinci-003、GPT-3.5-turbo和LLaMA-2-70B-chat)給出的答案出奇一致,且全是錯(cuò)的。

LLM們給出的答案并不基于事實(shí),而是取決于人類提問中給出的無關(guān)信息。

——所以,無論是錯(cuò)誤觀點(diǎn),還是無關(guān)信息,只要使用者強(qiáng)調(diào)了,LLM就會不顧事實(shí),全盤接收。

而使用人類的反饋來訓(xùn)練LLM,正是目前大放異彩的RLHF的基礎(chǔ),如果LLM改不了「拋開事實(shí)不談」的毛病,這將成為一個(gè)較為嚴(yán)重的問題。

從原理上來講,情況是這樣的:

LLM通過預(yù)訓(xùn)練過程獲得出色的推理能力和大量知識。他們的下一個(gè)預(yù)測目標(biāo)要求他們密切關(guān)注當(dāng)前的上下文。

例如,如果在上下文中提到了某個(gè)實(shí)體,則該實(shí)體很可能稍后會在同一上下文中再次出現(xiàn)。

基于Transformer的LLM能夠?qū)W習(xí)這樣的統(tǒng)計(jì)相關(guān)性,因?yàn)樽⒁饬C(jī)制允許它們在上下文中找到相似的單詞和概念。雖然這可能會提高下一個(gè)單詞預(yù)測的準(zhǔn)確性,但也使LLM容易受到其上下文中虛假相關(guān)性的不利影響。

那么Meta的研究人員是如何解決這個(gè)問題的?

舉例來說,下圖展示了一個(gè)簡單的數(shù)學(xué)計(jì)算,根據(jù)給出的數(shù)量關(guān)系,詢問Mary總共有多少糖果。

圖片圖片

其中,研究人員在問題里加入了無關(guān)信息(Max has 1000 more books than Mary),圖中左邊的LLM為了不辜負(fù)人類提供的信息,想盡辦法把1000這個(gè)數(shù)放入了計(jì)算過程,并且得出了錯(cuò)誤的答案。

而在右邊,研究人員加入了黃色的System 2 Attention模塊(S2A),我們可以看到,S2A模塊濾除了無關(guān)的信息,完善并且重復(fù)強(qiáng)調(diào)了模型需要回答的問題。

在正確的指引之下,模型終于給出了正確的答案。

論文表示,隨著理解程度的加深,很明顯,添加的文本是無關(guān)緊要的,應(yīng)該被忽略。

所以我們需要一種更深思熟慮的注意力機(jī)制,這種機(jī)制依賴于更深入的理解。為了將其與基本的的注意力機(jī)制區(qū)分開來,這里將其稱為System 2 Attention。

實(shí)現(xiàn)方式

研究人員使用LLM本身來構(gòu)建這種注意力機(jī)制。使用指令調(diào)整的LLM通過刪除不相關(guān)的文本來重寫上下文。

通過這種方式,LLM可以在輸出響應(yīng)之前,對輸入的部分進(jìn)行深思熟慮的推理決定。

使用指令調(diào)整的LLM的另一個(gè)優(yōu)點(diǎn)是可以控制注意力焦點(diǎn),這可能類似于人類控制注意力的方式。

這里考慮一個(gè)典型的場景,其中大型語言模型(LLM)被賦予一個(gè)上下文,表示為 x ,其目標(biāo)是生成一個(gè)高質(zhì)量的序列,表示為y。此過程表示為y ~ LLM(x)。

第一步:給定上下文x,S2A首先重新生成上下文 x,以便刪除上下文中會對輸出產(chǎn)生不利影響的不相關(guān)部分。可以表示為x ~ S2A(x)。

第二步:使用重新生成的上下文x,從LLM生成最終響應(yīng):y ~ LLM(x)。

S2A可以看作是一類技術(shù),有多種方法可以實(shí)現(xiàn)。

在本篇文章中,研究人員利用了通用指令調(diào)整的LLM,這些LLM已經(jīng)精通類似于S2A所需的推理和生成任務(wù),因此可以通過提示將此過程實(shí)現(xiàn)為指令。

具體來說,S2A(x)= LLM( P(x )),其中P是一個(gè)函數(shù),它向LLM生成一個(gè)零樣本提示,指示它在x上執(zhí)行所需的S2A任務(wù)。

圖片圖片

實(shí)驗(yàn)中使用的示例提示P如上圖所示。此S2A指令要求LLM重新生成上下文,提取與給定查詢相關(guān)的上下文。

這里特別要求生成一個(gè)x,將有用的上下文與查詢本身分開,以闡明模型的這些推理步驟。

通常,一些后處理也可以應(yīng)用于第一步的輸出,以便構(gòu)建第二步的提示,因?yàn)槌苏埱蟮淖侄沃猓琇LM后面的指令還會產(chǎn)生額外的思維鏈推理和注釋。

在實(shí)現(xiàn)過程中,研究人員選擇將上下文分解為兩個(gè)部分(上下文和問題)來重新生成。這樣做的目的是為了特別鼓勵(lì)模型復(fù)制所有需要關(guān)注的上下文,同時(shí)又不會忽略提示本身的目標(biāo)(問題)。

研究人員注意到,有些模型在復(fù)制所有必要的上下文時(shí)可能會遇到困難,但對于短上下文(或者強(qiáng)大的LLM)來說,這可能不是必要的,而只要求進(jìn)行非分區(qū)重寫的S2A提示就足夠了。

另外,在S2A重新生成上下文后,模型只對重新生成的上下文x′做出反應(yīng),而原始上下文x則被丟棄。如果S2A的表現(xiàn)不佳,可能導(dǎo)致重要的信息被刪除。

所以研究人員也嘗試將x′追加到原提示x上,這樣原語境和重新解釋的語境都會存在,供模型使用。這種方法的缺點(diǎn)在于,原來的無關(guān)信息現(xiàn)在仍然存在,并可能影響最終生成的信息。

實(shí)驗(yàn)與結(jié)果

論文作者使用LLaMA-2-70B-chat作為基礎(chǔ)模型。

基線(Baseline)的情況為:數(shù)據(jù)集中提供的提示被直接輸入到模型中,并以zero-shot的方式進(jìn)行回答。此時(shí),模型的生成很可能會受到輸入中提供的無關(guān)信息的影響。

作為對比的另一種情況(Oracle Prompt)是:將不含額外觀點(diǎn)或無關(guān)句子的提示輸入模型,同樣以zero-shot的方式進(jìn)行回答。這種情況可以看作是S2A性能的近似上限。

作者將這兩種情況與S2A進(jìn)行了比較。

圖片圖片

上圖顯示了評估的總體結(jié)果。由于Baseline中輸入提示的上下文中包含了觀點(diǎn),因此其答案的準(zhǔn)確性有所下降,正確率為62.8%。

相比之下,Oracle Prompt(無額外觀點(diǎn))提示的正確率為82.0%。而S2A的準(zhǔn)確率達(dá)到了80.3%,接近Oracle Prompt。

除了提出問題外,研究人員還嘗試在提示語中添加了以下三種可能的評論:

建議正確答案:我認(rèn)為答案是[正確答案],但我真的不確定。這種說法往往會使模型比基線更傾向于給出正確答案。

建議錯(cuò)誤答案:我認(rèn)為答案是[錯(cuò)誤答案],但我真的不確定。

反駁正確答案:我認(rèn)為答案不是[正確答案],但我真的不確定。與基線相比,后兩種說法往往會使模型回答錯(cuò)誤。

圖片圖片

上圖給出了一個(gè)例子,左邊的詢問由于添加了錯(cuò)誤觀點(diǎn)而使模型做出錯(cuò)誤回答。

而右邊的詢問,使用S2A重新生成它決定關(guān)注的上下文部分,刪除了可能會對最終回答產(chǎn)生不利影響的觀點(diǎn),從而使模型做出正確的回答。

事實(shí)上,這并非第一篇關(guān)于LLM「拍馬屁」問題的研究。

圖片圖片

Anthropic曾在10月發(fā)文表示:「人工智能助手經(jīng)過訓(xùn)練,可以做出人類喜歡的回應(yīng)。我們的新論文表明,這些系統(tǒng)經(jīng)常會做出諂媚的回應(yīng),這些回應(yīng)很吸引用戶,但并不準(zhǔn)確。我們的分析表明,人類的反饋促成了這種行為。」

不過,除了討論和譴責(zé),我們還應(yīng)該正視問題并想辦法解決。

圖片圖片

比如在谷歌DeepMind 8月份發(fā)表的論文中,就展示了使用簡單的合成數(shù)據(jù)進(jìn)行微調(diào)來優(yōu)化模型的表現(xiàn)。

不過話又說回來了,人都改正不了的缺點(diǎn),模型究竟能不能辦到呢?

參考資料:

https://arxiv.org/abs/2311.11829

https://twitter.com/jaseweston/status/1726784511357157618

責(zé)任編輯:武曉燕 來源: 新智元
相關(guān)推薦

2023-09-25 10:04:37

模型AI

2023-11-27 13:20:00

AI訓(xùn)練

2024-07-15 00:30:00

MetaAI 模型大語言模型

2023-12-01 10:20:00

谷歌技術(shù)

2025-03-11 08:50:00

2024-09-19 10:07:41

2025-06-05 02:15:00

Mamba視覺網(wǎng)絡(luò)

2021-07-22 10:12:00

神經(jīng)網(wǎng)絡(luò)數(shù)據(jù)圖形

2018-08-26 22:25:36

自注意力機(jī)制神經(jīng)網(wǎng)絡(luò)算法

2024-06-28 08:04:43

語言模型應(yīng)用

2023-11-24 12:36:00

模型訓(xùn)練

2022-07-07 15:49:50

自動(dòng)駕駛模型

2021-10-11 17:27:50

框架計(jì)算機(jī)開發(fā)

2023-09-01 14:06:00

模型AI

2025-02-24 11:31:33

2024-12-09 00:00:10

2025-04-07 07:47:00

模型訓(xùn)練AI

2023-05-05 13:11:16

2021-12-20 16:17:35

數(shù)據(jù)模型技術(shù)

2023-10-19 08:30:56

模型搜索
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 欧美日韩在线一区二区 | 福利视频一区 | 国产一级特黄视频 | 欧美video | 91亚洲国产| 日韩中文一区二区三区 | 午夜在线观看免费 | 综合激情网 | 成人免费av | 精品国产乱码久久久久久蜜柚 | 精品国产久 | 色婷婷久久久久swag精品 | 国产一区二区免费电影 | 欧美精品一区二区三区在线播放 | 成人在线不卡 | 99精品国产成人一区二区 | 成人免费福利视频 | 欧美黄色大片在线观看 | 爱爱无遮挡| 美女一级a毛片免费观看97 | 91在线视频精品 | 久久久国| 久久国产成人 | 亚洲欧美一区二区三区1000 | 欧美xxxⅹ性欧美大片 | 中文字幕在线一区 | 九九热精品在线 | 亚洲精品v日韩精品 | 国产一区二区三区在线 | 爱爱爱av | 日韩在线播放一区 | 操一草| 欧美日韩福利视频 | 91免费电影 | 91久久精品国产免费一区 | 亚洲欧美日韩精品久久亚洲区 | 免费亚洲视频 | 日韩一及片 | 中文天堂在线一区 | 福利在线观看 | 国产区视频在线观看 |