成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

LLM幻覺,竟因知識(shí)「以大欺小」!華人團(tuán)隊(duì)祭出對(duì)數(shù)線性定律與CoDA策略

人工智能
來自UIUC等大學(xué)的華人團(tuán)隊(duì),從LLM的基礎(chǔ)機(jī)制出發(fā),揭示、預(yù)測(cè)并減少幻覺!通過實(shí)驗(yàn),研究人員揭示了LLM的知識(shí)如何相互影響,總結(jié)了幻覺的對(duì)數(shù)線性定律。更可預(yù)測(cè)、更可控的語言模型正在成為現(xiàn)實(shí)。

大語言模型(LLMs)已經(jīng)徹底改變了AI,但「幻覺」問題如影隨從,堪稱LLM癌癥。

LLM會(huì)一本正經(jīng)、義正辭嚴(yán)的捏造事實(shí),「臉不紅,心不跳」地說謊。

「幻覺」被普遍認(rèn)為與訓(xùn)練數(shù)據(jù)相關(guān)。

但在掌握真實(shí)訓(xùn)練數(shù)據(jù)的情況下,為什么LLM還會(huì)幻覺?能否提前預(yù)測(cè)LLM幻覺的發(fā)生?

來自美國(guó)伊利諾伊大學(xué)香檳分校UIUC、哥倫比亞大學(xué)、西北大學(xué)、斯坦福大學(xué)等機(jī)構(gòu)的研究團(tuán)隊(duì),在Arxiv上發(fā)布預(yù)印本,提出了知識(shí)遮蔽定律(The Law of Knowledge Overshadowing):揭示、預(yù)測(cè)并減少LLM幻覺!

一作張雨季宣布新發(fā)現(xiàn),介紹了LLM幻覺的對(duì)數(shù)線性定律(Log-Linear Law),分享了最新研究成果:

圖片圖片

此研究深入研究了LLM幻覺,有4大亮點(diǎn):

1 發(fā)現(xiàn)幻覺的對(duì)數(shù)線性規(guī)律:幻覺率隨著相對(duì)知識(shí)流行度、相對(duì)知識(shí)長(zhǎng)度和模型規(guī)模的對(duì)數(shù)線性增長(zhǎng)

2 在訓(xùn)練或推理前預(yù)測(cè)幻覺:在訓(xùn)練前「知識(shí)遮蔽效應(yīng)」可預(yù)測(cè)幻覺發(fā)生的可能性

3 提出全新解碼策略CoDA(Contrastive Decoding with Attenuation)強(qiáng)調(diào)被遮蔽的知識(shí),降低主流知識(shí)偏差,大幅提升LLM事實(shí)性(Factuality)

4 更可預(yù)測(cè)、更可控的語言模型正在成為現(xiàn)實(shí)!研究加深了對(duì)LLM幻覺機(jī)制的理解,為未來的可解釋性與可控性研究打開新方向

圖片圖片

論文鏈接:https://arxiv.org/abs/2502.16143

LLM存在一種根本矛盾:

即使使用高質(zhì)量的訓(xùn)練數(shù)據(jù),「幻覺」依舊存在。

要解決這一矛盾,需要對(duì)LLL的根本機(jī)制有更深入的理解。

為此,本次研究團(tuán)隊(duì)提出了新概念:「知識(shí)遮蔽」,即模型中的主導(dǎo)知識(shí)可以在文本生成過程中,掩蓋那些不太突出的知識(shí),從而導(dǎo)致模型編造不準(zhǔn)確的細(xì)節(jié)。

基于這一概念,研究者引入了新的框架來量化事實(shí)性幻覺,通過模擬知識(shí)遮蔽效應(yīng)實(shí)現(xiàn)。

事實(shí)性幻覺的發(fā)生率會(huì)隨著以下3個(gè)因素的對(duì)數(shù)尺度線性增加:(1)知識(shí)普及度,(2)知識(shí)長(zhǎng)度,以及(3)模型大小。

基于這一規(guī)律,可以預(yù)先量化幻覺現(xiàn)象,甚至在模型訓(xùn)練或推理之前,就能預(yù)見幻覺出現(xiàn)。

在遮蔽效應(yīng)基礎(chǔ)之上,研究人員還提出了一種新的解碼策略CoDa,以減少幻覺現(xiàn)象,這顯著提高了模型在Overshadow(27.9%)、MemoTrap(13.1%)和NQ-Swap(18.3%)測(cè)試中的事實(shí)準(zhǔn)確性。

新研究不僅加深了對(duì)幻覺背后基礎(chǔ)機(jī)制的理解,也為開發(fā)更加可預(yù)測(cè)和可控的語言模型提供了可行的見解。

什么是「LLM幻覺」

LLM的「幻覺」指的是模型生成不真實(shí)或非事實(shí)陳述的現(xiàn)象。

給出提示「LLM幻覺」,AI自己可以解釋什么是LLM幻覺:

圖片圖片

排名第一的原因就是訓(xùn)練數(shù)據(jù)問題。

然而,發(fā)現(xiàn)即使在嚴(yán)格控制預(yù)訓(xùn)練語料庫(kù)僅包含事實(shí)陳述的情況下,這一問題仍然存在。

具體來說,在使用查詢提取知識(shí)時(shí),觀察到某些知識(shí)傾向于掩蓋其他相關(guān)信息。

這導(dǎo)致模型在推理過程中未能充分考慮被掩蓋的知識(shí),從而產(chǎn)生幻覺。

知識(shí)遮蔽導(dǎo)致幻覺

「知識(shí)遮蔽」(knowledgeovershadowing)是指更常見的知識(shí)會(huì)抑制較少出現(xiàn)的知識(shí),從而導(dǎo)致幻覺的產(chǎn)生。

為了系統(tǒng)地描述知識(shí)遮蔽現(xiàn)象,在訓(xùn)練語料庫(kù)中,研究人員定義了知識(shí)對(duì)(knowledge pairs)。

具體來說,設(shè)圖片圖片代表一對(duì)知識(shí)集合。

其中,K_A包含m個(gè)知識(shí)陳述樣本ka_i,而K_B包含n個(gè)知識(shí)陳述樣本kb_j。

在K_A和K_B中的每個(gè)陳述都通過一個(gè)共享的詞元集合X_{share}相關(guān)聯(lián)。

在知識(shí)集K_A中,每個(gè)聲明ka_i由一個(gè)共享的token序列Xshare、一個(gè)唯一的token序列xai和輸出Ya組成。

每個(gè)聲明kai表示為:

圖片圖片

其中⊙表示將獨(dú)特的序列xai插入Xshare中(整合位置可以變化)。

同樣,對(duì)于不太受歡迎的知識(shí)集K_B,用xbj表示獨(dú)特的token序列,每個(gè)聲明kbj表述為:

圖片圖片

當(dāng)在推理過程中抑制獨(dú)特的token序列xbj或xai時(shí),會(huì)發(fā)生知識(shí)遮蔽。

以xbj被遮蔽為例,當(dāng)提示Xshare⊙xbj時(shí),模型輸出Ya,形成圖片,錯(cuò)誤地將事實(shí)聲明kai和kbj合并成事實(shí)幻覺,違背了地面真相圖片,如圖1所示。

事實(shí)幻覺的度量

為了測(cè)量由知識(shí)遮蔽引起的事實(shí)幻覺,引入了相對(duì)幻覺率R。

當(dāng)KA是更受歡迎的知識(shí)集時(shí),首先量化模型正確記憶來自KA的樣本的召回率,記為圖片

然后,量化模型在xbj被遮蔽時(shí)產(chǎn)生輸出的幻覺率HR,記為圖片

相對(duì)幻覺率R=HR/RR表示不那么受歡迎的知識(shí)集由xbj編碼的知識(shí)被更受歡迎的知識(shí)集由xai編碼的知識(shí)抑制的程度。這個(gè)比率表示較不流行的知識(shí)(xbj)在多大程度上被較流行的知識(shí)(xai)所抑制。

圖片圖片

圖2:大語言模型(LLMs)在一個(gè)具有可控變量S、P和L的合成數(shù)據(jù)集上從零開始預(yù)訓(xùn)練。

在每個(gè)子圖中,通過改變其中一個(gè)變量進(jìn)行實(shí)驗(yàn),同時(shí)保持另外兩個(gè)變量不變。

LLMs采用自回歸(auto-regressive)方式進(jìn)行訓(xùn)練,并基于整句話計(jì)算交叉熵?fù)p失(cross-entropyloss)。

關(guān)于訓(xùn)練數(shù)據(jù)的統(tǒng)計(jì)信息、訓(xùn)練參數(shù)及具體實(shí)現(xiàn)細(xì)節(jié),請(qǐng)參考原文附錄A.1和A.2。

影響變量的公式化

由于影響事實(shí)幻覺的潛在因素尚未被深入研究,從全局和局部?jī)蓚€(gè)角度分析這些變量,重點(diǎn)關(guān)注導(dǎo)致「知識(shí)遮蔽」(overshadowing)效應(yīng)的知識(shí)占比。

當(dāng)K_A比K_B更流行時(shí),樣本數(shù)量滿足m>n。

全局視角下,定義相對(duì)知識(shí)流行度(relative knowledge popularity)為P=m/n,該值表示在整個(gè)訓(xùn)練語料庫(kù)中,某一知識(shí)的相對(duì)占比。

局部視角下,量化單個(gè)句子中知識(shí)的權(quán)重,定義相對(duì)知識(shí)長(zhǎng)度(relativeknowledgelength)為:圖片其中,長(zhǎng)度(length)是指token的數(shù)量。

此外,先前研究表明,擴(kuò)大模型規(guī)模可以提升模型性能。因此,研究增加模型規(guī)模(S)是否能緩解事實(shí)幻覺現(xiàn)象。

何時(shí)會(huì)出現(xiàn)事實(shí)幻覺?

為了研究知識(shí)幻覺出現(xiàn)的條件,研究人員在以下三種情境下探測(cè)了知識(shí)掩蓋現(xiàn)象:

1、未經(jīng)過額外訓(xùn)練的開源預(yù)訓(xùn)練LLM,

2、從零開始訓(xùn)練一個(gè)新的LLM,

3、以及對(duì)預(yù)訓(xùn)練LLM進(jìn)行下游任務(wù)的微調(diào)。

開源LLM中的幻覺

研究人員探測(cè)了開源預(yù)訓(xùn)練大語言模型Olmo和公開訓(xùn)練語料Dolma,調(diào)查了模型幻覺與數(shù)據(jù)樣本頻率之間的關(guān)系。

結(jié)果表明,頻率更高的知識(shí)傾向于掩蓋頻率較低的知識(shí)。

這一發(fā)現(xiàn)與「高頻知識(shí)掩蓋低頻知識(shí)」的現(xiàn)象相一致,說明數(shù)據(jù)中出現(xiàn)頻率高的內(nèi)容容易主導(dǎo)模型的輸出,從而導(dǎo)致幻覺。

當(dāng)向語言模型提出包含多個(gè)條件的問題時(shí),有研究報(bào)告稱,模型的回答往往只部分滿足這些條件。

為了驗(yàn)證較流行的知識(shí)是否會(huì)遮蔽較不流行的知識(shí),設(shè)計(jì)了一項(xiàng)探測(cè)實(shí)驗(yàn)。

實(shí)驗(yàn)使用了典型查詢句式,例如:「告訴我一些著名的<A><B>」。

其中A和B代表不同的條件,比如性別、種族、職業(yè)、性取向、國(guó)籍、時(shí)間等。

B條件的上下文關(guān)系趨勢(shì)與訓(xùn)練數(shù)據(jù)中的提及頻率一致。

這些研究結(jié)果證實(shí)了,當(dāng)知識(shí)不平衡滿足 m > n 時(shí),就會(huì)出現(xiàn)事實(shí)性幻覺。

正如下表5所示,模型往往會(huì)優(yōu)先滿足條件B,而忽略條件A,導(dǎo)致生成幻覺性回答。

值得注意的是,條件A通常存在一個(gè)更占主導(dǎo)地位的對(duì)應(yīng)項(xiàng)。

圖片圖片

表5:預(yù)訓(xùn)練的OLMO模型在推理時(shí)產(chǎn)生的嚴(yán)重幻覺(可能具有冒犯性)。主導(dǎo)知識(shí)以粉色/藍(lán)色標(biāo)注,被掩蓋的知識(shí)以橙色/綠色標(biāo)注。

幻覺的對(duì)數(shù)線性規(guī)律

實(shí)驗(yàn)設(shè)置:為了準(zhǔn)確量化幻覺與其影響因素之間的關(guān)系,在具有受控變量設(shè)置的合成數(shù)據(jù)集上,研究人員從頭開始預(yù)訓(xùn)練語言模型。

之所以這樣做,是因?yàn)楝F(xiàn)實(shí)世界訓(xùn)練數(shù)據(jù)中,自然語言天生就有變異性和不精確性,無法以完全準(zhǔn)確地枚舉所有流行/不流行知識(shí)的表達(dá)形式。

對(duì)于每個(gè)受控變量實(shí)驗(yàn),從分詞器詞匯表中,采樣詞元來構(gòu)建每個(gè)數(shù)據(jù)集,如表1所示。

圖片圖片

研究人員從零開始預(yù)訓(xùn)練每個(gè)LLM,使用表1中的數(shù)據(jù)集,共包含19.6億tokens,并在自回歸(auto-regressive)方式下進(jìn)行訓(xùn)練。

同時(shí)控制變量,優(yōu)化交叉熵?fù)p失(cross-entropy loss),直到模型收斂(訓(xùn)練細(xì)節(jié)見原文附錄A.1)。

正如圖2所示,事實(shí)幻覺(factualhallucination)與知識(shí)流行度P、知識(shí)長(zhǎng)度L和模型規(guī)模S呈對(duì)數(shù)線性關(guān)系:

圖片

其中α、β、γ、Pc、Lc、Sc為常數(shù)。

從圖2可以看出,幻覺率隨著相對(duì)知識(shí)流行度P、相對(duì)知識(shí)長(zhǎng)度L和模型規(guī)模S的對(duì)數(shù)值線性增長(zhǎng)。

圖片圖片

更高的流行度會(huì)導(dǎo)致信息被掩蓋:高頻知識(shí)會(huì)主導(dǎo)模型的學(xué)習(xí),而低頻知識(shí)則更容易被忽略或錯(cuò)誤替代。

更長(zhǎng)的文本會(huì)導(dǎo)致信息被掩蓋:在句子內(nèi)部,如果x_{bj}的token長(zhǎng)度短于X_share,它的語義邊界會(huì)變得不清晰,導(dǎo)致信息被掩蓋。

更大模型導(dǎo)致信息被掩蓋:在保持低頻知識(shí)的清晰語義區(qū)分方面,更大的模型的能力有所下降。最終可能導(dǎo)致低頻知識(shí)在生成過程中被忽略或誤用,從而增加幻覺(hallucination)發(fā)生的概率。

在微調(diào)LLM中驗(yàn)證對(duì)數(shù)線性規(guī)律

在上文中,研究結(jié)果基于預(yù)訓(xùn)練模型。

對(duì)數(shù)線性規(guī)律(log-linear law)是否在微調(diào)LLM中依然成立?

對(duì)數(shù)線性規(guī)律是否可用作量化LLM產(chǎn)生幻覺的預(yù)測(cè)工具,尤其是在下游任務(wù)微調(diào)過程中?

具體來說,研究人員對(duì)參數(shù)規(guī)模從160M到13B的模型進(jìn)行微調(diào),涵蓋多種事實(shí)類任務(wù),包括:

時(shí)間、地點(diǎn)、性別、否定查詢(negation queries)、數(shù)學(xué)和邏輯推理與知識(shí)沖突解析(knowledge conflict resolution)。

對(duì)于每個(gè)任務(wù),研究人員生成:

(1)m組樣本,對(duì)應(yīng)圖片

(2)n組樣本,對(duì)應(yīng)圖片

為了嚴(yán)格控制微調(diào)后的知識(shí)分布,研究人員使用人工構(gòu)造的事實(shí)來生成查詢,以減少預(yù)訓(xùn)練知識(shí)的干擾,從而能夠更加精準(zhǔn)地評(píng)估對(duì)數(shù)線性規(guī)律中的P(知識(shí)流行度)和L(知識(shí)長(zhǎng)度)。

表1展示了多個(gè)任務(wù)的知識(shí)對(duì)(k_a,k_b)示例,原文附錄A.2提供了更多數(shù)據(jù)集示例和統(tǒng)計(jì)信息。

圖片圖片

利用對(duì)數(shù)線性規(guī)律主動(dòng)量化幻覺

研究人員利用訓(xùn)練LLM在受控的合成數(shù)據(jù)集上擬合出的對(duì)數(shù)線性規(guī)律(log-linear law),來預(yù)測(cè)經(jīng)過微調(diào)后的LLM在不同下游任務(wù)中的幻覺率。

具體來說,研究人員使用該規(guī)律預(yù)測(cè)幻覺率R,并分析它如何隨以下變量變化(見圖3):模型規(guī)模S、相對(duì)知識(shí)流行度P、相對(duì)知識(shí)長(zhǎng)度L。

隨后,研究人員比較預(yù)測(cè)的幻覺率與微調(diào)實(shí)驗(yàn)中實(shí)際觀測(cè)到的幻覺率之間的差異。

研究人員使用相對(duì)預(yù)測(cè)誤差來評(píng)估對(duì)數(shù)線性規(guī)律的預(yù)測(cè)能力,其計(jì)算公式如下:

圖片圖片

這一方法使研究人員能夠量化并預(yù)測(cè)LLM在不同微調(diào)任務(wù)下的幻覺現(xiàn)象,為優(yōu)化和改進(jìn)模型提供理論依據(jù)。

研究人員在圖4中可視化了不同任務(wù)中幻覺率的預(yù)測(cè)誤差,報(bào)告了平均相對(duì)預(yù)測(cè)誤差為8.0%。

對(duì)于L(知識(shí)長(zhǎng)度)和P(知識(shí)流行度)的誤差略高于S(模型規(guī)模)。

這是因?yàn)楸M管微調(diào)數(shù)據(jù)集包含了未見過的事實(shí),但其中仍然存在一些與預(yù)訓(xùn)練知識(shí)相似的語言表達(dá),這對(duì)P和L的量化產(chǎn)生了輕微的影響,而S并未受到影響。

精確量化不準(zhǔn)確的真實(shí)世界知識(shí)的流行度仍然是一個(gè)未解決的挑戰(zhàn),研究人員將在未來的工作中進(jìn)一步探討。

圖片圖片

當(dāng)前最佳LLM中的事實(shí)幻覺

表2展示了一個(gè)案例研究,說明了最先進(jìn)的大語言模型如何受到知識(shí)掩蓋的擴(kuò)展效應(yīng)影響。

由于這些模型的訓(xùn)練語料庫(kù)是閉源的,且P(知識(shí)流行度)和S(模型規(guī)模)的值是固定的,直接研究P、S和L對(duì)模型的影響較為困難。

因此,研究人員在推理階段操控L(知識(shí)長(zhǎng)度),以觀察模型行為的變化。

例如,當(dāng)查詢GPT-4o關(guān)于薛定諤貓的狀態(tài)時(shí),如果增加周圍文本的長(zhǎng)度,同時(shí)保持「死」的詞不變,就會(huì)提高周圍上下文的相對(duì)長(zhǎng)度L,從而導(dǎo)致相較于「死」這個(gè)詞,幻覺的可能性增大。

其他LLM也存在知識(shí)掩蓋問題。

例如,當(dāng)查詢DeepSeek-V3-671B論文的作者時(shí),「Scalinglaw」這一短語掩蓋了標(biāo)題中的其他描述性元素,導(dǎo)致錯(cuò)誤的回應(yīng)——「Kaplan」,即另一篇著名的Scalinglaw論文的作者。

圖片圖片

表2:SOTALLM中的事實(shí)幻覺

為什么知識(shí)會(huì)被掩蓋?

在實(shí)驗(yàn)中觀察到的知識(shí)掩蓋的擴(kuò)展效應(yīng)(scaling effects of knowledge overshadowing)現(xiàn)象。

對(duì)此,研究團(tuán)隊(duì)也提供了理論解釋。

記憶—泛化—幻覺

研究人員發(fā)現(xiàn)事實(shí)幻覺遵循的對(duì)數(shù)線性規(guī)律與記憶(memorization)的對(duì)數(shù)線性規(guī)律驚人地一致。

兩者都與樣本頻率、樣本長(zhǎng)度和模型規(guī)模的對(duì)數(shù)值呈線性關(guān)系。

這一高度一致性促使研究人員深入探討事實(shí)幻覺的本質(zhì),并引出了一個(gè)關(guān)鍵問題:

幻覺是否可以被理解為記憶階段之后——即泛化(generalization)階段的必然副產(chǎn)物?

隨著模型記憶大量信息并捕捉關(guān)聯(lián)關(guān)系,它們會(huì)在泛化過程中適應(yīng)新的分布。

然而,在這一過程中,不占主導(dǎo)地位的知識(shí)可能會(huì)因過度平滑(smoothing)或信息壓縮(compression)而被更常見的模式所掩蓋。

與長(zhǎng)尾效應(yīng)不同,知識(shí)掩蓋并不僅僅是數(shù)據(jù)不均衡的結(jié)果,而是知識(shí)表征之間競(jìng)爭(zhēng)的直接產(chǎn)物。

即使是并不罕見的知識(shí),也可能在表征空間中被更占主導(dǎo)地位的知識(shí)壓制。

這種表征競(jìng)爭(zhēng)機(jī)制直接推動(dòng)了事實(shí)幻覺的產(chǎn)生,尤其是在模型從記憶(memorization)過渡到泛化(generalization)處理更復(fù)雜的數(shù)據(jù)分布時(shí),幻覺現(xiàn)象變得更加明顯。

泛化誤差界解釋幻覺

研究人員推導(dǎo)了主流知識(shí)的泛化誤差界,以理解相對(duì)知識(shí)流行度P和相對(duì)知識(shí)長(zhǎng)度L的增加如何增強(qiáng)泛化能力,同時(shí)加劇LLM的事實(shí)幻覺。

在使用自回歸(auto-regressive)目標(biāo)優(yōu)化的LLM中,下一個(gè)token預(yù)測(cè)任務(wù)的泛化誤差界可表示為:

圖片圖片

在受控實(shí)驗(yàn)設(shè)置下,可以將除了L和m之外的變量視為常數(shù)。

在這里,h(L)表示一個(gè)與L正相關(guān)的函數(shù)值,μ反映了輸入變化的敏感度,即相對(duì)知識(shí)長(zhǎng)度L對(duì)泛化能力的影響。此外m代表K_A的樣本數(shù)量。

理論上,更低的誤差下界意味著更強(qiáng)的泛化能力。

當(dāng)L增加(即知識(shí)的相對(duì)長(zhǎng)度增長(zhǎng))或m增加(即知識(shí)的相對(duì)流行度提高)時(shí),二者都會(huì)降低泛化誤差界,也就是說說,提高泛化能力。

但與此同時(shí),這也與幻覺率的上升趨勢(shì)一致,即泛化能力增強(qiáng)的同時(shí),模型更容易產(chǎn)生事實(shí)幻覺(hallucination)。

更多詳細(xì)的理論推導(dǎo)可在原文附錄A.5中查看。

如何消除幻覺?

為了減少事實(shí)幻覺(factualhallucinations),在幻覺影響模型預(yù)測(cè)之前,主動(dòng)識(shí)別被掩蓋的知識(shí)。

識(shí)別被掩蓋的知識(shí)

在語言模型(LLM)中,給定輸入token序列X,模型會(huì)生成續(xù)寫token序列Y,其中X和Y都由詞匯表V中的token組成。

如果X中的某些token x_b被掩蓋(overshadowed),模型可能會(huì)生成幻覺輸出(hallucinated output)。

比如說,輸入X是下列內(nèi)容:

「Who is a famous African researcher in machine learning area?」

如果「African」(x_b)被「machine learning」掩蓋,則模型可能會(huì)錯(cuò)誤地輸出:

Y=「Yoshua Bengio」

此時(shí),模型忽略了「African」這一約束,導(dǎo)致幻覺生成。

解決方案:研究人員提出CoDA(對(duì)比解碼),用于放大被掩蓋的知識(shí),從而減少幻覺現(xiàn)象的發(fā)生。

檢測(cè)被掩蓋的Token

為了識(shí)別被掩蓋的token x_b,研究人員采用逐步屏蔽(masking)的方法,即依次屏蔽X中的x_b,形成X',直到找到被掩蓋的token(具體的x_b選擇方法見原文附錄A.4)。

如果x_b被掩蓋,則模型的條件概率會(huì)發(fā)生退化:

圖片圖片

換句話說,模型的輸出會(huì)從Y_b偏向Y_a,導(dǎo)致信息丟失或幻覺。

為了確保研究人員能夠量化輸出候選yi∈P(Y|X)和P(Y|X′)的足夠語義,采用自適應(yīng)合理性約束,保留滿足以下條件的token:

圖片

,其中α=0.01是一個(gè)超參數(shù),Υ是一個(gè)全局變量,表示所有yi候選中的最大概率。

然后,R-PMI在圖片上進(jìn)行量化:

圖片

本質(zhì)上,負(fù)的R-PMI值表示token yi更傾向于與X′相關(guān)聯(lián),且沒有受到遮蔽信息的影響。

因此,為了量化P(Y|X)在多大程度上推廣到P(Y|X),需要找到下列最小值:

圖片

此外,值得注意的是,盡管某些token被X′遮蔽,但仍有一些token逃脫了這種遮蔽效應(yīng),定義為Vesc:

圖片

這些逃脫的token展示了消除幻覺的潛力。

研究人員提出了一個(gè)逃避獎(jiǎng)勵(lì)機(jī)制(ERM),該機(jī)制通過向負(fù)R-PMI的總和添加正獎(jiǎng)勵(lì)來評(píng)估逃避效應(yīng)是否超過了遮蔽效應(yīng)。

將所有具有負(fù)R-PMI的yi表示為yi∈S,ERM的計(jì)算方式如下:

圖片

這里的計(jì)算是為了使ERM與RPMI保持平衡,兩者具有相似的分母p(yj|X′),在方程7中表示來自X′的最小偏差。

然后,研究人員可以通過以下公式計(jì)算遮蔽知識(shí)指標(biāo):Indicator=R-PMI總和+ERM。

指標(biāo)值為負(fù)表示進(jìn)行了適當(dāng)?shù)姆夯鴽]有遮蔽其他知識(shí),而正值則表示過度泛化并遮蔽了token xb。

接著,研究人員可以在定位被遮蔽的token后,預(yù)測(cè)潛在的幻覺,表8顯示了準(zhǔn)確率。

圖片圖片

提升被遮掩的知識(shí)

研究人員提出了一種方法,用于提升被遮掩的知識(shí)。

一旦識(shí)別出編碼被遮掩知識(shí)的token xb,研究人員就會(huì)對(duì)這些token采用對(duì)比解編碼,以減少X′的影響并突出X的重要性。

具體來說,為了降低X′的偏差,研究人員對(duì)每個(gè)yi∈Vtop(X)∩Vtop(X′)減去X′的先驗(yàn)偏差P(yi|X′),計(jì)算方式如下:

圖片

同樣,對(duì)于每個(gè)yi∈Vesc,研究人員進(jìn)行以下操作:

圖片

在這里,右式后一項(xiàng)表示來自普遍知識(shí)的最小先驗(yàn)偏差。

這種減法旨在平衡yi∈Vesc和yi/∈Vesc之間的偏差調(diào)整,確保對(duì)兩者進(jìn)行成比例的調(diào)整。

然后研究人員通過以下方式預(yù)測(cè)最優(yōu)輸出y^{?}_{i}

圖片

到目前為止,研究人員已經(jīng)減少了由X′編碼的普遍知識(shí)帶來的遮掩效應(yīng),然后放大了編碼有意義被遮掩知識(shí)的逃避token,以減少幻覺。

實(shí)驗(yàn)結(jié)果

在Overshadow、MemoTrap和NQ-Swap任務(wù)上,CoDA分別將貪心解碼的性能提升了27.9%、13.1%和18.3%。

增強(qiáng)推理能力的基線方法在處理因知識(shí)遮蔽(knowledge overshadowing)導(dǎo)致的幻覺現(xiàn)象時(shí)表現(xiàn)不佳。

而基于自一致性(self-consistency)的方法則表現(xiàn)出不穩(wěn)定性,甚至可能出現(xiàn)性能下降,這可能是由于強(qiáng)化了來自流行知識(shí)的偏差。

圖5展示了對(duì)CoDA受兩個(gè)因素P和L影響的定量分析。

隨著知識(shí)的過度泛化,提取有價(jià)值信息變得越來越困難,因?yàn)橛杏玫闹R(shí)表示受到了抑制。

圖5:關(guān)于流行度P和長(zhǎng)度L對(duì)CoDA在消除知識(shí)遮蔽方面表現(xiàn)的定量分析。圖5:關(guān)于流行度P和長(zhǎng)度L對(duì)CoDA在消除知識(shí)遮蔽方面表現(xiàn)的定量分析。

作者簡(jiǎn)介

圖片圖片

一作張雨季,目前是伊利諾伊大學(xué)厄巴納-香檳分校(University of Illinois at Urbana-Champaign,UIUC)的博士后研究員。

她之前在香港理工大學(xué)、東南大學(xué)就讀。

她的主要研究興趣是自然語言處理、計(jì)算社會(huì)學(xué)和機(jī)器學(xué)習(xí)。

參考資料:

https://arxiv.org/pdf/2502.16143

責(zé)任編輯:武曉燕 來源: 新智元
相關(guān)推薦

2025-01-14 13:04:08

2024-12-31 08:03:12

2024-01-29 09:40:00

AI訓(xùn)練

2025-05-28 01:50:00

2023-11-15 13:42:00

模型數(shù)據(jù)

2024-04-11 07:10:59

大語言模型AI人工智能

2024-07-15 08:00:00

2025-05-21 13:52:39

LLM模型

2024-02-20 08:17:55

2025-02-17 14:34:52

2014-03-11 09:38:08

數(shù)據(jù)中心虛擬化

2024-01-09 14:05:15

大型語言模型RAG向量數(shù)據(jù)庫(kù)

2025-05-21 09:02:20

2023-12-18 15:00:00

模型數(shù)據(jù)

2023-06-05 10:01:18

模型測(cè)評(píng)

2025-05-21 01:00:00

2021-09-30 14:06:08

安全團(tuán)隊(duì)網(wǎng)絡(luò)攻擊首席信息安全官

2023-12-10 14:24:41

緩存Go語言

2023-07-28 14:29:00

數(shù)據(jù)訓(xùn)練

2025-05-26 01:45:00

LLMAI信任
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

主站蜘蛛池模板: 在线观看成人小视频 | 久久免费观看视频 | 日韩黄| 亚洲激精日韩激精欧美精品 | 欧美片网站免费 | 一区2区| 野狼在线社区2017入口 | 日韩一区二区三区av | 成人亚洲| 日日射影院 | 欧美激情在线播放 | 免费人成在线观看网站 | 51ⅴ精品国产91久久久久久 | 久久久91精品国产一区二区三区 | 亚洲国产18 | 日本三级黄视频 | 久久久成人一区二区免费影院 | 久久精品久久久久久 | 欧美色综合 | 在线亚洲免费 | 精品中文字幕一区二区三区 | 国产欧美一区二区久久性色99 | 婷婷久久一区 | 精品亚洲一区二区 | 国产精品不卡一区二区三区 | 中国美女av| 欧美成人一区二区三区片免费 | 精品国产乱码久久久久久88av | 日韩精品久久久 | 欧美日韩在线一区二区三区 | 欧美美乳| 免费观看黄 | 综合色影院| 秋霞影院一区二区 | 亚洲午夜精品一区二区三区 | 精品三区| 日本黄色大片免费 | 欧美日韩国产一区二区三区 | 国产色婷婷精品综合在线手机播放 | 精品视频一区二区三区在线观看 | 91精品国产综合久久久久蜜臀 |