成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

AI僅憑“自信”學(xué)會(huì)推理,浙大校友復(fù)刻DeepSeek長(zhǎng)思維鏈涌現(xiàn),強(qiáng)化學(xué)習(xí)無(wú)需外部獎(jiǎng)勵(lì)信號(hào)

人工智能 新聞
大模型無(wú)需接觸真實(shí)答案,僅通過(guò)優(yōu)化自己的信心,就能學(xué)會(huì)復(fù)雜推理。

復(fù)刻DeepSeek-R1的長(zhǎng)思維鏈推理,大模型強(qiáng)化學(xué)習(xí)新范式RLIF成熱門話題。

UC Berkeley團(tuán)隊(duì)共同一作Xuandong Zhao把這項(xiàng)成果稱為:

大模型無(wú)需接觸真實(shí)答案,僅通過(guò)優(yōu)化自己的信心,就能學(xué)會(huì)復(fù)雜推理。

圖片

具體來(lái)說(shuō),新方法完全不需要外部獎(jiǎng)勵(lì)信號(hào)或標(biāo)注數(shù)據(jù),只需使用模型自身的置信程度作為內(nèi)在獎(jiǎng)勵(lì)信號(hào)。

與使用外部獎(jiǎng)勵(lì)信號(hào)GRPO相比,新方法在數(shù)學(xué)任務(wù)上不需要標(biāo)準(zhǔn)答案也能提升基礎(chǔ)模型性能,在代碼任務(wù)上表現(xiàn)得更好。

圖片

幾乎同一時(shí)間,另外一篇論文《RENT: Reinforcement Learning via Entropy Minimization》也驗(yàn)證了相似的結(jié)論。

圖片

作者表示兩者的主要區(qū)別在于使用KL散度和最小化熵衡量自信程度。

圖片

Dropbox工程副總裁看后表示:Confidence is all you need

圖片

“自信”驅(qū)動(dòng)的強(qiáng)化學(xué)習(xí)

長(zhǎng)期以來(lái),訓(xùn)練大模型主要依賴兩種方式:

要么需要大量人工標(biāo)注(如ChatGPT的RLHF),要么需要可驗(yàn)證的標(biāo)準(zhǔn)答案(如DeepSeek的RLVR)。

前者成本高昂且可能引入偏見(jiàn),后者則局限于數(shù)學(xué)、編程等有明確答案的領(lǐng)域。

那么當(dāng)AI能力逐漸接近甚至超越人類時(shí),能否讓模型僅憑自身產(chǎn)生的內(nèi)在信號(hào),擺脫對(duì)外部監(jiān)督的依賴?

針對(duì)這個(gè)問(wèn)題,UC Berkeley團(tuán)隊(duì)提出新訓(xùn)練方法Intuitor,計(jì)算模型預(yù)測(cè)分布與均勻分布之間的KL散度作為“自信程度”。

圖片

相當(dāng)于人類做題時(shí),如果對(duì)答案有把握思路也會(huì)更清晰,當(dāng)自信不足的時(shí)候往往需要重新思考。

通過(guò)優(yōu)化這個(gè)內(nèi)在信號(hào),INTUITOR鼓勵(lì)模型生成它自己”更有把握”的回答,也能促使模型生成更結(jié)構(gòu)化的推理過(guò)程。

在實(shí)驗(yàn)中,1.5B和3B的小模型也涌現(xiàn)出與DeepSeek-R1類似的長(zhǎng)思維鏈推理行為。

圖片

論文還指出,內(nèi)在獎(jiǎng)勵(lì)信號(hào)還獲得一個(gè)額外的好處:從機(jī)制上降低了“獎(jiǎng)勵(lì)黑客”的風(fēng)險(xiǎn)。

傳統(tǒng)外部獎(jiǎng)勵(lì)信號(hào)的強(qiáng)化學(xué)習(xí)容易被“鉆空子”,如模型可能生成語(yǔ)法正確但邏輯錯(cuò)誤的代碼來(lái)匹配測(cè)試用例,或在數(shù)學(xué)題中直接背答案而非推理。

在INTUITOR中,團(tuán)隊(duì)發(fā)現(xiàn)如果使用離線學(xué)習(xí),在訓(xùn)練約100步的時(shí)候模型也學(xué)會(huì)了作弊:在回答中附加一個(gè)已經(jīng)解決的簡(jiǎn)單問(wèn)題來(lái)提高自信度分?jǐn)?shù)。

但使用在線學(xué)習(xí)就可以避免這個(gè)問(wèn)題,評(píng)估標(biāo)準(zhǔn)隨著模型能力哦一起進(jìn)化,作弊策略變得無(wú)效。

圖片

實(shí)驗(yàn)結(jié)果:不僅會(huì)做題,還會(huì)舉一反三

團(tuán)隊(duì)首先實(shí)證研究了INTUITOR框架對(duì)LLMs數(shù)學(xué)推理能力的提升。

實(shí)驗(yàn)選取Qwen2.5-1.5B/3B作為基礎(chǔ)模型,使用自我確定度作為唯一的獎(jiǎng)勵(lì)信號(hào),并將其分別置于INTUITOR和兩個(gè)基線方法(GRPO、GRPO-PV)在MATH數(shù)據(jù)集的預(yù)訓(xùn)練中。

使用對(duì)話提示,每次處理128道題目并各生成7個(gè)候選解決方案,KL懲罰系數(shù)設(shè)置為0.005。

在數(shù)學(xué)推理、代碼生成、指令遵循的基準(zhǔn)測(cè)試中進(jìn)行性能評(píng)估,結(jié)果如圖所示:

圖片

實(shí)驗(yàn)表明,在通過(guò)INTUITOR進(jìn)行微調(diào)后,Qwen2.5-1.5B從最初只會(huì)輸出重復(fù)的無(wú)意義內(nèi)容且對(duì)話任務(wù)得分均低于10%,轉(zhuǎn)變?yōu)闊o(wú)效輸出大幅減少、響應(yīng)長(zhǎng)度有效增加。

圖片

在結(jié)構(gòu)化推理能力上,團(tuán)隊(duì)還發(fā)現(xiàn)INTUITOR早期學(xué)習(xí)速度更快,如Qwen2.5-3B在GSM8K基準(zhǔn)測(cè)試上INTUITOR(0.811)始終優(yōu)于GRPO(0.758)。

圖片

此外,INTUITOR在多任務(wù)泛化上也表現(xiàn)優(yōu)秀,例如當(dāng)Qwen2.5-3B在代碼生成任務(wù)上,雖然相對(duì)滯后但持續(xù)增長(zhǎng),最終性能比GRPO高8%,相對(duì)提升65%

圖片

同時(shí)團(tuán)隊(duì)還觀察到,在進(jìn)行長(zhǎng)鏈推理時(shí),INTUITOR模型在生成完整代碼前,都會(huì)添加自然語(yǔ)言推理 (如“為解決X問(wèn)題,需先執(zhí)行Y步驟”),據(jù)推測(cè)也許這就是INTUITOR能夠在測(cè)試中始終表現(xiàn)出色的原因之一。

它的演進(jìn)過(guò)程大概可以描述為三個(gè)階段:

  1. 模型學(xué)會(huì)生成代碼,實(shí)現(xiàn)準(zhǔn)確率提升和無(wú)效響應(yīng)減少。
  2. 進(jìn)行代碼前推理以促進(jìn)自我理解。
  3. 逐步細(xì)化生成帶詳細(xì)推理的有效代碼。

圖片

為了評(píng)估自我確定度作為獎(jiǎng)勵(lì)的魯棒性,研究人員還將離線自我確定度(來(lái)自固定基礎(chǔ)模型的獎(jiǎng)勵(lì))與在線自我確定度(來(lái)自不斷進(jìn)化的策略模型的獎(jiǎng)勵(lì))進(jìn)行了比較。

實(shí)驗(yàn)發(fā)現(xiàn)離線獎(jiǎng)勵(lì)會(huì)在100步后通過(guò)添加無(wú)關(guān)內(nèi)容導(dǎo)致準(zhǔn)確率崩潰,而在線獎(jiǎng)勵(lì)與策略協(xié)同演化,可有效防止破解。

圖片

為進(jìn)一步評(píng)估自我確定度作為獎(jiǎng)勵(lì)信號(hào)的質(zhì)量,研究人員還分析了模型在MATH500響應(yīng)中生成的自我確定度分?jǐn)?shù)分布。

值得注意的是,INTUITOR模型對(duì)正確答案的self-certainty顯著更高,而GRPO雖提升了模型自評(píng)能力,但區(qū)分度明顯低于INTUITOR。

圖片

由于受計(jì)算資源限制,實(shí)驗(yàn)只在相對(duì)較小的無(wú)監(jiān)督語(yǔ)料庫(kù)上進(jìn)行訓(xùn)練,未來(lái)可在更大規(guī)模的基礎(chǔ)模型和更多樣化的真實(shí)世界數(shù)據(jù)集上進(jìn)一步研究INTUITOR的優(yōu)勢(shì)。

團(tuán)隊(duì)介紹

本項(xiàng)研究來(lái)自UC Berkeley的Sergey Levine、宋曉東團(tuán)隊(duì),作者一共有五位,分別是第一作者博士后研究員Xuandong Zhao、共同一作本科生Zhewei Kang、來(lái)自耶魯大學(xué)的Aosong Feng,以及Sergey Levine和Dawn Song。

圖片

2019年,Xuandong Zhao從浙江大學(xué)畢業(yè)后,就進(jìn)入了加州大學(xué)圣塔芭芭拉分校攻讀計(jì)算機(jī)科學(xué)博士學(xué)位,期間還曾在阿里巴巴、Microsoft和Google等公司實(shí)習(xí)。

自2024年他進(jìn)入U(xiǎn)C Berkeley后,除本次的新成果外,至今一共還發(fā)表過(guò)十多篇論文,并先后被ICLR 2025、ICML 2025等接收。

圖片

另外在今年2月,Xuandong Zhao和Zhewei Kang還合作發(fā)表了一篇論文,描述了基于自我確定性的LLMs推理能力提升新策略Best-of-N,可以看作是本篇論文的一次先驗(yàn)嘗試。

圖片

論文鏈接:https://arxiv.org/abs/2505.19590
代碼鏈接:https://github.com/sunblaze-ucb/Intuitor

責(zé)任編輯:張燕妮 來(lái)源: 量子位
相關(guān)推薦

2025-06-03 08:38:00

2025-06-25 09:28:38

2025-05-30 04:00:00

IBMRLVRGRPO

2022-10-26 13:27:12

論文

2025-06-27 04:00:00

RLSC強(qiáng)化學(xué)習(xí)微調(diào)

2025-05-28 02:25:00

2022-12-01 08:00:00

2025-04-25 09:20:00

數(shù)據(jù)模型AI

2022-12-21 17:27:30

強(qiáng)化學(xué)習(xí)AI

2025-05-09 08:40:00

2025-03-05 04:00:00

2025-04-15 09:12:00

模型AI強(qiáng)化學(xué)習(xí)

2025-06-30 09:08:00

2021-06-11 09:28:04

人工智能機(jī)器學(xué)習(xí)技術(shù)

2024-07-26 09:33:22

2023-08-22 14:07:14

AI機(jī)器

2025-05-26 17:16:51

2023-06-16 09:45:36

AI視頻

2024-04-22 13:35:00

AI數(shù)據(jù)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

主站蜘蛛池模板: 人人爽人人爽人人片av | 伊人伊人伊人 | 成人性视频免费网站 | 一级在线观看 | 久久久国产精品视频 | 一级一片在线观看 | 亚洲国产精品久久 | 国产精品美女久久久免费 | 一区二区三区亚洲 | 国产成人99av超碰超爽 | 人人草人人干 | 国产美女自拍视频 | 精品一级 | 欧美一级片在线播放 | 91欧美精品成人综合在线观看 | 欧美a∨ | 成人免费视频观看视频 | 日韩精品二区 | 秋霞a级毛片在线看 | 日韩精品久久一区二区三区 | 亚洲精品视频在线看 | 韩日精品一区 | 日本成人在线网址 | 久久激情视频 | 久久综合九色综合欧美狠狠 | 国产一区二区三区精品久久久 | 亚洲天堂中文字幕 | 女女爱爱视频 | 在线观看国产 | 欧美另类日韩 | 成人av在线播放 | 亚洲午夜电影 | 国产一区二区 | 国产精品久久久免费 | 激情小说综合网 | 久久精品国产一区 | 亚洲成年影院 | 国产在线播 | 亚洲国产成人久久久 | 美女二区 | 熟女毛片|