MSRA清北推出強化預(yù)訓(xùn)練!取代傳統(tǒng)自監(jiān)督,14B模型媲美32B
“預(yù)測下一個token”——這個支撐LLM的核心訓(xùn)練機制,正在被強化學(xué)習(xí)顛覆。
微軟亞洲研究院(MSRA)聯(lián)合清華大學(xué)、北京大學(xué)提出全新預(yù)訓(xùn)練范式RPT(強化預(yù)訓(xùn)練),首次將強化學(xué)習(xí)深度融入預(yù)訓(xùn)練階段,讓模型在預(yù)測每個token前都能先“動腦推理”,并根據(jù)推理正確性獲得獎勵。
傳統(tǒng)預(yù)訓(xùn)練依賴海量文本進行自監(jiān)督學(xué)習(xí),模型通過簡單預(yù)測下一個token建立語言能力,作者將之比喻為一塊蛋糕胚,而RL只是作為上面點綴的一顆櫻桃。
現(xiàn)在RPT要做的就是用櫻桃直接做蛋糕,即將這一過程重構(gòu)為推理任務(wù),促進模型更深層次理解和提升下一個token的預(yù)測準(zhǔn)確度。
那這塊櫻桃蛋糕到底怎么做?詳細烘焙流程我們接著往下看。
將強化學(xué)習(xí)引入預(yù)訓(xùn)練
傳統(tǒng)的預(yù)訓(xùn)練方法采用自監(jiān)督的下一個token預(yù)測任務(wù),而RL通常承擔(dān)微調(diào)LLM的功能,使其與人類偏好對齊或者增強復(fù)雜推理。
然而基于人類反饋的強化學(xué)習(xí)(RLHF)過度依賴昂貴數(shù)據(jù),且模型容易受到獎勵破解;可驗證獎勵的強化學(xué)習(xí)(RLVR)也會受到數(shù)據(jù)稀缺的限制,只能應(yīng)用于特定領(lǐng)域的微調(diào)。
為了讓強化學(xué)習(xí)更好地作用于LLM,團隊提出的全新范式強化預(yù)訓(xùn)練RPT,激勵使用RL進行有效的Next-Token推理任務(wù),將預(yù)訓(xùn)練語料庫重構(gòu)為推理問題集,推動預(yù)訓(xùn)練從學(xué)習(xí)表面的token相關(guān)性轉(zhuǎn)為理解深層含義。
模型首先需要對多個token生成一個思維鏈推理序列,涉及多種推理模式(如頭腦風(fēng)暴、自我批評和自我糾正),然后再為下一個token生成預(yù)測。
具體來說,RPT就是通過讓LLM同策略(on-policy)執(zhí)行,以生成多條不同的思維軌跡,每條軌跡包含中間推理步驟和對下一個token的最終預(yù)測。
引入前綴匹配獎勵,驗證預(yù)測的正確性。如果預(yù)測與真實token匹配,則分配正獎勵1,反之為0。該獎勵信號將用于更新LLM,以鼓勵生成能準(zhǔn)確延續(xù)上下文的軌跡。
團隊使用包含4428個競賽數(shù)學(xué)問題及答案的OmniMATH數(shù)據(jù)集,并通過計算下一token的熵和設(shè)定閾值,進行數(shù)據(jù)過濾,只保留更難預(yù)測的token參與訓(xùn)練。
另外采用Deepseek-R1-Distill-Qwen-14B作為基礎(chǔ)模型,使用GRPO算法和8K的訓(xùn)練長度,批大小為256個問題,每個問題采樣8個響應(yīng)。
更深層次的推理
實驗表明,與R1-Distill-Queen-14B相比,RPT-14B在三種難度(簡單、中等、困難)上均實現(xiàn)了更高的下一個token預(yù)測準(zhǔn)確率,優(yōu)于標(biāo)準(zhǔn)下一token預(yù)測基線和使用推理的預(yù)測基線。
在性能上,也可與更大的模型R1-Distill-Queen-32B相媲美,說明RPT能有效捕捉token生成背后的復(fù)雜推理信號,并在提升LLM的語言建模能力方面擁有巨大潛力。
RPT在跨難度的訓(xùn)練計算方面,也表現(xiàn)出清晰的冪律縮放 (Power-law Scaling),預(yù)測準(zhǔn)確性隨著計算的增加而不斷提高,并且與理論曲線緊密擬合。
與傳統(tǒng)的使用下一個token預(yù)測相比,在具有可驗證答案的問題(即Skywork-OR1)上,使用RL微調(diào)RPT模型顯示出更強的推理能力。
在數(shù)據(jù)有限的情況下,可以快速將從下一token推理中學(xué)習(xí)到的強化推理模式遷移至最終任務(wù)。
另外模型在SuperGPQA和MMLU-Pro基準(zhǔn)測試上的零樣本評估表明,RPT-14B不僅優(yōu)于R1-Distill-Queen-14B,還在推理模式中顯著超過了R1-Distill-Qwen-32B。
最后團隊還對推理軌跡進行分析,發(fā)現(xiàn)與顯式問題解決模型相比,RPT-14B采用了更多的假設(shè)生成、替代方案的考慮以及對結(jié)構(gòu)線索甚至顆粒度token級細節(jié)的反思。
既包含高級語義理解,又包含低級文本特征,說明RPT在訓(xùn)練過程中會培養(yǎng)更深層次的推理習(xí)慣。
One More Thing
這塊著名的“蛋糕論”最早出自圖靈獎得主Yann LeCun在2016年的演講。
如果智能是一塊蛋糕,那么大部分蛋糕都是無監(jiān)督學(xué)習(xí),蛋糕上的裱花是監(jiān)督學(xué)習(xí),而蛋糕頂部的櫻桃則是強化學(xué)習(xí)。
而現(xiàn)在試圖用強化學(xué)習(xí)碾碎這塊蛋糕的,還有OpenAI。
在上個月紅杉組織的AI Ascent活動中,OpenAI科學(xué)家Dan Roberts就提及了他們在將RL置于模型預(yù)訓(xùn)練過程中的轉(zhuǎn)變。
在GPT-4o中全是傳統(tǒng)預(yù)訓(xùn)練計算,在o1中引入了一些強化學(xué)習(xí)運算并且取得了不錯的效果,在o3中則引入更多,他們預(yù)計在未來的某一代模型中,將會完全由RL計算主導(dǎo)。
有理由相信,未來RL或許將在LLM預(yù)訓(xùn)練過程中掀起更大的風(fēng)暴,且讓我們拭目以待。
論文鏈接:https://arxiv.org/abs/2506.08007