微軟開源 Phi-4 推理模型:啰嗦AI,反卷出圈
AI圈子最有意思的事,已經(jīng)不是“誰家模型參數(shù)最多”,而是——誰家小模型,能把大模型打趴下。
最近,微軟研究院開源了一款“小而強(qiáng)”的研究:Phi-4-reasoning-plus。這是一款專為深度結(jié)構(gòu)化推理任務(wù)設(shè)計(jì)的開源語言模型。
14B參數(shù),不到DeepSeek 70B的五分之一,但數(shù)學(xué)、科學(xué)、代碼、邏輯推理的表現(xiàn),都比較能打。
在AIME 2025數(shù)學(xué)考試上,14B的小模型,第一次嘗試的全題正確率,居然干過了70B的精煉大塊頭,甚至快摸到DeepSeek 671B的腳后跟。
圖片
微軟團(tuán)隊(duì)用一串“推理鏈”打破了常規(guī),讓AI學(xué)會慢下來、啰嗦一點(diǎn)、反復(fù)琢磨、允許自己犯錯(cuò),主要體現(xiàn)在:
推理鏈(Chain-of-Thought)成為核心訓(xùn)練目標(biāo)。不是像傳統(tǒng)大模型那樣直接給出答案,而是專門訓(xùn)練模型寫“推理過程”;在訓(xùn)練數(shù)據(jù)和輸出里,強(qiáng)制要求模型用<think>...</think>標(biāo)簽,把自己的思考、分步推理、反復(fù)驗(yàn)證詳細(xì)寫出來。這種推理鏈往往很“啰嗦”:不是一句話解決問題,而是像人類一樣,細(xì)致分解、逐步排查。
鼓勵“慢思考”,獎勵啰嗦的推理過程。在RL(強(qiáng)化學(xué)習(xí))階段,獎勵機(jī)制被專門設(shè)計(jì)成:答錯(cuò)時(shí)鼓勵更長推理鏈,答對時(shí)鼓勵簡潔;只要模型沒答對,就鼓勵它“多想兩步”,推理過程可以更長、更詳細(xì),甚至反復(fù)自我否定和修正。
結(jié)果?不僅答案對,思路也清晰。
圖片
技術(shù)報(bào)告里有個(gè)細(xì)節(jié)特別有意思:Phi-4-reasoning的推理鏈,不是越長越好,也不是越短越強(qiáng),而是“剛剛好”地模擬了人類的“思考長度”。
RL階段的獎勵模式具體是:“答對了要簡潔,答錯(cuò)了反而鼓勵多思考”,而有些任務(wù),答題過程還會“自我否定”,甚至推翻重來。當(dāng)然,不是所有領(lǐng)域都大幅提升,比如生物、化學(xué)、離散數(shù)學(xué),AI也會“卡殼”。
Phi-4-reasoning-plus在SFT(有監(jiān)督微調(diào))之后,還加了一層基于規(guī)則的強(qiáng)化學(xué)習(xí),獎勵設(shè)計(jì)也很精妙:
- 答對了鼓勵簡潔(獎勵簡短推理)
- 答錯(cuò)了反而鼓勵啰嗦(獎勵多想一步)
- 輸出格式不對、思路紊亂要扣分
- 重復(fù)語句有懲罰,鼓勵多樣性和探索
這和傳統(tǒng)RLHF(基于人類反饋強(qiáng)化學(xué)習(xí))不同,Phi-4團(tuán)隊(duì)用的是可自動驗(yàn)證的數(shù)學(xué)題,獎勵函數(shù)直接和推理鏈長度、答案正確性掛鉤,模型被訓(xùn)練成“有錯(cuò)就多想、多寫,多步反省”。
圖注:Phi-4推理模型在跨領(lǐng)域基準(zhǔn)測試中的表現(xiàn)
報(bào)告里的評測結(jié)果,Phi-4-reasoning和plus不僅在AIME、OmniMath、GPQA等數(shù)學(xué)/科學(xué)基準(zhǔn)上干翻了體量更大的Distill-Llama-70B、DeepSeek-R1,甚至在算法(TSP/3SAT)、規(guī)劃(BA-Calendar)、代碼(LiveCodeBench)等新領(lǐng)域也展現(xiàn)了極強(qiáng)的“遷移力”,而這些領(lǐng)域,模型訓(xùn)練時(shí)根本沒專門覆蓋。
這就是推理鏈帶來的元能力:模型不僅會解題,更會“怎么推理”,新題型也能舉一反三,遇到?jīng)]見過的難題也能慢慢推、反復(fù)試。對比傳統(tǒng)大模型“一步到位”的完美答案,這種“磨嘰”的AI反而更靠譜、更有韌性。
甚至在一些“非推理”任務(wù),如長文本問答、指令遵循、毒性檢測等通用能力測試中,Phi-4-reasoning-plus也有顯著提升。歸根結(jié)底,讓AI學(xué)會慢思考、會自我檢視,比單純提升算力和知識面更可持續(xù)。
地址:https://huggingface.co/microsoft/Phi-4-reasoning