成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

LLM自學(xué)成才變身「預(yù)言家」!預(yù)測(cè)未來(lái)能力大幅提升

人工智能
還在驚嘆預(yù)言家的神奇?如今LLM也掌握了預(yù)測(cè)未來(lái)的「超能力」!研究人員通過(guò)自我博弈和直接偏好優(yōu)化,讓LLM擺脫人工數(shù)據(jù)依賴(lài),大幅提升預(yù)測(cè)能力。

最近,有個(gè)爆火的話(huà)題:LLM學(xué)會(huì)教自己預(yù)測(cè)未來(lái)了!

像神秘的預(yù)言家一樣,預(yù)測(cè)未來(lái)的天氣、某部電影的票房成績(jī),甚至是股市走勢(shì),聽(tīng)起來(lái)是不是特別像科幻電影里的情節(jié)?

來(lái)自Lightning Rod Labs和倫敦政治經(jīng)濟(jì)學(xué)院的研究者對(duì)提升LLM預(yù)測(cè)未來(lái)的能力展開(kāi)了研究。

圖片圖片

論文鏈接:https://arxiv.org/abs/2502.05253

人類(lèi)專(zhuān)家在預(yù)測(cè)時(shí),會(huì)綜合考量大量的信息,包括各種事實(shí)、發(fā)展趨勢(shì),以及相互矛盾的證據(jù)等,經(jīng)過(guò)復(fù)雜的分析和思考,才能做出較為準(zhǔn)確的預(yù)測(cè)。

在金融領(lǐng)域,準(zhǔn)確的市場(chǎng)預(yù)測(cè)能夠幫助投資者把握時(shí)機(jī),做出明智的投資決策,實(shí)現(xiàn)財(cái)富的增長(zhǎng)。

在商業(yè)領(lǐng)域,對(duì)市場(chǎng)需求和產(chǎn)品趨勢(shì)的預(yù)測(cè),能讓企業(yè)提前布局,推出更受消費(fèi)者歡迎的產(chǎn)品,占據(jù)市場(chǎng)優(yōu)勢(shì)。

為了提升LLM的預(yù)測(cè)能力,科研人員進(jìn)行了諸多嘗試,采用了數(shù)據(jù)聚合、新聞檢索、模型微調(diào)等多種方法。

這些方法在一定程度上確實(shí)提高了模型的預(yù)測(cè)性能,但它們存在一個(gè)共同的問(wèn)題——過(guò)度依賴(lài)人工整理的數(shù)據(jù)。

比如,需要借助最新的大眾預(yù)測(cè)結(jié)果,或者依賴(lài)人工篩選的內(nèi)容。而且,模型往往無(wú)法從已經(jīng)確定結(jié)果的事件中學(xué)習(xí)經(jīng)驗(yàn),實(shí)現(xiàn)自我提升。

獲取人工數(shù)據(jù)成本高昂,效率也較低,使得模型難以持續(xù)學(xué)習(xí)和進(jìn)步。

LLM的「自學(xué)秘籍」

研究人員提出了一個(gè)結(jié)果驅(qū)動(dòng)的微調(diào)框架,讓LLM能夠擺脫對(duì)人工輸入的過(guò)度依賴(lài),通過(guò)自我學(xué)習(xí)來(lái)提升預(yù)測(cè)能力。

圖片圖片

讓模型「自我博弈」,生成多樣化推理軌跡和概率預(yù)測(cè)。根據(jù)這些推理預(yù)測(cè)與實(shí)際結(jié)果的接近程度,對(duì)推理組合進(jìn)行排序。最后,利用直接偏好優(yōu)化(DPO)技術(shù)對(duì)模型進(jìn)行微調(diào)。

圖片圖片

數(shù)據(jù)與新聞收集

研究人員從預(yù)測(cè)市場(chǎng)Polymarket收集了多達(dá)12100個(gè)具有二元結(jié)果的預(yù)測(cè)問(wèn)題,像「奧特曼會(huì)參加總統(tǒng)就職典禮嗎?」「FTX在2024年會(huì)停止付款嗎?」。

研究者篩選數(shù)據(jù),排除了那些結(jié)果不明確的問(wèn)題,并將剩余數(shù)據(jù)劃分為訓(xùn)練集和測(cè)試集。

訓(xùn)練集包含9800個(gè)問(wèn)題,其結(jié)果在2024年7月1日至12月15日期間確定;測(cè)試集則有2300個(gè)問(wèn)題,結(jié)果在2024年12月25日至2025年1月23日揭曉。

圖片圖片

將事件未發(fā)生標(biāo)記為「0」,發(fā)生標(biāo)記為「1」。為了評(píng)估模型預(yù)測(cè)的準(zhǔn)確性,研究人員引入了Brier分?jǐn)?shù)(BS)這一指標(biāo),分?jǐn)?shù)越低,代表預(yù)測(cè)越準(zhǔn)確。

圖片圖片

其中N代表預(yù)測(cè)問(wèn)題數(shù)量。

在答案揭曉前14天,研究人員借助NewsCatcher API收集新聞。先通過(guò)GPT-4o生成搜索查詢(xún),再利用Newscatcher等外部新聞檢索服務(wù),對(duì)相關(guān)新聞進(jìn)行聚合和處理。

這些新聞將為后續(xù)模型的自我學(xué)習(xí)和預(yù)測(cè)提供重要的支持。

模型Self-Play數(shù)據(jù)生成

研究者選用了Phi-4 14B和DeepSeek-R1 14B這兩個(gè)模型。別看參數(shù)只有14B,在一般科學(xué)和編程基準(zhǔn)測(cè)試中,表現(xiàn)十分出色。

研究人員讓這兩個(gè)模型針對(duì)每個(gè)問(wèn)題進(jìn)行推理,并給出最終的概率預(yù)測(cè)。

對(duì)于Phi-4 14B模型,采用scratchpad提示法,就像給它提供了一個(gè)草稿本,便于逐步展示推理過(guò)程。DeepSeek-R1 14B模型由于輸出中已有<think>標(biāo)簽,所以使用零樣本提示法。

提示內(nèi)容不僅有問(wèn)題本身,還包含收集到的新聞?wù)C總€(gè)問(wèn)題都會(huì)生成一對(duì)推理軌跡,具體做法是先生成一個(gè)推理和預(yù)測(cè),然后最多重新運(yùn)行四次,以獲得第二個(gè)不同的預(yù)測(cè)。若后續(xù)預(yù)測(cè)都相同,則舍棄這組預(yù)測(cè)。

最終,為9427個(gè)預(yù)測(cè)問(wèn)題,生成了18854條推理軌跡。

基于結(jié)果的重新排序

生成推理軌跡和預(yù)測(cè)結(jié)果后,需要根據(jù)預(yù)測(cè)與實(shí)際結(jié)果的接近程度進(jìn)行重新排序。

研究人員定義了一個(gè)排序指標(biāo),通過(guò)計(jì)算預(yù)測(cè)概率與實(shí)際結(jié)果的絕對(duì)差值來(lái)衡量?jī)烧叩慕咏潭取?/span>

例如,若實(shí)際結(jié)果為0,一個(gè)預(yù)測(cè)概率是4%,另一個(gè)是8%,那么概率為4%的預(yù)測(cè)推理軌跡排名更高。這樣,模型就知道哪些推理方式能帶來(lái)更準(zhǔn)確的預(yù)測(cè)。

此外,為了排除新聞聚合信息對(duì)排序的影響,研究人員還微調(diào)了一組標(biāo)簽隨機(jī)化的控制模型,通過(guò)對(duì)比,來(lái)確定模型的學(xué)習(xí)效果是否源于更準(zhǔn)確的預(yù)測(cè)依據(jù)。

直接偏好優(yōu)化(DPO)微調(diào)

研究人員使用直接偏好優(yōu)化(DPO)方法對(duì)Phi-4 14B和DeepSeek-R1 14B進(jìn)行微調(diào)。

這種方法無(wú)需訓(xùn)練單獨(dú)的獎(jiǎng)勵(lì)模型,而是直接從模型自我博弈生成的排序推理對(duì)中學(xué)習(xí)獎(jiǎng)勵(lì)信號(hào)。即使單個(gè)預(yù)測(cè)并不完美,DPO也能通過(guò)成對(duì)比較,發(fā)現(xiàn)預(yù)測(cè)之間的細(xì)微質(zhì)量差異,系統(tǒng)地糾正偏差。

與傳統(tǒng)的監(jiān)督微調(diào)(SFT)相比,SFT依賴(lài)人工挑選的示例,并視其為完全正確,容易丟棄有價(jià)值的信息。DPO則能從所有樣本中學(xué)習(xí),顯著提高了微調(diào)過(guò)程的穩(wěn)健性和效率。

在微調(diào)過(guò)程中,研究人員使用LoRA適配器,對(duì)參數(shù)進(jìn)行了精心調(diào)整,如設(shè)置合適的學(xué)習(xí)率、使用AdamW優(yōu)化器、采用BF16混合精度等,用8個(gè)H100 GPU訓(xùn)練。

Phi-4 14B在第五輪訓(xùn)練時(shí)效果趨于穩(wěn)定,而DeepSeek-R1 14B在第四輪就達(dá)到了穩(wěn)定狀態(tài)。

圖片圖片

最后,用一個(gè)包含2300個(gè)問(wèn)題的測(cè)試集來(lái)檢驗(yàn)?zāi)P偷膶W(xué)習(xí)成果。

這個(gè)測(cè)試集的問(wèn)題結(jié)果在訓(xùn)練集最后一個(gè)問(wèn)題結(jié)果出來(lái)10天后才揭曉,確保微調(diào)后的模型沒(méi)有接觸過(guò)與測(cè)試集相關(guān)的新聞信息,以免影響測(cè)試結(jié)果。

每個(gè)模型都以原始基礎(chǔ)模型、使用正確結(jié)果微調(diào)的模型,以及使用隨機(jī)結(jié)果微調(diào)的對(duì)照模型這三個(gè)版本參與測(cè)試。這樣可以清晰地區(qū)分模型的學(xué)習(xí)效果是源于接觸新信息,還是優(yōu)化推理過(guò)程。

在測(cè)試時(shí),針對(duì)不同模型設(shè)計(jì)了特定的提示。Phi-4 14B模型的提示就像一份詳細(xì)的任務(wù)指南,引導(dǎo)它逐步思考。DeepSeek-R1 14B模型則被設(shè)定為專(zhuān)家角色,直接進(jìn)行預(yù)測(cè)。

兩個(gè)模型都會(huì)獲得問(wèn)題、問(wèn)題背景、判斷標(biāo)準(zhǔn)、當(dāng)前日期、問(wèn)題截止日期以及最多10篇新聞文章的摘要等信息。

最終,收集了每個(gè)模型對(duì)2300個(gè)問(wèn)題的預(yù)測(cè)結(jié)果,模型均給出了有效的預(yù)測(cè)。

圖片圖片

預(yù)測(cè)能力大幅提升

經(jīng)過(guò)這一系列操作,Phi-4 14B和DeepSeek-R1 14的預(yù)測(cè)準(zhǔn)確性有了顯著提升。

Phi-4 14B和DeepSeek-R1 14B的預(yù)測(cè)準(zhǔn)確率,比基礎(chǔ)模型以及用DPO微調(diào)但標(biāo)簽隨機(jī)化的對(duì)照模型提高了7-10%,在預(yù)測(cè)能力上能與GPT-4o這樣的大型模型相媲美。

圖片圖片

圖中展示了每個(gè)模型的Brier分?jǐn)?shù)核密度估計(jì),較低的Brier分?jǐn)?shù)表示較高的準(zhǔn)確性。

Phi-4 14B微調(diào)后的平均Brier分?jǐn)?shù)達(dá)到0.200,優(yōu)于隨機(jī)標(biāo)簽的對(duì)照模型(0.214)和基礎(chǔ)模型(0.221)。DeepSeek-R1 14B微調(diào)后的平均Brier分?jǐn)?shù)為0.197,同樣超過(guò)了其對(duì)照模型(0.212)和基礎(chǔ)模型(0.212)。

圖片圖片

通過(guò)獨(dú)立樣本t檢驗(yàn)發(fā)現(xiàn),兩個(gè)微調(diào)后的模型在預(yù)測(cè)準(zhǔn)確性上都顯著優(yōu)于各自的基礎(chǔ)和對(duì)照模型,并且在經(jīng)過(guò)多重比較調(diào)整p值后,這一結(jié)論依然成立。

充分證明了該方法能夠切實(shí)有效地提升模型的預(yù)測(cè)性能,而且這種提升并非源于微調(diào)時(shí)接觸的額外信息。

圖片圖片

與前沿模型GPT-4o相比,Phi-4 14B和DeepSeek-R1 14B雖然參數(shù)較少,但微調(diào)后的預(yù)測(cè)性能卻與之相當(dāng)。

在統(tǒng)計(jì)檢驗(yàn)中,微調(diào)后的模型與GPT-4o之間沒(méi)有顯著差異。

進(jìn)一步分析模型在不同問(wèn)題上的預(yù)測(cè)準(zhǔn)確性分布,可以發(fā)現(xiàn)微調(diào)后的模型雖然偶爾會(huì)出現(xiàn)一些準(zhǔn)確性極低的預(yù)測(cè)(Brier分?jǐn)?shù)高于0.5),但同時(shí)也能做出更多極其準(zhǔn)確的預(yù)測(cè)(Brier分?jǐn)?shù)低于0.05)。

以DeepSeek-R1 14B為例,微調(diào)后的模型有8.52%的問(wèn)題Brier分?jǐn)?shù)高于0.5,略高于基礎(chǔ)模型(7.48%)和對(duì)照模型(7.61%);但有32.78%的問(wèn)題Brier分?jǐn)?shù)低于 0.05,遠(yuǎn)高于基礎(chǔ)模型(23.22%)和對(duì)照模型(23.13%),Phi-4 14B也呈現(xiàn)出類(lèi)似的趨勢(shì)。

這項(xiàng)研究為L(zhǎng)LM提升預(yù)測(cè)能力開(kāi)辟了新的道路。

通過(guò)自我博弈和直接偏好優(yōu)化,LLM能在不依賴(lài)大量人工標(biāo)注數(shù)據(jù)的情況下,從實(shí)際結(jié)果中學(xué)習(xí)并改進(jìn)預(yù)測(cè),使小模型也能達(dá)到與大模型相媲美的性能,極大地提高了實(shí)用性和應(yīng)用范圍。

參考資料:

https://arxiv.org/abs/2502.05253

https://news.ycombinator.com/item?id=43014918

責(zé)任編輯:武曉燕 來(lái)源: 新智元
相關(guān)推薦

2017-01-10 14:59:03

開(kāi)發(fā)者故事

2011-04-02 10:50:36

WebHTML 5

2020-01-21 22:00:34

程序員技能開(kāi)發(fā)者

2016-01-27 10:36:25

程序員自學(xué)

2017-02-09 16:52:33

開(kāi)發(fā)者優(yōu)勢(shì)劣勢(shì)

2025-02-26 14:22:18

2020-11-04 10:21:37

機(jī)器學(xué)習(xí)技術(shù)人工智能

2015-04-07 13:29:06

編程自學(xué)開(kāi)發(fā)應(yīng)用

2021-12-22 10:57:26

機(jī)器學(xué)習(xí)人工智能計(jì)算機(jī)

2017-01-10 10:14:47

新手學(xué)習(xí)編程

2024-08-26 08:30:00

谷歌代碼

2020-08-04 08:42:10

Python開(kāi)發(fā)工具

2012-11-20 10:34:06

大數(shù)據(jù)云計(jì)算預(yù)言

2025-04-07 03:00:00

Dreamer世界模型

2015-06-08 10:03:10

Google人類(lèi)大腦聯(lián)網(wǎng)

2014-06-24 14:13:15

2024-08-26 10:00:00

模型數(shù)據(jù)

2018-03-21 17:29:19

AI區(qū)塊鏈

2025-06-16 08:46:00

2019-04-30 14:36:36

程序員技能開(kāi)發(fā)者
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

主站蜘蛛池模板: 天堂亚洲| 亚洲日日| 日本三级网| 最新高清无码专区 | 91亚洲国产精品 | 亚洲视频中文字幕 | 特级黄一级播放 | 日韩精品一二三 | a国产视频| 成人一区二区三区在线观看 | 欧美xxxⅹ性欧美大片 | 国产精品视频一区二区三区 | 三级黄色片在线观看 | 成人做爰www免费看视频网站 | 国产精品jizz在线观看老狼 | 精品国产一区二区三区在线观看 | 成人在线播放 | 久久久久黑人 | 精品久久久久久久久久久久久久 | 久久综合av | www.色综合| 午夜在线影院 | 成人精品鲁一区一区二区 | 亚洲91精品| 久久精品亚洲 | 一区二区三区免费在线观看 | 成人国产精品视频 | 亚洲精品一区二区三区在线 | 日韩精品免费在线观看 | 成年人黄色一级片 | 免费观看一级黄色录像 | 黄色骚片 | 国产精品国产三级国产aⅴ入口 | 91大神xh98xh系列全部 | 日韩一级免费大片 | 91新视频| 在线色网站 | 日韩欧美国产一区二区三区 | 久久99精品久久久久久国产越南 | 免费中文字幕日韩欧美 | 黑人精品欧美一区二区蜜桃 |