成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

清華大學(xué)NeurIPS'24:時(shí)序大模型AutoTimes,結(jié)合In-context Learning提升預(yù)測(cè)效果

發(fā)布于 2024-10-31 14:21
瀏覽
0收藏

今天給大家介紹一篇清華大學(xué)發(fā)表于NIPS2024中的大模型時(shí)間序列預(yù)測(cè)工作AutoTimes,使用大模型進(jìn)行自回歸形式的時(shí)間序列預(yù)測(cè),并結(jié)合In-Context Learning提升預(yù)測(cè)效果。

清華大學(xué)NeurIPS'24:時(shí)序大模型AutoTimes,結(jié)合In-context Learning提升預(yù)測(cè)效果-AI.x社區(qū)

論文標(biāo)題:AutoTimes: Autoregressive Time Series Forecasters via Large Language Models

下載地址:??https://arxiv.org/pdf/2402.02370??

1.背景

大模型在時(shí)間序列預(yù)測(cè)中的應(yīng)用已經(jīng)有了一些研究工作。之前的大模型時(shí)序預(yù)測(cè),主要講大模型當(dāng)成一個(gè)表征抽取器,將時(shí)間序列對(duì)齊大模型表征空間后輸入LLM,生成的編碼經(jīng)過映射得到預(yù)測(cè)結(jié)果。

然而,本文認(rèn)為這種建模方法沒有充分利用大模型自回歸的能力。因此,本文提出采用自回歸的方式將大模型應(yīng)用到時(shí)間序列預(yù)測(cè)中。并結(jié)合NLP中的prompt、in-context learning等技術(shù),提升大模型時(shí)序預(yù)測(cè)的效果。

清華大學(xué)NeurIPS'24:時(shí)序大模型AutoTimes,結(jié)合In-context Learning提升預(yù)測(cè)效果-AI.x社區(qū)

2.實(shí)現(xiàn)方法

本文的建模方法主要可以分為時(shí)序信息處理、大模型預(yù)測(cè)、時(shí)序in-context learning三個(gè)部分。整體的建模流程圖圖所示。

清華大學(xué)NeurIPS'24:時(shí)序大模型AutoTimes,結(jié)合In-context Learning提升預(yù)測(cè)效果-AI.x社區(qū)

時(shí)序信息處理:LLM輸入時(shí)間序列編碼和位置編碼兩種類型的信息。對(duì)于時(shí)間序列,將其分解成多個(gè)不重疊的segment,每個(gè)segment通過一個(gè)Embedding層映射成一個(gè)token embedding。對(duì)于每個(gè)時(shí)間步的具體信息,取每個(gè)片段最后一個(gè)時(shí)間戳的文本信息,直接用其對(duì)應(yīng)的LLM文本編碼作為position embedding。每個(gè)片段的序列編碼和位置編碼拼接到一起,作為L(zhǎng)LM的輸入。

清華大學(xué)NeurIPS'24:時(shí)序大模型AutoTimes,結(jié)合In-context Learning提升預(yù)測(cè)效果-AI.x社區(qū)

大模型預(yù)測(cè):AutoTime整體建模采用自回歸的方式。時(shí)間序列信息輸入到LLM后,LLM參數(shù)固定不變,生成segment對(duì)應(yīng)的編碼。然后使用一層網(wǎng)絡(luò),將每個(gè)segment的編碼映射成時(shí)間序列值,使用MSE計(jì)算loss進(jìn)行模型優(yōu)化。訓(xùn)練任務(wù)采用next item prediction的形式,循環(huán)的根據(jù)前面的時(shí)序token預(yù)測(cè)下一個(gè)時(shí)序token,和LLM的優(yōu)化方式對(duì)齊。

時(shí)序In-context Learning:借鑒NLP中的In-context Learning思路,文中在進(jìn)行目標(biāo)數(shù)據(jù)集的預(yù)測(cè)時(shí),利用源數(shù)據(jù)集中的時(shí)間序列構(gòu)建prompt,拼接到當(dāng)前待預(yù)測(cè)的數(shù)據(jù)中。通過在源數(shù)據(jù)集中,抽取幾對(duì)歷史序列+未來序列數(shù)據(jù),轉(zhuǎn)換成token embedding后,拼接到當(dāng)前樣本前面,作為context信息,幫助大模型對(duì)當(dāng)前樣本的預(yù)測(cè)。

3.實(shí)驗(yàn)效果

文中在短周期時(shí)序預(yù)測(cè)、長(zhǎng)周期時(shí)序預(yù)測(cè)等任務(wù)上都進(jìn)行了實(shí)驗(yàn),取得了大模型時(shí)序預(yù)測(cè)方法中的最優(yōu)效果,相比傳統(tǒng)的PatchTST等建模方法也有優(yōu)勢(shì)。

清華大學(xué)NeurIPS'24:時(shí)序大模型AutoTimes,結(jié)合In-context Learning提升預(yù)測(cè)效果-AI.x社區(qū)

文中也進(jìn)一步驗(yàn)證了In-context Learning的效果。相比Zero-shot Learning,In-context Learning在引入例子作為prompt信息后,使得模型的預(yù)測(cè)效果取得了進(jìn)一步提升。

清華大學(xué)NeurIPS'24:時(shí)序大模型AutoTimes,結(jié)合In-context Learning提升預(yù)測(cè)效果-AI.x社區(qū)

通過case分析也可以看出,In-context Learning的預(yù)測(cè)結(jié)果更加準(zhǔn)確。

清華大學(xué)NeurIPS'24:時(shí)序大模型AutoTimes,結(jié)合In-context Learning提升預(yù)測(cè)效果-AI.x社區(qū)

本文轉(zhuǎn)載自??圓圓的算法筆記??,作者:Fareise ????

收藏
回復(fù)
舉報(bào)
回復(fù)
相關(guān)推薦
主站蜘蛛池模板: 亚洲三级国产 | 精品视频一区二区三区在线观看 | 亚洲高清视频在线观看 | 亚洲精品一区二区三区蜜桃久 | 日本黄色免费片 | 81精品国产乱码久久久久久 | 国产三级精品三级在线观看四季网 | 成人精品国产一区二区4080 | 日韩av在线免费 | 国产 欧美 日韩 一区 | 国产精品久久久久久婷婷天堂 | 免费国产黄| 亚洲国产精品人人爽夜夜爽 | 精品免费国产一区二区三区四区 | 美女视频黄的免费 | 天堂久久天堂综合色 | 国产精品久久视频 | 成年男女免费视频网站 | 国产精品视频不卡 | 亚洲一区播放 | 在线看片网站 | 中文字幕在线第一页 | 国产一区二区在线免费观看 | 亚洲不卡av在线 | 九色 在线 | 欧美1—12sexvideos | 欧美午夜精品理论片a级按摩 | 久久久久久国产精品 | 欧美日产国产成人免费图片 | 精品一区二区在线观看 | 亚洲国产成人精品久久 | 久久6| 中文字幕在线三区 | 国产精品免费一区二区三区四区 | 精品入口麻豆88视频 | 欧洲一级毛片 | 欧美日韩久 | 91在线观看免费视频 | 久久久国产精品入口麻豆 | 久久一区二区精品 | 99精品在线 |