成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

時序預(yù)測中的多類型模型組合建模方案

發(fā)布于 2024-9-23 09:56
瀏覽
0收藏

時間序列建模中很多種類型的結(jié)構(gòu)可以選擇,比如Transformer、CNN、RNN,以及最近被驗證有效的MLP、Mamba等結(jié)構(gòu)。然而,不同模型都有特定的潛在優(yōu)勢和劣勢。因此,現(xiàn)在越來越多的時序預(yù)測模型優(yōu)化工作,采用了多模型組合的建模方式。

今天這篇文章,就給大家介紹一下多模型組合建模的核心思路,以及幾篇近期發(fā)表的多模型組合時序預(yù)測工作,在一個模型中同時使用不同類型的模型結(jié)構(gòu),實現(xiàn)各個結(jié)構(gòu)之間的優(yōu)勢互補。

1.早期模型組合建模方案

在Transformer應(yīng)用到時間序列預(yù)測建模后,越來越多的模型組合方法被挖掘并應(yīng)用。例如RNN+Transformer、CNN+Transformer等結(jié)構(gòu)。這主要是因為Transformer和CNN、RNN等模型可以實現(xiàn)比較好的優(yōu)勢互補。Transformer的優(yōu)勢在于長周期的attention建模,但是由于其只通過位置編碼獲取時序關(guān)系,對時序建模的能力并不強(qiáng)。而RNN、CNN則比較擅長時序數(shù)據(jù)的處理,但是對于長周期的建模能力較弱。因此,RNN/CNN配合Transformer的建模方法逐漸走進(jìn)研究者視野。

比如在Enhancing the Locality and Breaking the Memory Bottleneck of Transformer on Time Series Forecasting這篇文章中,在Transformer底層加一個CNN,利用CNN的序列建模能力讓輸入的時序樣本點感知到上下文信息。Temporal Fusion Transformers for Interpretable Multi-horizon Time Series Forecasting也是類似的思路,在Transformer底層加一個RNN,將RNN的序列建模能力和Transformer的長周期建模能力結(jié)合起來。

時序預(yù)測中的多類型模型組合建模方案-AI.x社區(qū)

除了CNN和RNN外,現(xiàn)在很多工作將MLP和Transformer結(jié)合在一起。MLP的作用和CNN非常相似,也是將單個樣本點的信息,通過臨近點的整體編碼,形成語義更強(qiáng)的時序表征,再輸入到后續(xù)Transfomrer模型中。PatchA Time Series is Worth 64 Words: Long-term Forecasting with Transformers中提出的PatchTST就是這個建模思路。

時序預(yù)測中的多類型模型組合建模方案-AI.x社區(qū)

2.近期模型組合新工作

接下來給大家介紹2篇近期的時間序列預(yù)測多模型組合工作。這兩篇文章都融合了包括Transformer、CNN、RNN、Mamba、MLP等結(jié)構(gòu)中的至少3個。

第一篇是Mamba or Transformer for Time Series Forecasting? Mixture of Universals (MoU) Is All You Need。這篇文章提出了一種多模型融合的建模方法,實現(xiàn)對時間序列長短期信息的綜合利用。模型中引入了包括Mamba、Transformer、CNN等多種模型結(jié)構(gòu)進(jìn)行不同維度的時間序列信息抽取。

文中的核心優(yōu)化點包括2個方面,一個是在底層時間序列的patch處理上進(jìn)行了優(yōu)化,另一個是模型結(jié)構(gòu)上的多種結(jié)構(gòu)融合思路。在patch處理上,將時間序列分成多個patch后,一般使用一個MLP進(jìn)行映射,文中進(jìn)一步使用MoA結(jié)構(gòu)處理patch。MoA是一個多個子模塊組成的patch信息處理器,每個子模塊使用一個稀疏門控網(wǎng)絡(luò),對表征的部分元素進(jìn)行激活。通過多組這種子模塊的融合,每一組實現(xiàn)不同類型pattern的信息提取,最后加到一起,作為patch的表征。

在模型結(jié)構(gòu)方面,整體是Mamba->FFN->CNN->Transformer的組織方式。Mamba用來提取時序相關(guān)的基礎(chǔ)信息,F(xiàn)FN增加非線性,CNN擴(kuò)大每個patch的視野,Transformer最終進(jìn)行長周期的時間序列建模。

第二篇是PRformer: Pyramidal Recurrent Transformer for Multivariate Time Series Forecasting。這篇文章提出了一種融合Transformer、RNN、CNN的時間序列預(yù)測模型,其中RNN+CNN用來進(jìn)行每個變量時間序列的時序維度編碼,Transformer用來進(jìn)行變量間關(guān)系的建模,類似iTransformer的形式。

文中的核心是RNN+CNN構(gòu)建的層次時序編碼網(wǎng)絡(luò)。由于時間序列存在不同粒度的周期性,不同的粒度之間又存在關(guān)系著一定的關(guān)系。為了刻畫這種多頻率信息,文中采用了層次CNN的方式進(jìn)行建模。對于每一層CNN,使用不同的kernel size和stride size,提取不同粒度的信息,并通過CNN起到了縮短序列長度的作用。

在進(jìn)行每個層次的CNN編碼后,每一層的CNN編碼輸入與上一層CNN編碼融合后,輸入到GRU中,利用GRU的時序建模能力編碼每個粒度的序列。不同粒度的GRU編碼結(jié)果最后通過加權(quán)融合的方式,生成每個變量時間序列的最終表征結(jié)果。

在得到單變量的時序表征后,Transformer進(jìn)行變量間關(guān)系建模。將每個變量時間序列的表征看成是一個token,使用self-attention在變量維度計算相關(guān)性并進(jìn)行融合,類似iTransformer中的方式。

時序預(yù)測中的多類型模型組合建模方案-AI.x社區(qū)

3.總結(jié)

組合模型是時間序列預(yù)測中的一個重要研究問題。沒有一種模型結(jié)構(gòu)可以完美解決時間序列預(yù)測面臨的任何問題,通過各類模型結(jié)構(gòu)的組合,讓各個模型實現(xiàn)優(yōu)勢互補,可以很大程度上提升時間序列預(yù)測模型的性能。

本文轉(zhuǎn)載自 ??圓圓的算法筆記??,作者: Fareise

收藏
回復(fù)
舉報
回復(fù)
相關(guān)推薦
主站蜘蛛池模板: 亚洲色在线视频 | 国产精品久久久久久久久久不蜜臀 | 中文字幕亚洲精品 | 欧美一级三级在线观看 | 在线欧美视频 | 天天草视频 | 免费a网| 中文字幕欧美日韩一区 | 日本一区二区三区四区 | 国产成人精品一区 | 中文字幕成人免费视频 | 国产福利在线播放麻豆 | 涩涩操| 99精品国产一区二区青青牛奶 | 久久久国产一区二区三区四区小说 | 国产精品日韩欧美一区二区三区 | 性高湖久久久久久久久aaaaa | 国产精品免费一区二区三区 | 国产成人精品一区二区 | 午夜天堂精品久久久久 | 国产视频一区二区 | 亚洲性视频网站 | 国产不卡视频在线 | 日韩电影中文字幕 | 一区二区三区视频在线 | 亚洲免费网站 | 久久综合欧美 | 日本午夜在线视频 | 精品综合| 黄色在线网站 | 久国产精品 | 成人1区2区 | 欧美日本韩国一区二区 | 蜜桃视频在线观看免费视频网站www | 欧美激情欧美激情在线五月 | 殴美黄色录像 | 91精品中文字幕一区二区三区 | 一本大道久久a久久精二百 欧洲一区二区三区 | 狠狠操你| 精品一区精品二区 | 免费激情 |