成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

使用Transformer來進行時序預(yù)測可還行?

發(fā)布于 2024-5-6 10:19
瀏覽
0收藏

大語言模型的成功充分證明了Transformer架構(gòu)的先進性,越來越多的人希望把它應(yīng)用到其它領(lǐng)域,而非NLP領(lǐng)域本身,因而也催生了以一套Transformer架構(gòu)統(tǒng)一各種模態(tài)的研究熱點。

而在工業(yè)界有一個非常常見的場景卻鮮有涉及,那就是結(jié)構(gòu)化數(shù)據(jù)的時序預(yù)測類場景,通常認(rèn)為這種方式利用統(tǒng)計和經(jīng)典回歸類模型就已經(jīng)足夠了,并且確實在過去的研究來看,以Transformer為代表的,在NLP,CV等方面大殺四方的深度學(xué)習(xí)模型在這方面表現(xiàn)也并不夠出色。

但這并不表示學(xué)術(shù)界和工業(yè)界沒有在這方面有嘗試,甚至可以說,這可能會是下一個爆點。今天我們就圍繞這個話題做一些簡單介紹。

利用Transformer來進行時序預(yù)測,有兩個大的方向,一個是針對下游任務(wù)訓(xùn)練一個專有任務(wù)模型,另一個是做預(yù)訓(xùn)練通用大模型。

  • 專有任務(wù)模型

這類思路起步較早,以N-BEATS、N-HiTS、PatchTST和TimesNet,以及最近清華與螞蟻金服出的iTransformer為代表,試圖通過各種手段來適配時序預(yù)測場景。它們大體可以根據(jù)是否修改組件和架構(gòu)分為四類。

第一類是最基本的做法,不改變架構(gòu),但改進組件以適應(yīng)場景,特別是用于時間依賴性建模的注意力模塊和長序列的復(fù)雜性優(yōu)化,以autoformer,informer為代表。然而,適配成本較高,性能也備受線性預(yù)測器挑戰(zhàn)。

第二類是在不改變結(jié)構(gòu)和組件的情況下充分利用Transformer的特性提升模型性能,以PatchTST為代表。它更關(guān)注時間序列的固有處理,如平穩(wěn)化、通道獨立性和修補,從而帶來持續(xù)改進的性能。此外,面對多個變量的獨立性和相互作用的日益重要。

第三類在組件和架構(gòu)均對Transformer進行改造,以CrossFormer為代表。通過改造的注意力機制和架構(gòu)明確地捕捉到跨時間和跨變量的依賴性。

第四類是僅調(diào)整架構(gòu),并不改變transfomer原生組件,研究者認(rèn)為并不是這些組件不好,而是使用方式不當(dāng)導(dǎo)致的,以itransformer為代表。

使用Transformer來進行時序預(yù)測可還行?-AI.x社區(qū)

值得一提的是,傳統(tǒng)的Transformer模型在時間序列預(yù)測中存在性能下降和計算爆炸的問題,同時對于具有較大回溯窗口的序列預(yù)測也存在挑戰(zhàn)。此外,傳統(tǒng)的Transformer模型將每個時間步的多個變量嵌入到同一個標(biāo)記中,可能導(dǎo)致學(xué)習(xí)到的注意力無意義。作為這一方向最新進展的代表,iTransformer通過不同的嵌入方式和編碼方式,能夠更好地處理多元相關(guān)性,在沒有修改Transformer的任何原生組件的條件下,而是通過全新的倒置視角來實現(xiàn)更好的預(yù)測性能,對PatchTST(SOTA)提出了挑戰(zhàn)。

使用Transformer來進行時序預(yù)測可還行?-AI.x社區(qū)

使用Transformer來進行時序預(yù)測可還行?-AI.x社區(qū)

??https://arxiv.org/pdf/2310.06625v3.pdf??

  • 通用時序大模型

這一思路顯然受到了GPT-3這樣的通用大語言模型的啟發(fā),嘗試通過預(yù)訓(xùn)練一個大模型,能夠在zero-shot下進行時序預(yù)測。這一方向聽起來非常的時髦,也同時存在巨大的風(fēng)險,業(yè)內(nèi)對于這樣的方式也褒貶不一。其中一個最大的限制就是它很難找到像大語言模型所需要的海量的高質(zhì)量訓(xùn)練數(shù)據(jù)。另外,不同領(lǐng)域的問題也很難像語言、圖片,視頻那樣具有泛化性。

使用Transformer來進行時序預(yù)測可還行?-AI.x社區(qū)

這一方向典型代表是TimeGPT,它是由Nixtla提出的,是一個基于Transformer的時間序列模型,采用歷史值窗口來進行預(yù)測,并添加本地位置編碼來豐富輸入。該模型通過捕捉過去事件的多樣性,進而正確地推斷潛在的未來分布。它采用了公開可用的最大時間序列數(shù)據(jù)集進行訓(xùn)練,包含超過1000億個數(shù)據(jù)點。這個訓(xùn)練集涵蓋了來自金融、經(jīng)濟、人口統(tǒng)計、醫(yī)療保健、天氣、物聯(lián)網(wǎng)傳感器數(shù)據(jù)、能源、網(wǎng)絡(luò)流量、銷售、交通和銀行業(yè)等廣泛領(lǐng)域的時間序列。由于這種多樣化的領(lǐng)域集合,訓(xùn)練數(shù)據(jù)集包含了具有各種特征的時間序列。和timeGPT同類型的還有EarthPT,一個用于地球觀測的時間序列基礎(chǔ)模型。


使用Transformer來進行時序預(yù)測可還行?-AI.x社區(qū)

??https://arxiv.org/pdf/2310.03589.pdf??

需要說明的是,TimeGPT并不是直接基于現(xiàn)有的大型語言模型。雖然TimeGPT遵循在大量數(shù)據(jù)集上訓(xùn)練大型Transformer模型的原則,但其架構(gòu)專門為用于處理時間序列數(shù)據(jù)而設(shè)計,經(jīng)過訓(xùn)練后,旨在最小化預(yù)測誤差。具體實現(xiàn)方法論文語焉不詳,有人猜測是利用patchTST或者NHITS實現(xiàn)。

使用Transformer來進行時序預(yù)測可還行?-AI.x社區(qū)

下表是其論文中提到的性能對比:

使用Transformer來進行時序預(yù)測可還行?-AI.x社區(qū)

另一個直觀的性能比較是,利用相同的數(shù)據(jù)集(marcopeix/time-seriesanalysis/blob/master/data/medium_views_published_holidays.csv),微調(diào)TimeGPT與采用N-BEATS, N-HiTS 和 PatchTST 這樣的第一類方法訓(xùn)練的模型進行比較。從結(jié)果看,經(jīng)過簡單微調(diào)的TimeGPT表現(xiàn)比PatchTST更好,獲得了第一。

使用Transformer來進行時序預(yù)測可還行?-AI.x社區(qū)

使用Transformer來進行時序預(yù)測可還行?-AI.x社區(qū)

具體實驗可參考:https://github.com/marcopeix/time-series-analysis/blob/master/TimeGPT.ipynb

另外,TimeGPT作為一個商業(yè)模型,提供了完備的使用文檔,可以在其模型上預(yù)估和微調(diào)自己的時序模型。

nixtla_client = NixtlaClient(
    # defaults to os.environ.get("NIXTLA_API_KEY")
    api_key = 'my_api_key_provided_by_nixtla'
)


# df: A pandas dataframe containing the time series data.
# h: The number of steps ahead to forecast.
# freq: The frequency of the time series in Pandas format. See pandas’ available frequencies.
# time_col: Column that identifies the datestamp column.
# target_col: The variable that we want to forecast.
#預(yù)測
timegpt_fcst_pred_int_df = nixtla_client.forecast(
    df=df, h=12, level=[80, 90, 99.7], 
    time_col='timestamp', target_col='value',
)




#微調(diào)
timegpt_fcst_finetune_df = nixtla_client.forecast(
    df=df, h=12, finetune_steps=10,
    time_col='timestamp', target_col='value',
)

更多可參考:https://docs.nixtla.io/docs/timegpt_quickstart

綜上,可以看出目前基于transformer的時序預(yù)測領(lǐng)域尚處于早期階段,兩種思路誰更優(yōu)尚無法判斷,能否取代傳統(tǒng)機器學(xué)習(xí)方式也無定論,但可以肯定的是,未來肯定會有更多人關(guān)注這一領(lǐng)域,或許隨著數(shù)據(jù)和方法的不斷完備,出現(xiàn)一個類似ChatGPT這樣的新物種也未嘗不可能。

本文轉(zhuǎn)載自 ??AI工程化??,作者: ully


收藏
回復(fù)
舉報
回復(fù)
相關(guān)推薦
主站蜘蛛池模板: 日韩免费一区 | 欧美一区视频 | 亚洲精品永久免费 | 亚洲综合色婷婷 | 青青久草 | 色一级| 久久99久久 | 激情五月婷婷综合 | 农村妇女毛片精品久久久 | 性色的免费视频 | 成人av片在线观看 | 国产欧美久久一区二区三区 | 91国产在线视频在线 | 国产一区二区三区在线 | 日本特黄a级高清免费大片 成年人黄色小视频 | 久久久久电影 | 国产成人精品一区二区三区 | 亚洲欧洲精品成人久久奇米网 | 国产久| 狠狠撸在线视频 | 中文字幕欧美日韩 | 在线看无码的免费网站 | 黄网站涩免费蜜桃网站 | 视频一区二区在线观看 | 偷拍自拍网址 | 国产欧美一区二区三区久久人妖 | 欧美成人一区二区三区片免费 | 中文字幕成人 | 91久久久久久久久久久久久 | 三级av网址 | 欧美精品一区二区三区在线 | a中文在线视频 | 欧美性网| 国产成人精品在线 | 四虎在线播放 | 欧美中文字幕在线观看 | 亚州精品天堂中文字幕 | 一区二区三区在线观看视频 | 欧美一区二区三区视频 | 妞干网视频 | 国产91色在线 | 亚洲 |