成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

谷歌DeepMind全新ToT基準:全面評估LLM時間推理能力

人工智能 新聞
近日,來自谷歌DeepMind的研究人員,推出了專門用于評估大語言模型時間推理能力的基準測試——Test of Time(ToT),從兩個獨立的維度分別考察了LLM的時間理解和算術(shù)能力。

大語言模型的時間推理能力怎么樣?

我們先來看一道幼兒園的題目:

圖片

給出切爾西歷年的主教練名單,向模型提問:Pochettino之前的教練是誰?

此時,LLM能夠給出正確的回答(Lampard),——貌似有點實力?

但是,如果我們把人名來個變量代換(E1~E5),其他內(nèi)容保持不變,LLM瞬間就降智了:

圖片

事實上,在第一次的題干里,我們并沒有說明Lampard教練叫什么名字,而答案里直接就出現(xiàn)了Frank。

所以LLM有可能只是碰到了原題?

于是小編用這兩道題分別測試了Gemini 1.0 pro、Claude 3 Sonnet、Llama 3和ChatGPT。

從結(jié)果來看,上面被公開處刑的應(yīng)該是ChatGPT。

圖片

而Gemini 1.0 pro和Claude 3 Sonnet甚至還不如ChatGPT,兩題全錯(雖然也給出了全名),估計是刷題的時候懈怠了。

相比之下,Llama 3的回答則呈現(xiàn)出智力上的優(yōu)越:

圖片

在如此簡單的問題上,不同的LLM卻「各顯神通」,看來是時候搞個權(quán)威的考核指導(dǎo)一下了。

近日,來自谷歌DeepMind的研究人員,推出了專門用于評估大語言模型時間推理能力的基準測試——Test of Time(ToT)。

圖片

論文地址:https://arxiv.org/pdf/2406.09170

值得注意的是,ToT是基準測試的名字,不是顏文字表情

ToT由兩門考試組成:

第一關(guān):ToT-semantic,考驗LLM在進行時間推理時,對于語義和邏輯的理解。

第二關(guān):ToT-arithmetic,考驗LLM進行時間相關(guān)算術(shù)的能力。

ToT-semantic中的問題是合成的,保證LLM在考試中不會遇見原題;

而ToT-arithmetic采取眾包的形式,保證了問題的深度和廣度。

圖片

基準測試和數(shù)據(jù)集:https://huggingface.co/datasets/baharef/ToT

ToT的數(shù)據(jù)集分為三個子集:ToT-semantic包含1850個示例,ToT-arithmetic包含2800個示例,另外還有一個ToT-semantic-large,包含46480個示例,能夠在更大的尺度上衡量時間理解的語義和邏輯。

ToT的使用方法很簡單,先安裝Huggingface數(shù)據(jù)集,然后兩行代碼導(dǎo)入即可:

from datasets import load_dataset 

dataset = load_dataset("baharef/ToT")

數(shù)據(jù)格式

ToT-semantic和ToT-semantic-large數(shù)據(jù)集包含以下字段:

  • question:包含問題的文本。
  • graph_gen_algorithm:圖生成器算法的名稱。
  • question_type:對應(yīng)于數(shù)據(jù)集中的7種問題類型之一。
  • sorting_type:對應(yīng)用于事實的排序類型。
  • prompt:包含用于評估LLM任務(wù)的完整提示文本。
  • label: 問題的標準答案。

而ToT-arithmetic數(shù)據(jù)集包含question、question_type和label三個字段。

Test of Time

LLM的時間推理最近獲得了極大的關(guān)注,許多研究集中在增強LLM對時間概念的理解上,通過預(yù)訓(xùn)練和微調(diào)策略來提高他們的時間推理能力。

而相應(yīng)的基準測試則大多以知識圖譜為中心:比如TempTabQA提供了基于維基百科信息框的眾包問題,而TGQA是一個源自YAGO11k知識圖譜的數(shù)據(jù)集。

為防止數(shù)據(jù)泄露,TGQA將每個實體名稱更改為GPT3.5生成的名稱,保證名稱與實體類型一致,并且不會以其他方式出現(xiàn)在YAGO11k中。

圖片

但這種策略有兩個問題:首先是會引入虛假的實體名稱相關(guān)性,其次可能會產(chǎn)生事實不正確或違反常識的聲明。

于是,本文選擇了合成數(shù)據(jù)的方式來建立LLM的評估基準。

同時,研究人員將時間推理能力拆分成兩個不同的維度:理解時間的語義和邏輯,以及執(zhí)行準確的時間算術(shù)。

兩個維度分別建立任務(wù),獨立進行評估,能夠更好地展現(xiàn)LLM的優(yōu)勢和劣勢。

ToT-semantic

ToT-semantic能夠分離和分析一個LLM的核心推理能力,同時避免依賴預(yù)先存在的知識。

ToT-semantic的創(chuàng)建過程如下圖所示:

圖片

第 1 步:生成隨機結(jié)構(gòu),然后使用這些結(jié)構(gòu)來創(chuàng)建時間問題。為了確保隨機結(jié)構(gòu)的多樣化,這里參考圖結(jié)構(gòu)的生成。

研究人員采用幾種現(xiàn)有的算法來生成具有不同屬性的圖結(jié)構(gòu),包括ER圖、無標度網(wǎng)絡(luò)(SFN)、遵循BA模型和隨機塊模型(SBM)的圖,以及星形圖。

每種圖生成算法都表現(xiàn)出不同的屬性,對應(yīng)于不同的應(yīng)用場景。例如,ER圖通常是稀疏的,平均度數(shù)較低,而BA圖是密集的,表現(xiàn)出冪律分布。

建立出世的圖結(jié)構(gòu)之后,我們就為邊緣分配關(guān)系。對于每個圖,我們首先確定要分配給邊的多個關(guān)系類型,并將這些關(guān)系類型中的每個類型分配給一對一、一對多、多對一和多對多之一。

第 2 步:問題生成。這里考慮了以下八種類型的問題,常見于日常生活中,以及各種基準測試中。

圖片

EventAtTimeT:詢問在T時刻哪個實體與實體E有某種關(guān)系R

EventAtWhatTime:詢問兩個實體E1和E2之間的關(guān)系R在什么時間開始/結(jié)束

NumberOfEventsInTimeInterval:詢問有多少實體在T1到T2之間與實體E有關(guān)系R

BeforeAfter:詢問在E1之前/之后哪個實體與E2有關(guān)系R

EventAtTimeOfAnotherEvent:詢問當E1與E2有關(guān)系R1時,哪個實體與E3有關(guān)系R2

FirstLast:詢問哪個實體是第一個與E建立關(guān)系R的實體

RelationDuration:詢問E1和E2之間第k次建立關(guān)系R時,持續(xù)了多長時間

Timeline:要求按時間順序?qū)εcE有關(guān)系R的實體進行排序

ToT-Arithmetic

ToT-Arithmetic將任務(wù)從合成數(shù)據(jù)轉(zhuǎn)移到了現(xiàn)實世界。

創(chuàng)建ToT-Arithmetic數(shù)據(jù)集的步驟如下圖所示:

圖片

下面分別介紹每個步驟的工作:

種子集:檢查現(xiàn)有基準中出現(xiàn)的時間算術(shù)問題類型,并通過網(wǎng)絡(luò)搜索,來收集一小部分初始問題。

擴展:向15名注釋者展示種子集,注釋者負責(zé)提出不在種子集中的新問題,或者提供與其他場景或問題模板相對應(yīng)的問題。

過濾器:人工瀏覽所有問題,并過濾那些專注于極端情況、或者需要廣泛知識的問題。

分類:將合格的問題分為七類,如下表所示:

圖片

AddSubtract:從日期或時間中添加或減去一個數(shù)字

Compare:按時間順序比較以不同格式提供的日期/時間

Duration:計算兩個日期/時間之間的差值

Schedule:在多塊時間內(nèi)找到相互空閑點

Timezone:涉及處理不同的時區(qū)

Trick:有一點腦筋急轉(zhuǎn)彎

MultiOp:涉及需要上述多個操作的問題

函數(shù)化:將問題寫成函數(shù),以便為每個問題抽取不同的值并根據(jù)這些值進行求解。

抽樣:從函數(shù)中抽取問題和答案,保證樣本數(shù)量與屬于每個類別的不同問題的數(shù)量成正比。

具體來說,AddSubtract采樣了350個,Compare采樣了350個,Duration采樣了200個,Schedule采樣了250個,Timezone采樣了100個,Trick采樣了250個,MultiOp采樣了350個——構(gòu)成了總共包含1850個問題的數(shù)據(jù)集。

實驗分析

實驗評估了三個前沿的大語言模型,他們是:Claude-3-Sonnet、GPT-4和Gemini 1.5 Pro。

另外,由于ToT-Semantic任務(wù)需要較長的上下文,所以使用GPT4-Turbo代為出戰(zhàn)。

通過實驗,我們可以探討以下幾個問題:

1:時間結(jié)構(gòu)對LLM性能有什么影響?

2:什么樣的時間問題更容易/更難回答?

3:模型提示中事實的順序有多重要,對事實進行排序的最佳方式是什么?

4:前沿模型在時間推理的兩個方面(語義和算術(shù))的表現(xiàn)如何?

如下表所示,時間關(guān)系的圖結(jié)構(gòu)會顯著影響LLM性能。

圖片

比如GPT-4的準確率因圖的類型而異,從完整圖的40.25%到AWE圖的92%。

以前的研究基本上都盯著知識圖譜,而這個實驗結(jié)果表明,圖的結(jié)構(gòu)很重要。

那么,不同的圖大小是否會影響結(jié)果呢?

如下圖所示,增加ToT-Semantic數(shù)據(jù)集中的邊或節(jié)點數(shù)量會導(dǎo)致LLM性能下降。

圖片

下面的實驗研究了不同時間任務(wù)(類型)對LLM推理能力的影響。這里通過評估模型在各種任務(wù)中的性能來量化這種影響

圖片

與需要整合多個事實的任務(wù)相比,LLM在需要檢索單個事實的任務(wù)上始終表現(xiàn)出卓越的性能。

單事實問題主要依賴于相關(guān)信息的識別和提取,而多事實問題則要求對檢索到的信息進行更深入的理解和綜合。

另外,即使在零階推理任務(wù)中,LLM也表現(xiàn)出不同程度的性能。例如,EventAtTimeT和EventAtWhatTime在結(jié)構(gòu)上相似,但LLM往往擅長后者。

原因可能是EventAtTimeT需要簡單的時間算術(shù)運算來識別時間戳T落在時間間隔 [T1,T2]內(nèi),而EventAtWhatTime不需要任何時間算術(shù)運算。

圖片

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2024-12-23 07:20:00

LLM逆向思維語言模型

2023-08-11 14:18:52

谷歌研究

2023-05-22 15:17:02

谷歌AI

2025-01-13 12:12:19

2020-11-29 20:24:13

數(shù)據(jù)谷歌DeepMind

2023-12-01 10:20:00

谷歌技術(shù)

2023-11-27 13:19:54

模型訓(xùn)練

2025-03-05 04:00:00

2025-03-07 09:34:14

2024-06-17 13:34:54

2024-08-14 14:06:01

2021-10-14 09:43:59

人工智能AI機器人

2024-04-11 14:12:53

2024-01-02 10:20:42

清華大學(xué)人工智能

2024-08-02 13:14:51

2024-08-08 13:04:28

2023-06-01 17:23:26

AI模型

2025-06-03 03:15:00

2022-04-12 14:12:43

谷歌研究模型

2024-07-08 06:30:00

點贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 91在线精品秘密一区二区 | 久久亚洲一区二区三区四区 | 欧美精品一区二区三区蜜桃视频 | 久久综合九九 | 日本淫视频 | 精品美女久久久久久免费 | 亚洲精品久久久久久久久久久久久 | 精品一区二区免费视频 | 毛片在线免费 | 夜夜干夜夜操 | 免费一看一级毛片 | 国产成人综合一区二区三区 | 日韩一级免费电影 | 久久国产高清视频 | 欧美一区在线视频 | 成人欧美一区二区三区黑人孕妇 | 91欧美精品成人综合在线观看 | 国产成人精品一区二 | 国产精品视频久久久 | 99精品视频一区二区三区 | 操久久久 | 人人插人人 | 亚洲一区国产 | 成人特区 | 日韩天堂av| 久久久久久久久久久成人 | 精品国产一级片 | 亚洲一区二区三区免费视频 | 日韩欧美中文字幕在线视频 | 免费观看色 | 亚洲综合在线视频 | 成人夜晚看av | 成人欧美一区二区 | 欧美啊v在线观看 | 91亚洲视频在线 | 精品国产三级 | 日韩av电影在线观看 | 91精品国产高清一区二区三区 | 日日草夜夜草 | 久久久国产一区 | 国产真实精品久久二三区 |