成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

每天都看模型評分,但你真的了解嗎?OpenAI研究員最新博客,一文讀懂LLM評估

人工智能 新聞
在LLM能力突飛猛進的當(dāng)下,所有研究者似乎都在關(guān)注數(shù)據(jù)、算力、算法等模型開發(fā)的各個方面,但OpenAI研究員Jason Wei最近發(fā)布的一篇博客文章提醒我們,模型評估的工作同樣非常重要。如何開發(fā)出優(yōu)秀的評估測試,對AI能力的發(fā)展方向至關(guān)重要。

上周六,OpenAI研究院Jason Wei在個人網(wǎng)站上發(fā)表了一篇博客,討論了他眼中「成功的語言模型評估」應(yīng)該具備哪些因素,并總結(jié)出了阻礙好的評估在NLP社區(qū)獲得關(guān)注的「七宗罪」。

圖片

Jason Wei在最近的斯坦福NLP研討會上展示了這篇文章,OpenAI的同事、GPT-4o團隊成員之一William Fedus也轉(zhuǎn)發(fā)了這篇推文。

圖片

如果評估不夠好,進展就會受阻。當(dāng)我們的評估改進后,一些想法才被發(fā)現(xiàn)是好的。當(dāng)沒有可以攀登的單一指標(biāo)時,良好的評估在訓(xùn)練后尤其重要。

Jason Wei從2023年2月開始加入OpenAI,此前他在Google Brain擔(dān)任研究科學(xué)家。

圖片

今年3月他曾在推特上分享OpenAI的「996」作息(為了AGI,全員主動996!OpenAI匿名員工自曝3年工作感受)

圖片

也在今年5月GPT-4o發(fā)布后主動現(xiàn)身說法,比較了大公司谷歌和初創(chuàng)公司OpanAI在人事策略上的不同思路,為我們解開了OpenAI成功之謎的一角。

那么就讓我們看看,這篇博客具體談了哪些內(nèi)容。

評估對于LLM有多重要

目前,每個開發(fā)LLM的人都在使用基準(zhǔn)評估,但是這個領(lǐng)域應(yīng)該得到更多的關(guān)注和投入,因為這是對學(xué)界工作的直接激勵,與模型的重大性能突破密切相關(guān)。

由于LLM大規(guī)模、多任務(wù)的特性,而且模型通常會給出很長的回答,因此評估工作變得更加困難。目前還沒有一個評估集可以充分測評LLM的能力。

當(dāng)前流行的評估仍然使用非常簡單的評分機制(單選/多選、核對數(shù)字或運行單元測試)。即使這些簡單的機制也存在問題,比如使用了不同的prompt或解析答案的方式。

一個比較好的方案是讓LLM采用同一種prompt,比如零樣本思維鏈。

這可能并不是一個完美的解決方案,但為了「控制變量」,更公平地衡量所有LLM的能力,付出一些代價也是值得的。

零樣本思維鏈prompt:https://arxiv.org/abs/2205.11916

什么是成功的評估

首先,如果一個評估測試被用在突破性論文中,而且受到整個領(lǐng)域的信任,那么它顯然是成功的。

按照這個標(biāo)準(zhǔn),過去5年中有一些成功的評估被廣泛采用:

- GLUE/SuperGLUE(General Language Understanding Evaluation):基本被前LLM時代的所有NLP論文所使用,包括BERT、T5等。

圖片

論文地址:https://gluebenchmark.com/

- MMLU(Measuring Massive Multitask Language Understanding):幾乎所有LLM論文都使用MMLU,也是DeepMind和Google最喜歡的評估。

這項測試涵蓋了基礎(chǔ)數(shù)學(xué)、美國歷史、計算機科學(xué)、法律等領(lǐng)域的57項任務(wù),模型想要在這項測試中獲得高評分,則必須具備廣泛的世界知識和解決問題的能力。

論文地址:https://arxiv.org/abs/2009.03300

- GSM8K(Grade Scholl Math 8K):包括多種語言的小學(xué)數(shù)學(xué)應(yīng)用題,可以刺激LLM進行多步推理,每一篇關(guān)于思想鏈(CoT)的論文中都會使用。

圖片

https://klu.ai/glossary/GSM8K-eval

- MATH:包含超過1.2萬個競賽難度的數(shù)學(xué)題目,也被大多數(shù)LLM論文使用。

圖片

論文地址:https://arxiv.org/pdf/2103.03874

- HumanEval:由OpenAI建立的手寫評估測試,用于衡量從文檔字符串生成程序的功能正確性

圖片

項目地址:https://github.com/openai/human-eval?tab=readme-ov-file

當(dāng)然,這里列出的是一個不完全列表,還有很多其他非常優(yōu)秀的評估測試,包括HellaSwag、SQuAD以及Jason Wei本人參與開發(fā)的MGSM、BBH等。

一篇突破性的論文提出一個全新的評估,并宣稱在上面取得了性能突破,再將其推廣開來,這是一種常見的范式。

比如GLUE由BERT推廣,MMLU 由DeepMind推出的Gopher、Chinchilla和Flan-PaLM推廣,首先提出CoT prompting的論文宣稱在GSM8K上取得性能突破,Minerva在MATH上體現(xiàn)了數(shù)學(xué)能力,OpenAI的Codex首先嘗試HumanEval。

這些評估為什么可以在LLM領(lǐng)域流行起來?

Jason認為,一個評估集上的高分必須能體現(xiàn)出一些有重要意義而且易于理解的事情。

比如「超越人類表現(xiàn)」是容易理解的,「解決小學(xué)水平的數(shù)學(xué)題」對于模型能力的意義,也不難明白。

此外,評估的主題也直接影響著研究者們的關(guān)注程度。

在為某個特定領(lǐng)域(如法律、醫(yī)療等)創(chuàng)建高質(zhì)量評估集時,最重要的是基于領(lǐng)域?qū)<业囊庖姾蛢r值判斷,而且不要對流行程度期待過高。

Jason曾做過一個組織病理學(xué)的圖像基準(zhǔn)測試,不出所料,除了醫(yī)學(xué)圖像分析領(lǐng)域,這項研究幾乎沒有引起任何關(guān)注,文章只有40次引用。

但也有例外,比如OpenAI曾經(jīng)投入大量資金開發(fā)LLM的代碼能力,在Codex和CoPilot等項目獲得關(guān)注后,人們也開始意識到這個小眾領(lǐng)域的重要性,HumanEval也因此流行起來。

另一個現(xiàn)實層面的因素是,如果希望自己開發(fā)的評估基準(zhǔn)獲得更多關(guān)注,你應(yīng)該積極地幫助或激勵別人使用它。

Jason Wei說,他開發(fā)一個評估集之后,會主動提出幫別人在上面運行模型。如果模型表現(xiàn)良好,開發(fā)人員就會喜歡這個評估,并主動幫你推廣。

此外,也可以試著讓公司或?qū)嶒炇覂?nèi)部的經(jīng)理認可你的評估,這樣他們就會要求研發(fā)人員撰寫報告,闡述模型在這個評估上表現(xiàn)如何。

評估的「七宗罪」

好的評估是相似的,糟糕的評估各有各的缺陷。大多數(shù)不成功的評估都至少犯過以下錯誤中的一個:

1. 沒有足夠的示例

這相當(dāng)于一個嘈雜的且糟糕的用戶界面。例如,在訓(xùn)練過程中運行評估時,各個checkpoint之間分數(shù)波動很大,研究人員就不會喜歡使用這種評估。

最好有至少1000個示例,對于單選/多選題目組成的評估集,示例數(shù)應(yīng)該更多。GPQA就是這方面的反例,盡管是一個很好的評估,但它隨著輸入的prompt不同會發(fā)生波動,因而很難使用。

2. 質(zhì)量不夠高

如果評估中有很多錯誤,就得不到大家的信任。

例如,Jason曾經(jīng)長期使用NQ數(shù)據(jù)集(Natural Questions)進行評估,但GPT-4的能力強大到跨過了一個閾值——即如果模型給出的答案被判定為錯,更可能的情況是評估提供的真實答案錯了,因此他不再使用NQ。

3. 指標(biāo)過于復(fù)雜

過于復(fù)雜的評估會讓人難以理解,因而很少使用,這方面的反例是HELM評估集。

HELM的第一版是一項巨大的努力,但它有太多的指標(biāo)和子集。擁有單一數(shù)字指標(biāo)至關(guān)重要——我想不出任何優(yōu)秀的評估是沒有單一數(shù)字指標(biāo)的。

4. 運行太麻煩

如果運行起來太麻煩,即使其他方面都很好,也不會吸引很多人使用,比如BIG-Bench。

BIG-Bench運行起來非常痛苦,包括對數(shù)概率評估和生成評估,子集太多、示例太多,而且需要不同的基礎(chǔ)設(shè)施,所以運行花了很長時間。這也許就是BIG-Bench沒有獲得太多關(guān)注的原因,盡管它提供了很多信號。

5. 沒有針對一項有意義的任務(wù)

如果評估不是針對一項有意義的任務(wù),AI研究人員就不會非常關(guān)心它。

例如,BIG-Bench Hard有諸如推薦電影或正確結(jié)束括號之類的任務(wù)。這些任務(wù)具有挑戰(zhàn)性,并且隨著模型大小的改變,體現(xiàn)出良好的的變化趨勢。

但是,在這些任務(wù)上做得好并不能對模型的智能程度做出實質(zhì)性結(jié)論。成功的評估通常會衡量對模型智能至關(guān)重要的方面,例如語言理解、考試問題或數(shù)學(xué)等。

6. 評分不正確

如果有人因為模型評分不正確需要調(diào)試代碼,并且他們不同意評分,那么他們可以立即舍棄這個評估。所以,盡量減少解析模型引起的錯誤,或者盡可能給出最好的自動評分的prompt。

7. 性能飽和過快

大模型的性能飛速發(fā)展,為了使評估集能經(jīng)得起時間考驗,因此不能使模型性能飽和過快。

例如,GLUE/SuperGLUE的分數(shù)飽和得太快,改進模型很難帶來巨大的收益,大家就會停止使用這種評估測試。LM在摘要、翻譯等任務(wù)上的性能也進步很快,開發(fā)評估集的速度很難追上,因此幾乎沒有人使用這類任務(wù)了。

除了傳統(tǒng)的評估數(shù)據(jù)集,還有一種范式正在興起——以LMSYS為代表的人類成對評估(human pairwise rating),這種機制有很強的普適性,可以用于所有類型的模型。

但這也是一把雙刃劍。優(yōu)勢在于,得到的單一的數(shù)字指標(biāo)可以衡量LLM在一組通用prompt上的表現(xiàn),非常簡單直觀,而且樣本級別的噪聲可以在大量樣本上得到平均。

另一方面,我們不清楚人類評估者具體在為模型的哪一方面打分——與答案的正確性相比,感覺和風(fēng)格在評分中有多少占比?

此外,還需要關(guān)注到的一個問題是評估集的數(shù)據(jù)污染。一個良好的評估發(fā)布之后,其中的示例往往會在互聯(lián)網(wǎng)上流傳開來,傳播到arxiv論文、ChatGPT示例或Reddit帖子中。

解決方法之一是建立隱藏測試集,但這會帶來很多分歧和沖突。Christopher Manning曾提出一個很好的建議——

為評估同時建立公開測試集和私有測試集,并監(jiān)控哪些模型在兩個測試集上的分數(shù)有較大差異。這種方法可以平衡公開測試集的高認可度和私有測試集的高可信度。

雖然LLM的評估工作如此重要,但一個現(xiàn)實的困境是,投身于評估測試的工作可能比較痛苦,而且通常不會和模型開發(fā)的工作得到同等的回報。

但是無論如何,良好的評估發(fā)揮著「目標(biāo)函數(shù)」的作用,會對整個領(lǐng)域產(chǎn)生有力影響,也值得我們投入持續(xù)的關(guān)注和努力。

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2025-01-24 14:38:51

2024-05-27 00:45:00

2023-12-27 14:03:48

2024-01-15 05:55:33

2020-09-21 14:25:26

Google 開源技術(shù)

2022-07-26 00:00:03

語言模型人工智能

2025-05-20 11:55:22

人工智能Vision RAGLLM

2023-04-05 14:25:58

LLM谷歌OpenAI

2024-02-04 16:40:11

LLM人工智能AI

2020-11-10 10:26:16

串口打印工具

2024-06-04 12:59:41

2017-11-07 12:35:53

比特幣區(qū)塊鏈虛擬貨幣

2023-04-10 11:35:31

評估模型業(yè)務(wù)流程

2025-04-07 08:40:00

開源Llama 4大模型

2025-05-30 05:00:00

AI模型數(shù)據(jù)訓(xùn)練

2019-09-17 09:31:10

2010-08-16 14:07:44

盒模型marginpadding

2024-05-28 11:32:01

2023-12-22 19:59:15

2021-08-04 16:06:45

DataOps智領(lǐng)云
點贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 亚洲国产日韩欧美 | 国产欧美精品一区 | 久久久久久一区 | 欧美mv日韩mv国产网站91进入 | 91日韩 | 羞羞视频网站在线观看 | 国产精品视频免费看 | 欧美一级视频免费看 | 国产一区精品 | 九九精品久久久 | 激情91| 国产电影一区二区 | 国产日韩欧美中文 | 日韩福利一区 | a级片播放| 一级黄色片在线看 | 亚洲麻豆 | 国产欧美在线观看 | 我想看国产一级毛片 | 久久久久九九九九 | 一级黄a视频 | 99久久精品免费看国产四区 | 日韩精品在线免费观看视频 | 黄色在线免费网站 | 99热精品在线 | 中文字幕丁香5月 | 一级午夜aaa免费看三区 | 欧美一区免费 | 国产在线第一页 | 毛片一级片 | av一二三四 | 日韩av免费在线观看 | 欧美在线 | 天堂在线一区 | av片在线免费看 | 性欧美精品一区二区三区在线播放 | 国产一区二区视频免费在线观看 | 特黄色一级毛片 | 亚欧精品 | 久久久www成人免费精品 | 国产99视频精品免费播放照片 |