成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

大模型RLHF不必非得靠人,谷歌:AI反饋效果一樣好

人工智能
RLHF,即基于人類反饋的強化學(xué)習(xí),無論是ChatGPT還是開源的LLaMA都離不開它。但其中的“H”卻是一大瓶頸,因為收集高質(zhì)量的人類反饋實在是太難了。那能不能交給AI來做呢?的確有人就這么干了,但能否替代RLHF一直沒有定論,直到Google進行了這項研究。

說起現(xiàn)如今訓(xùn)大模型的核心方法,RLHF是繞不開的話題。

RLHF,即基于人類反饋的強化學(xué)習(xí),無論是ChatGPT還是開源的LLaMA都離不開它。

但其中的“H”卻是一大瓶頸,因為收集高質(zhì)量的人類反饋實在是太難了。

那能不能交給AI來做呢?的確有人就這么干了,但能否替代RLHF一直沒有定論,直到Google進行了這項研究。

圖片圖片

在一篇新發(fā)布的arXiv論文中,Google將RLAIF訓(xùn)練出的模型在文本總結(jié)上的表現(xiàn)與RLHF做了比較。

RLAIF用AI來代替RLHF中的人類,完成生成反饋的工作,讓大模型訓(xùn)練不再受制于人類的局限。

在訓(xùn)練后的人類評價中,人們對RLHF和RLAIF訓(xùn)練后的模型生成的答案傾向性幾乎沒有差別。

甚至在一些細節(jié)上,RLAIF的表現(xiàn)還要優(yōu)于RLHF。

有AI工程師轉(zhuǎn)發(fā)了這篇論文并評論說,到GPT-5的時候可能就不再需要人類數(shù)據(jù)標注員了。

圖片圖片

在介紹詳細的評測結(jié)果之前,我們不妨先來看看RLAIF的工作流程。

用LLM生成反饋數(shù)據(jù)

其實RLAIF和RLHF差不多,就是把人換成了AI,從字面上也能看出來。

圖片圖片

所以重點自然而然地來到了生成反饋內(nèi)容上。

研究人員首先讓AI在兩個答案中進行選擇以獲得反饋。

為了避免隨機性問題,會進行多次選擇,其間還會對選項的順序進行交換。

其中還用到了思維鏈(CoT)的推理模式,以獲取更好的回答。

此外,為了提高LLM的自我一致性,這一過程并非直接二選一,而是分別給兩個答案打分,相加為1。

這套流程走下來的prompt和輸出大概是醬嬸兒的:

圖片圖片

舉個例子:

圖片圖片

有了這些數(shù)據(jù),就可以拿來訓(xùn)練獎勵模型,進而預(yù)測出偏好分數(shù)了。

接著, 利用訓(xùn)練好的獎勵模型,研究人員讓目標模型進行強化學(xué)習(xí)。

與其他模型常用的PPO(Proximal Policy Optimization)算法不同,RLAIF采用的是更為簡單有效的修改版A2C(Advantage Actor Critic)算法。

當然,也可以不訓(xùn)練獎勵模型,直接用AI生成的標注數(shù)據(jù)進行強化學(xué)習(xí)。

實際上,團隊得到的標注數(shù)據(jù)集比獎勵模型規(guī)模更大也更好用,但考慮這樣消耗的計算成本太高,還是選擇了獎勵模型。

到這里大模型的“課程”就已經(jīng)學(xué)完了,不過要想“畢業(yè)”的話還得再經(jīng)歷一場“考試”才行。

“考試”一共包括下面的三項內(nèi)容:

  • AI Labeler Alignment:AI偏好相對于人類偏好的精確程度
  • Pairwise Accuracy:訓(xùn)練好的獎勵模型與人類偏好數(shù)據(jù)集的匹配程度
  • Win Rate:人類在RLAIF和RLHF生成結(jié)果之間的傾向性

經(jīng)過這樣一番測試之后,強化學(xué)習(xí)終于大功告成。

那么,“AI教出來的學(xué)生”成績究竟怎么樣呢?

測試效果可以與RLHF媲美

研究團隊找來了1200名人員,在對SFT(基線監(jiān)督微調(diào))、RLHF、RLAIF以及真人給出的答案從優(yōu)質(zhì)到劣質(zhì)進行排序。

圖片圖片

以SFT方式作為基線,RLHF和RLAIF的Win Rate均超過了70%,也就是說人類對這兩種方式的傾向程度是SFT的將近三倍。

雖然RLHF的表現(xiàn)略勝于RLAIF,但兩者的差距并不明顯。

而若以RLHF作為參照,RLAIF的Win Rate則是50%,說明人類對兩者的傾向程度是一樣的。

圖片圖片

有趣的是,兩種RL訓(xùn)練出的模型給的結(jié)果都遠遠勝過了真人直接給出的答案。

RLAIF相對于真人的Win Rate高達79%,而RLHF是80%,即傾向性是真人答案的四倍。

此外,在對輸出內(nèi)容進行仔細評估之后,研究人員還發(fā)現(xiàn)RLAIF訓(xùn)練出的模型出現(xiàn)幻覺的概率比RLHF更低,邏輯和語法錯誤也更少。

One More Thing

不過對于RLAIF,也有網(wǎng)友發(fā)現(xiàn)了華點:

拿來生成反饋的模型不也是用RLHF訓(xùn)練出來的嗎?

圖片圖片

而另一邊,RLHF的過程當中,也不能排除有的人在用AI“偷懶”的可能。

圖片圖片

或許“你中有我,我中有你”才是兩種方式測試結(jié)果這么接近的原因嗎?

論文地址:https://www.arxiv.org/abs/2309.00267

責任編輯:武曉燕 來源: 量子位
相關(guān)推薦

2023-09-06 13:17:00

AI數(shù)據(jù)

2023-08-08 10:12:17

谷歌機器人

2024-04-03 13:50:00

開源模型

2023-09-05 12:59:33

模型數(shù)據(jù)

2022-09-18 21:25:42

AI模型

2024-08-26 10:01:50

2023-12-26 12:07:14

模型訓(xùn)練

2012-12-20 10:17:32

IT運維

2023-09-09 12:56:36

2016-11-03 18:51:45

AndroidIOS谷歌

2021-04-23 15:13:16

算法模型技術(shù)

2023-03-06 15:24:54

谷歌人才

2023-11-06 10:40:47

GPT-4V大模型

2023-02-23 15:35:14

人工智能ChatGPT聊天機器人

2023-09-22 11:56:57

模型駕駛

2022-02-24 13:59:59

AI智能體研究

2024-06-20 07:23:29

2024-07-03 14:01:42

2022-07-12 14:56:30

AI模型研究

2025-02-27 10:33:36

點贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 视频一区二区三区中文字幕 | 国产精品成人av | 91久久国产综合久久 | 欧美国产日韩一区 | aaa大片免费观看 | 中文字幕第一页在线 | 亚洲精品久久嫩草网站秘色 | 九九久久免费视频 | 欧美日韩高清免费 | 国产成人久久精品一区二区三区 | 国产综合网站 | 国产视频一视频二 | 国产一区二区三区欧美 | 国产精品自拍视频网站 | 国产在线拍偷自揄拍视频 | 亚洲欧美日韩激情 | 精品欧美一区二区三区久久久 | 91美女视频 | 亚洲电影一区 | 久久久久久www | 综合亚洲视频 | 久久ww| 日日夜夜精品免费视频 | 午夜精品视频在线观看 | 国产真实乱对白精彩久久小说 | 久久精品中文字幕 | 日本一区二区在线视频 | 中文字幕黄色大片 | 国产无人区一区二区三区 | 视频一区二区在线观看 | 99国产视频 | 一级毛片免费看 | 欧美精品在线一区二区三区 | 欧美a∨| k8久久久一区二区三区 | 99热视| 一区二区av | 亚洲第一av| 午夜久久久 | 在线亚洲电影 | 免费一区|