成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

新測試基準發布,最強開源Llama 3尷尬了

發布于 2024-4-23 09:42
瀏覽
0收藏

如果試題太簡單,學霸和學渣都能考90分,拉不開差距……


隨著Claude 3、Llama 3甚至之后GPT-5等更強模型發布,業界急需一款更難、更有區分度的基準測試


大模型競技場背后組織LMSYS推出下一代基準測試Arena-Hard,引起廣泛關注。


Llama 3的兩個指令微調版本實力到底如何,也有了最新參考。

新測試基準發布,最強開源Llama 3尷尬了-AI.x社區

與之前大家分數都相近的MT Bench相比,Arena-Hard區分度從22.6%提升到87.4%,孰強孰弱一目了然。


Arena-Hard利用競技場實時人類數據構建,與人類偏好一致率也高達89.1%


除了上面兩個指標都達到SOTA之外,還有一個額外的好處:


實時更新的測試數據包含人類新想出的、AI在訓練階段從未見過的提示詞,減輕潛在的數據泄露


并且新模型發布后,無需再等待一周左右時間讓人類用戶參與投票,只需花費25美元快速運行測試管線,即可得到結果。


有網友評價,使用真實用戶提示詞而不是高中考試來測試,真的很重要。

新測試基準發布,最強開源Llama 3尷尬了-AI.x社區

新基準測試如何運作?

簡單來說,通過大模型競技場20萬個用戶查詢中,挑選500個高質量提示詞作為測試集。

首先,挑選過程中確保多樣性,也就是測試集應涵蓋廣泛的現實世界話題。


為了確保這一點,團隊采用BERTopic中主題建模管道,首先使用OpenAI的嵌入模型(text-embedding-3-small)轉換每個提示,使用 UMAP 降低維度,并使用基于層次結構的模型聚類算法 (HDBSCAN) 來識別聚類,最后使用GPT-4-turbo進行匯總。

新測試基準發布,最強開源Llama 3尷尬了-AI.x社區

同時確保入選的提示詞具有高質量,有七個關鍵指標來衡量:

  • 具體性:提示詞是否要求特定的輸出?
  • 領域知識:提示詞是否涵蓋一個或多個特定領域?
  • 復雜性:提示詞是否有多層推理、組成部分或變量?
  • 解決問題:提示詞是否直接讓AI展示主動解決問題的能力?
  • 創造力:提示詞是否涉及解決問題的一定程度的創造力?
  • 技術準確性:提示詞是否要求響應具有技術準確性?
  • 實際應用:提示詞是否與實際應用相關?

新測試基準發布,最強開源Llama 3尷尬了-AI.x社區

使用GPT-3.5-Turbo和GPT-4-Turbo對每個提示進行從 0 到 7 的注釋,判斷滿足多少個條件。然后根據提示的平均得分給每個聚類評分。


高質量的問題通常與有挑戰性的話題或任務相關,比如游戲開發或數學證明。

新測試基準發布,最強開源Llama 3尷尬了-AI.x社區

新基準測試準嗎?

Arena-Hard目前還有一個弱點:使用GPT-4做裁判更偏好自己的輸出。官方也給出了相應提示。


可以看出,最新兩個版本的GPT-4分數高過Claude 3 Opus一大截,但在人類投票分數中差距并沒有那么明顯。

新測試基準發布,最強開源Llama 3尷尬了-AI.x社區

其實關于這一點,最近已經有研究論證,前沿模型都會偏好自己的輸出

新測試基準發布,最強開源Llama 3尷尬了-AI.x社區

研究團隊還發現,AI天生就可以判斷出一段文字是不是自己寫的,經過微調后自我識別的能力還能增強,并且自我識別能力與自我偏好線性相關

新測試基準發布,最強開源Llama 3尷尬了-AI.x社區

那么使用Claude 3來打分會使結果產生什么變化?LMSYS也做了相關實驗。

首先,Claude系列的分數確實會提高。

新測試基準發布,最強開源Llama 3尷尬了-AI.x社區

但令人驚訝的是,它更喜歡幾種開放模型如Mixtral和零一萬物Yi,甚至對GPT-3.5的評分都有明顯提高。


總體而言,使用Claude 3打分的區分度和與人類結果的一致性都不如GPT-4。

新測試基準發布,最強開源Llama 3尷尬了-AI.x社區

所以也有很多網友建議,使用多個大模型來綜合打分

新測試基準發布,最強開源Llama 3尷尬了-AI.x社區

除此之外,團隊還做了更多消融實驗來驗證新基準測試的有效性。


比如在提示詞中加入“讓答案盡可能詳盡”,平均輸出長度更高,分數確實會提高。


但把提示詞換成“喜歡閑聊”,平均輸出長度也有提高,但分數提升就不明顯。

新測試基準發布,最強開源Llama 3尷尬了-AI.x社區

此外在實驗過程中還有很多有意思的發現。


比如GPT-4來打分非常嚴格,如果回答中有錯誤會狠狠扣分;而Claude 3即使識別出小錯誤也會寬大處理。


對于代碼問題,Claude 3傾向于提供簡單結構、不依賴外部代碼庫,能幫助人類學習編程的答案;而GPT-4-Turbo更傾向最實用的答案,不管其教育價值如何。


另外即使設置溫度為0,GPT-4-Turbo也可能產生略有不同的判斷。


從層次結構可視化的前64個聚類中也可以看出,大模型競技場用戶的提問質量和多樣性確實是高。

新測試基準發布,最強開源Llama 3尷尬了-AI.x社區

這里面也許就有你的貢獻。


Arena-Hard GitHub:??https://github.com/lm-sys/arena-hard???
Arena-Hard HuggingFace:???https://huggingface.co/spaces/lmsys/arena-hard-browser???
大模型競技場:???https://arena.lmsys.org??


本文轉自 量子位 ,作者:量子位


原文鏈接:??https://mp.weixin.qq.com/s/-lZKrLWICRdnabzvoqvGKw??

收藏
回復
舉報
回復
相關推薦
主站蜘蛛池模板: 在线免费国产视频 | 一级毛片免费 | 午夜看电影在线观看 | 日韩久久久久久 | 国产精品成人国产乱一区 | 91在线视频在线观看 | 久久久不卡网国产精品一区 | 国产91在线播放 | 日韩和的一区二在线 | av在线天堂 | 亚洲一区二区av | 欧美在线观看一区 | 欧美日韩91 | 精精国产xxxx视频在线播放 | 国产精品久久久亚洲 | 久久精品无码一区二区三区 | 国产成人精品一区二区三区网站观看 | 国产精品不卡视频 | 亚洲五码在线 | 极品粉嫩国产48尤物在线播放 | 91伦理片| 亚洲av毛片 | 国内自拍真实伦在线观看 | 亚洲网站在线观看 | 91一区二区三区 | 欧美乱码精品一区二区三区 | 久久国产视频网站 | 亚洲精品乱码久久久久久蜜桃 | 久久久久久久综合 | 国产综合一区二区 | 久久国产精品网站 | 国产精品亚洲一区 | 精品视频一区二区 | 日韩影院在线观看 | 中文字幕在线三区 | 免费观看一级特黄欧美大片 | 91视频进入| 丝袜美腿一区二区三区动态图 | 中文字幕亚洲精品在线观看 | 99在线视频观看 | 精品久久久久久久久久 |