成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

為什么AI數不清Strawberry里有幾個 r?Karpathy:我用表情包給你解釋一下

人工智能 新聞
讓模型知道自己擅長什么、不擅長什么是一個很重要的問題。

還記得這些天大模型被揪出來的低級錯誤嗎?

不知道 9.11 和 9.9 哪個大,數不清 Strawberry 單詞里面有多少個 r…… 每每被發現一個弱點,大模型都只能接受人們的無情嘲笑。

圖片

嘲笑之后,大家也冷靜了下來,開始思考:低級錯誤背后的本質是什么?

大家普遍認為,是 Token 化(Tokenization)的鍋。

在國內,Tokenization 經常被翻譯成「分詞」。這個翻譯有一定的誤導性,因為 Tokenization 里的 token 指的未必是詞,也可以是標點符號、數字或者某個單詞的一部分。比如,在 OpenAI 提供的一個工具中,我們可以看到,Strawberry 這個單詞就被分為了 Str-aw-berry 三個 token。在這種情況下,你讓 AI 大模型數單詞里有幾個 r,屬實是為難它。

除了草莓 (Strawberry) 之外,還有一個很好的例子就是「Schoolbooks」這個詞,AI 模型會把它分為 school 和 books 兩個 token。

圖片

圖片

這個問題也吸引了剛剛投身 AI + 教育行業的 Karpathy 的注意。為了讓大家直觀地看到大模型眼里的文字世界,他特地寫了一個小程序,用表情符號(emoji)來表示 token。

圖片

按照小程序被設計的表示方法,「How many letters 'r' in the word'strawberry'?」在 LLM 看來是這樣的:

圖片

一段文本在 LLM 看來會是這樣:

圖片

但這種解釋也引起了另一種疑問:如果你讓大模型把 Strawberry 這個詞的每個字母都列出來,然后刪掉 r 以外的字母,大模型就能數對了,那大模型為什么自己不這么做呢?它好像不太會利用自己的能力。

圖片

圖片

對此,Karpathy 給出的回復是「因為沒有人教它這么做」。

圖片

其實,如果你在 Prompt 里加上「think step by step」等思維鏈相關「咒語」,大模型是可以分步驟解決問題的,而且很有可能數對「r」的數量。那它之前不假思索就給出答案,是不是因為過度自信?   

圖片

對此,有人猜測說,大模型公司給 LLM 的設定可能就是讓它在一個問題上花費盡可能少的時間,因此,除非你明確要求,不然它不會主動去深入思考。

圖片

對于這種說法,我們也測試了一下。結果發現,如果明確要求深入思考,模型確實立馬就會數了:   

圖片

這就類似于它有兩套系統:快速、依靠直覺的系統 1 和較慢、較具計劃性且更仰賴邏輯的系統 2,平時默認使用系統 1。

圖片

當然,這些只是猜測。

綜合最近的新聞來看,我們會發現一個有意思的現象:一方面,大模型都能在人類奧數中拿銀牌了;而另一方面,它們又在數數、比大小方面集體翻車。類似的例子還有不會玩幾歲小孩都會玩的井字棋,不會判斷兩個圓是否重疊等。

圖片

Karpathy 給這種現象取了個名字 ——Jagged Intelligence(Jagged 的意思是參差不齊的)。這種參差不齊的智能表現和人類是不一樣的,人類的知識體系和解決問題的能力在成長過程中是高度相關的,并且是同步線性發展的,而不是在某些領域突然大幅度提升,而在其他領域卻停滯不前。

Karpathy 認為,這一問題的核心在于目前的大模型缺乏「認知自我知識(cognitive self-knowledge)」( 模型自身對其知識和能力的自我認知 )。如果模型具備這種能力,它可能會在面對「數字母」這樣的問題時回答說,「我不太擅長數字母,讓我使用代碼解釋器來解決這個問題」。

圖片

這一問題的解決方案可能包括但不限于擴大規模,可能需要在整個技術棧的各個方面都做一些工作,比如在后訓練階段采用更復雜的方法。

對此,Karpathy 推薦閱讀 Llama 3 論文的 4.3.6 章節。在此章節中,Meta 的研究者提出了一些方法來讓模型「只回答它知道的問題」。

圖片

該章節寫到:


我們遵循的原則是,后訓練應使模型「知道它知道什么」,而不是增加知識。我們的主要方法是生成數據,使模型生成與預訓練數據中的事實數據子集保持一致。為此,我們開發了一種知識探測技術,利用 Llama 3 的 in-context 能力。數據生成過程包括以下步驟:


1、從預訓練數據中提取數據片段。

2、通過提示 Llama 3 生成一個關于這些片段(上下文)的事實問題。

3、采樣 Llama 3 關于該問題的回答。

4、以原始上下文為參照,以 Llama 3 為裁判,評估生成的回答的正確性。 

5、以 Llama 3 為裁判,評估生成回答的信息量。

6、對于 Llama 3 模型在多個生成過程中提供的信息雖多但內容不正確的回答,使用 Llama 3 生成拒絕回答的內容。 


我們使用知識探測生成的數據來鼓勵模型只回答它知道的問題,而拒絕回答它不確定的問題。此外,預訓練數據并不總是與事實一致或正確。因此,我們還收集了一組有限的標注事實性數據,這些數據涉及與事實相矛盾或不正確的陳述。


最后,Karpathy 表示,這種參差不齊的智能問題值得注意,尤其是在生產環境中。我們應該致力于讓模型只完成他們擅長的任務,不擅長的任務由人類及時接手。

責任編輯:張燕妮 來源: 機器之心
相關推薦

2024-07-25 12:11:22

2020-07-06 08:00:26

MySQL程序員SQL

2011-01-18 13:45:58

2024-08-07 10:05:00

LLM大模型技術

2021-08-28 09:06:11

Dubbo架構服務

2025-02-28 09:14:09

JavaNIO機制

2020-02-28 09:09:51

閉包函數作用域

2025-06-25 10:17:48

2021-08-02 07:59:47

技術動圖數列

2021-08-02 07:59:21

單調棧題目

2020-08-13 08:43:24

TCP固定窗口滑動窗口

2021-01-18 05:19:11

數字指紋

2025-03-31 09:20:00

AI模型測試

2019-08-16 10:33:00

Chrome插件開發者

2019-08-20 15:01:05

Chrome 瀏覽器 插件

2023-05-22 10:09:21

FlexboxCSS3

2015-08-04 09:24:50

2020-03-11 20:11:06

電腦騷操作AMD

2021-09-09 08:47:57

TCP三次握手協議
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 欧美久久一区二区 | 欧美日韩精品一区 | 久久精品91久久久久久再现 | 一区二区三区免费观看 | 色呦呦网站 | 欧美精品乱码久久久久久按摩 | 久久久久久九九九九九九 | 中文字幕av一区二区三区 | 亚洲aⅴ | 91久久久久久久久久久久久 | 久久久久久久久久久久久91 | 精品欧美乱码久久久久久1区2区 | 欧美视频免费在线 | 在线视频 亚洲 | 视频在线亚洲 | 黄色片大全在线观看 | 日韩中文一区二区三区 | 天堂在线www | 国产一区亚洲 | av片在线播放| 亚洲欧美在线观看 | 亚洲高清网 | 成人日韩 | 午夜视频在线免费观看 | 粉嫩一区二区三区国产精品 | 国产日韩一区二区三免费高清 | 国产丝袜一区二区三区免费视频 | 亚洲国产一区二区在线 | 在线视频 亚洲 | www操操| 色视频网站 | 九色www| 久久久.com| 日本在线一二 | 免费午夜视频 | 日本久久视频 | 中文字幕一区二区三区在线视频 | 日日碰狠狠躁久久躁婷婷 | 中文字幕免费在线观看 | 婷婷综合| 国产一区三区在线 |