ChatGPT突然瘋了,意外輸出震驚網友!OpenAI官方回應:token預測是根源?
ChatGPT突然瘋了!失去理智!精神錯亂!
——一大批ChatGPT用戶炸了鍋。
周二,「ChatGPT發瘋」各種討論話題紛紛刷榜Reddit,HN等各大社交平臺。
網友表示,「我收到了ChatGPT有史以來最詭異的回復」。
隨后,OpenAI官方確認了ChatGPT最新的bug,并已將其修復。
ChatGPT瘋了?。?!
ChatGPT究竟有多瘋?
回復幻覺垃圾,根本停不下來。
顯然GPT-4,已經出現了故障。
還有人在線求助Altman。
ChatGPT變瘋,當然少不了馬庫斯的口水。
他專門寫了一篇文章來講這件事。
Reddit上r/ChatGPT板塊下面,用戶開始討論ChatGPT的意外輸出,「中風、精神錯亂、漫無邊際、失去理智」等等。
有一位網友稱,我之前在和ChatGPT聊天,問它會推薦Bill Evans三重奏中的哪張黑膠唱片,結果它就失控了。就像參數設置過高,超出了API的溫度范圍。我以前從未遇到過這樣的情況。
下圖中可以看出,GPT-4不停地瘋狂輸出「Happy Listening!?? Happy Listening!??」。
再繼續詢問它原因是,GPT-4回復到最后又失去了理智。
「我就是想問問能不能給我的狗狗吃麥片,ChatGPT就開始胡說八道」。
還有網友詢問GPT-4,即將前往沙特的旅行是否需要帶漱口水。(原本它只需要回復如果含有酒精就不允許)。
沒想到......
網友稱,我只不過是想讓它它幫忙做一些數學題,然后......
同樣,還有這滿屏的重復。
官方報告
OpenAI也在第一時間,報告了ChatGPT故障問題,并在加急修復后,解決了這個問題。
至于究竟是什么原因導致?OpenAI也給出了官方報告。
2024年2月20日,在對用戶體驗的一次優化時,我們對模型處理語言的方式上引入了一個錯誤。
LLM通過基于單詞的概率進行隨機采樣來生成回復的。它們的「語言」由映射到token的數字組成。
在這種情況下,錯誤出現在模型選擇這些數字的步驟中。
就像在翻譯中迷失了方向一樣,模型選擇的數字稍有錯誤,就會產生毫無意義的單詞序列。更嚴格地說,推理內核在某些GPU配置中使用時會產生不正確的結果。
在確定此事件的原因后,我們推出了修復程序,并確認事件已得到解決。
近來,OpenAI確實在對GPT-4進行優化,并公布了其訓練時間日期截止到2023年12月。
這個bug和最近Karpathy上線的一堂課「從頭開始構建GPT分詞器」中也談到了一些關于大模型輸出怪異問題的原因。
其中之一,就是分詞器導致的。
就拿為什么LLM有時拼不正確詞,或者做不了其他與拼寫相關的任務?
從根本上說,這是因為我們看到這些字符被分割成了一個個token,其中有些token實際上相當長。
因此,Karpathy懷疑這個單個token中塞進了太多的字符,而且該模型在與拼寫這個單個token相關的任務方面應該不是很擅長。
雖然Karpathy的提示是故意那樣做,但你也可以看到默認風格將是一個單一的token,所以這就是模型所看到的。
事實上,分詞器不知道有多少個字母。
借助這次ChatGPT混亂的大好時機,支持開源人工智能的人士紛紛轉發。
Hugging Face的AI研究員Dr. Sasha Luccioni表示,「當黑盒API的底層組件更新時,它們可能會在輸出中崩潰。當你在這些API之上構建工具時,這就會成為一個問題,而這些API也會崩潰。這正是開源技術的一大優勢,它可以讓您準確定位并解決問題」!