成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

爆火論文“14行代碼打敗BERT”出現反轉!改掉bug性能秒變最差

人工智能 新聞
來自滑鐵盧大學和AFAIK機構的研究人員,就“突發奇想”提出了一種不需要參數的替代方案

50年前的kNN算法,只用14行代碼在文本分類上超越風頭正盛的Transformer,包括BERT——

這個來自ACL Finding的成果,一發布就火爆學術圈,讓人重新思考還有多少舊方法可以用于今天的機器學習任務。

圖片圖片

有人盛贊它的創意性超過95%的同會論文,但是卻沒有獲獎實在令人想不通。

圖片圖片

短短14行代碼,完全打開了大家的思路。

圖片

然而,才不到幾天的時間,就有人發現:

這一切好像都是個誤會。

BERT沒有被打敗,代碼有bug,結果有問題!

圖片圖片

這是,反轉了???

重測后性能從SOTA變最差

先再來簡單回顧一下這篇論文的主要背景和思想:

圖片圖片

它講的是如今由于精度高被經常用于文本分類的深度神經網絡模型(DNN),因為其計算密集型的特性,需要數百萬個參數和大量標記數據才能保證效果,這就導致它用起來或者做優化,以及轉移到分布外數據等情況時都很費錢。

在此,來自滑鐵盧大學和AFAIK機構的研究人員,就“突發奇想”提出了一種不需要參數的替代方案:

將簡單的壓縮算法比如gzip和k近鄰分類算法進行結合來做這件事(用到了歸一化壓縮距離NCD)

圖片圖片

結果,這種簡單的方案在沒有任何訓練參數的情況下,效果居然很不錯——

在7個分布內數據集上有6個結果與各類DNN相媲美,在分布外數據集上的結果則接連5把勝出,把BERT都給打敗了。

而且它在少樣本情況下也好使,相反此時的DNN卻因為標記數據太少根本無法進行有效訓練。

來自于美國的機器學習研究員Ken Schutte(博士畢業于MIT電氣工程與計算機科學),在看到這篇論文后非常感興趣,并冒出了一些新點子。

圖片

于是他并決定復現一下。

結果,就出現了蹊蹺:

我發現(當然我也不敢保證),方法中的kNN代碼中似乎存在一個錯誤(也可能是無意的),導致最終測試結果的準確度指標其實都全部高于了預期。

“太長不看”概括一下就是:結果用的是top-2精度,而不是本應該的kNN(k=2) 精度。

也就是說,它的效果可能并沒有那么強。

具體而言,Ken指出,在論文的表5中,結果顯示該方法在OOD數據集上打敗了所有其他基于神經網絡的方法:

圖片圖片

而他對前四個數據集都重新進行了一遍測試(使用kNN(k=2) 精度)結果有很大出入,根本無法打敗那些基準模型,甚至從性能最佳變為性能最差(最后一個數據集因為太大Ken還沒嘗試)

圖片

下面是詳細解釋。

在論文中,作者在使用kNN分類器時,都是取值k=2

(kNN是一種有監督算法,通過“有標簽”的樣本最終確定未知樣本的類別,該算法主要參數就是k值的選擇,k值越大,分類效果越穩定,但計算量也越大)

Ken認為,這個選擇有點沒必要,不會給分類器增加太多信息,取1就行。

而當取2時,在訓練集中搜索出的兩個近鄰點類別標簽不一致的情況下,比如一個是正類,一個是負類,那么就產生了平局情況,我們需要進一步確定唯一正確的那個點。

在這個確定的過程中,論文中的源碼(位于experiments.py文件中的calc_acc方法中)出現了問題:

圖片圖片

簡單來說就是,這段代碼的做法其實是只要2個近鄰點標簽中有一個與中心點真實類別一致(簡而言之,有一個對就算對),就判斷為正確,這也就相當于Top-2精度

但標準的KNN算法,會使用其他打破平局的策略,比如距離近的類別優先,或隨機選取來確定,也就是采用標準的kNN(k=2) 精度來評估結果,“更嚴格”。

這就導致在k=2時原方法計算的準確率其實是高于標準算法的,也就是最終效果并沒有現在我們看上去的那么牛。

這不,Ken重新寫了兩種打破平局的策略(一個是隨機選擇,一個是遞減k),重新計算了各數據集下模型的準確率,結果均出現了不同程度的下滑:

圖片圖片

當然,我們可以發現,如果還是按照top-2算,Ken復現的結果基本和原論文沒有差別,側面證明Ken的發現是有效的。

網友:雖然但是,不影響方法本身的創新性

這個消息出來之后,網友是怎么看的呢?

有意思的是,大家都覺得Ken的分析很有道理,但這不影響該方法本身的創新性。

盡管沒有打敗BERT,但其思想還是令人印象深刻。

作者這個策略也沒有很不合理啦,最重要的是后面還會有更多探索這個研究方向的論文出來。

圖片圖片

GoogleAI的研究員Lucas Beye也表達了類似的意思。

圖片圖片

值得一提的是,在Ken之后,斯坦福博士Yann Dubois又發現該論文的問題還不止如此——

其訓練測試集也重疊了。

比如DengueFilipino的訓練集和測試集完全一樣,而KirundiNews的重復率也高達90%。

圖片圖片

當然,一如既往,由于該方法實在是太特別了,盡管網友評論中也充斥著“wtf”這樣的聲音,但大部分人還是堅決捍衛它的重要貢獻,認為問題不大,可能只是審查不到位等等。

這不,“你可以扼殺一篇論文,但你無法扼殺一個想法”的評論都出來了。

圖片圖片

大家怎么看?這兩個bug影響你對這篇論文的看法嗎?

Ken原博:https://kenschutte.com/gzip-knn-paper/
原論文:https://aclanthology.org/2023.findings-acl.426/

責任編輯:張燕妮 來源: 量子位
相關推薦

2021-03-01 11:37:31

人工智能PULSE

2024-02-29 12:56:00

AI訓練

2020-02-19 15:02:23

代碼開發工具

2022-12-05 15:03:01

2019-11-26 09:47:50

代碼開發工具

2020-02-07 08:00:29

代碼Java8Bug

2024-05-08 09:37:36

AI論文

2019-10-20 20:22:05

Python 開發編程語言

2022-08-28 21:41:19

低代碼/無代碼

2024-05-07 13:07:18

模型訓練

2022-09-13 14:54:08

模型AI

2021-04-15 15:20:46

PythonProperty裝飾器

2018-03-08 11:43:18

PandasTB級數據Spark

2022-01-05 21:39:28

數據參數原理

2024-03-27 12:46:36

AI模型

2023-12-04 09:16:00

AI視覺

2020-10-20 10:05:00

iOS安卓手機移動手機

2020-10-15 15:42:00

人工智能

2021-08-23 15:50:35

AI 數據人工智能
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 亚洲欧美日韩久久 | 久久久久综合 | 成人在线视频免费观看 | 日韩在线免费 | 成人一区av偷拍 | 91在线观看免费视频 | 国产黄色一级片 | 日日日操 | 一级二级三级黄色 | 亚洲国产精品久久 | 一级日韩 | 啪啪精品 | 欧美激情综合 | 成人午夜精品 | 美女爽到呻吟久久久久 | 国产成人短视频在线观看 | 精品国模一区二区三区欧美 | 国产真实乱对白精彩久久小说 | 成人高清网站 | 波多野吉衣久久 | 久久久成人免费一区二区 | 国产精品美女久久久 | 在线国产一区二区 | 久久9999久久 | 久久综合久久自在自线精品自 | 91精品国产乱码久久久久久久久 | 伊人久久精品 | 国产一区二区三区四区在线观看 | 国产精品视频导航 | 81精品国产乱码久久久久久 | 久久在线 | 国产高清一区二区 | 九九热九九| 干干干操操操 | 欧美视频区 | 国产资源在线观看 | 国产美女黄色片 | 日韩a在线 | 人成久久 | 一级在线观看 | 久久久一区二区三区 |