ICLR 2024接收率31%,清華LCM論文作者:講個笑話,被拒了
ICLR 2024 國際學(xué)習(xí)表征會議已經(jīng)來到了第十二屆,將于今年 5 月 7 日 - 11 日在奧地利維也納會展中心舉行。
在機(jī)器學(xué)習(xí)社區(qū)中,ICLR 是較為「年輕」的學(xué)術(shù)頂會,它由深度學(xué)習(xí)巨頭、圖靈獎獲得者 Yoshua Bengio 和 Yann LeCun 牽頭舉辦,2013 年才舉辦了第一屆。不過 ICLR 很快獲得學(xué)術(shù)研究者們的廣泛認(rèn)可,被認(rèn)為是深度學(xué)習(xí)頂會。在 Google Scholar 的學(xué)術(shù)會議 / 雜志排名中,ICLR 目前排名第十位,要高于 NeurIPS。
今日,ICLR 2024 將錄用結(jié)果陸續(xù)通知了論文提交者。本屆會議共收到了 7262 篇提交論文,整體接收率約為 31%,與去年持平(31.8%)。此外 Spotlights 論文比例為 5%,Oral 論文比例為 1.2%。
研究分析網(wǎng)站 Paper Copilot 對 ICLR 2024 的接收論文做了非常詳細(xì)的統(tǒng)計(jì),并提供了與往年直觀的比較。
網(wǎng)站地址:https://papercopilot.com/statistics/iclr-statistics/iclr-2024-statistics/
結(jié)果出來后,依然是幾家歡喜幾家愁,論文被接收的學(xué)者紛紛「曬出」自己的喜悅。
機(jī)器之心報(bào)道過的蘋果文生圖大模型收到了被接收的喜訊。在這篇論文中,研究者提出了俄羅斯套娃式擴(kuò)散模型(Matryoshka Diffusion Models,MDM),用于端到端高分辨率圖像生成。
推特 @thoma_gu
知名 AI 學(xué)者、Meta AI 研究科學(xué)家田淵棟團(tuán)隊(duì)有 4 篇論文被接收,其中包括了一篇 Spotlight 論文。
推特 @tydsh
新加坡國立大學(xué)校長青年教授尤洋團(tuán)隊(duì)的論文《InfoBatch: Lossless Training Speed Up by Unbiased Dynamic Data Pruning》被接收為了 Oral。
推特 @YangYou1991
不過,有些論文似乎成了 ICLR 2024 的遺珠,比如清華大學(xué)交叉信息研究院的研究者推出的 LCM(Latent Consistency Models),它將主流文生圖模型的效率提高了 5 到 10 倍,甚至做到了實(shí)時連續(xù)生圖。該模型發(fā)布僅僅一個月后便瀏覽超百萬,在 Hugging Face 平臺的模型下載量超 20 萬。
論文共同一作 Simian Luo 感嘆這是「這輩子最好笑的笑話」。
我們找到了一位審稿人的意見,他指出論文的缺點(diǎn)有這些:沒說清楚哪些貢獻(xiàn)對效率和質(zhì)量影響最大、沒給出求解增強(qiáng) PF-ODE 的計(jì)算復(fù)雜度、沒說明與其他方法相比推理時間到底快了多少、 沒給到 LCM 除用于 Stable Diffusion 以外其他 LDMs 的性能如何?
圖源:https://openreview.net/forum?id=duBCwjb68o