大模型如何可靠?IBM等學者最新《基礎模型的基礎魯棒性》教程
作為當前全球最負盛名的 AI 學術會議之一,NeurIPS 是每年學界的重要事件,全稱是 Neural Information Processing Systems,神經信息處理系統大會,通常在每年 12 月由 NeurIPS 基金會主辦。
大會討論的內容包含深度學習、計算機視覺、大規模機器學習、學習理論、優化、稀疏理論等眾多細分領域。
今年 NeurIPS 已是第 36 屆,于 11 月 28 日至 12 月 9 日舉行,為期兩周。
第一周將在美國新奧爾良 Ernest N. Morial 會議中心舉行現場會議,第二周改為線上會議。
來自IBM研究中心等學者講述關于大模型的魯棒性,非常值得關注!
基礎模型采用深度學習的方法,在大規模無標簽數據上進行預訓練,并通過特定任務的監督進行微調,正成為機器學習的主流技術。
雖然基礎模型在學習一般表示和跨領域和數據模式的少次/零次泛化方面有很多希望,但同時由于使用了過多的數據量和復雜的神經網絡架構,它們在魯棒性和隱私性方面提出了前所未有的挑戰和相當大的風險。
本教程旨在提供一個類似coursera的在線教程,包含全面的講座,一個實踐和交互式的Jupyter/Colab實時編碼演示,以及一個關于基礎模型中可信性的不同方面的小組討論。
https://sites.google.com/view/neurips2022-frfm-turotial
目錄內容:
- Basics in foundation models and robustness
- Deep dive on foundation models for computer vision
- Deep dive on foundation models for code
- Hands-on code walkthrough
- Concluding Remarks
- Q&A
- Panel discussion
講者:
現實世界的機器學習系統需要對分布變化魯棒——它們應當在與訓練分布不同的測試分布上工作良好。
諸如資源不足國家的貧困地圖 [Xie et al. 2016; Jean et al. 2016]、自動駕駛汽車 [Yu et al. 2020a; Sun et al. 2020a]、醫學診斷 [AlBadawy et al. 2018; Dai and Gool 2018] 這樣的高風險應用都需要模型良好的泛化到訓練數據中沒有見過的環境中,例如,測試樣例來自不同的國家,處于不同的駕駛條件,或來自不同的醫院。
先前的工作已經表明:即使是對目前最先進的模型,這些分布變化也會導致性能的大幅下降 [Blitzer et al. 2006; Daumé III 2007;Sugiyama et al. 2007; Ganin and Lempitsky 2015; Peng et al. 2019; Kumar et al. 2020a; Arjovskyet al. 2019; Szegedy et al. 2014; Hendrycks and Dietterich 2019; Sagawa et al. 2020a; Recht et al.2019; Abney 2007; Ruder and Plank 2018; Geirhos et al. 2018; Kumar et al. 2020b; Yu et al. 2020b;Geirhos et al. 2020; Xie et al. 2021a; Koh et al. 2021]。
一個基礎模型在采樣自分布的大量不同的無標簽數據集上進行訓練,然后可以被適配到許多的下游任務中。
對于每一個下游任務,基礎模型在帶標簽的從訓練分布
中采樣的分布內(in-distribution, ID)訓練數據上進行訓練,然后在分布外(out-of-distribution, OOD)的測試分布
上進行評價。
例如,一個貧困地圖預測模型 [Xie et al. 2016; Jean et al. 2016] 可以在全世界的無標簽衛星數據中學習所有國家的有用特征,然后在帶標簽的來自尼日利亞的樣例上進行微調,最終在缺乏帶標簽樣例的馬拉維上進行評價。
我們認為:1)基礎模型在魯棒性方面是一個特別具有前途的方法。現有工作表明了在無標簽數據上進行預訓練是一種有效的、通用的提高在 OOD 測試分布上準確性的方法,這與限制于有限的分布變化的許多魯棒性干預措施相反。
然而,我們同樣討論了 2)為什么基礎模型可能無法總是應對分布變化,例如某些由于偽相關性或隨時間改變的分布變化。
最后,3)我們概述了幾個利用和提高基礎模型魯棒性的研究方向。
我們注意到,基礎模型提高下游任務性能的一個方法是為適配模型提供歸納偏置(通過模型初始化),這些偏置是在下游訓練數據之外的多種數據集上學習得到的。
然而,同樣的歸納偏置也可能從預訓練數據中編碼有害關聯,并在分布變化的情況下導致表示和分配危害。