統一圖像和文字生成的MiniGPT-5來了:Token變Voken,模型不僅能續寫,還會自動配圖了
大模型正在實現語言和視覺的跨越,有望無縫地理解和生成文本和圖像內容。在最近的一系列研究中,多模態特征集成不僅是一種不斷發展的趨勢,而且已經帶來了從多模態對話到內容創建工具等關鍵進步。大型語言模型在文本理解和生成方面已經展現出無與倫比的能力。然而,同時生成具有連貫文本敘述的圖像仍然是一個有待發展的領域。
近日,加州大學圣克魯茲分校的研究團隊提出了 MiniGPT-5,這是一種以 「生成式 voken」概念為基礎的創新型交錯視覺語言生成技術。
- 論文地址:https://browse.arxiv.org/pdf/2310.02239v1.pdf
- 項目地址:https://github.com/eric-ai-lab/MiniGPT-5
通過特殊的視覺 token「生成式 voken」,將 Stable Diffusion 機制與 LLM 相結合, MiniGPT-5 為熟練的多模態生成預示了一種新模式。同時,本文提出的兩階段訓練方法強調了無描述基礎階段的重要性,使模型在數據稀缺的情況下也能「茁壯成長」。該方法的通用階段不需要特定領域的注釋,這使得本文解決方案與現有的方法截然不同。為了確保生成的文本和圖像和諧一致,本文的雙損失策略開始發揮作用,生成式 voken 方法和分類方法進一步增強了這一效果。
在這些技術的基礎上,這項工作標志著一種變革性的方法。通過使用 ViT(Vision Transformer)和 Qformer 以及大型語言模型,研究團隊將多模態輸入轉換為生成式 voken,并與高分辨率的 Stable Diffusion2.1 無縫配對,以實現上下文感知圖像生成。本文將圖像作為輔助輸入與指令調整方法相結合,并率先采用文本和圖像生成損失,從而擴大了文本和視覺之間的協同作用。
MiniGPT-5 與 CLIP 約束等模型相匹配,巧妙地將擴散模型與 MiniGPT-4 融合在一起,在不依賴特定領域注釋的情況下實現了較好的多模態結果。最重要的是,本文的策略可以利用多模態視覺語言基礎模型的進步,為增強多模態生成能力提供新藍圖。
如下圖所示,除了原有的多模態理解和文本生成能力外,MiniGPT5 還能提供合理、連貫的多模態輸出:
本文貢獻體現在三個方面:
- 建議使用多模態編碼器,它代表了一種新穎的通用技術,并已被證明比 LLM 和反轉生成式 vokens 更有效,并將其與 Stable Diffusion 相結合,生成交錯的視覺和語言輸出(可進行多模態生成的多模態語言模型)。
- 重點介紹了一種新的兩階段訓練策略,用于無描述多模態生成。單模態對齊階段從大量文本圖像對中獲取高質量的文本對齊視覺特征。多模態學習階段包括一項新穎的訓練任務,即 prompt 語境生成,確保視覺和文本 prompt 能夠很好地協調生成。在訓練階段加入無分類器指導,進一步提高了生成質量。
- 與其他多模態生成模型相比, MiniGPT-5 在 CC3M 數據集上取得了最先進的性能。MiniGPT-5 還在 VIST 和 MMDialog 等著名數據集上建立了新的基準。
接下來,我們一起來看看該研究的細節。
方法概覽
為了使大型語言模型具備多模態生成能力,研究者引入了一個結構化框架,將預訓練好的多模態大型語言模型和文本到圖像生成模型整合在一起。為了解決不同模型領域之間的差異,他們引入了特殊的視覺符號「生成式 voken」(generative vokens),能夠直接在原始圖像上進行訓練。此外,還推進了一種兩階段訓練方法,并結合無分類器引導策略,以進一步提高生成質量。
多模態輸入階段
多模態大模型(如 MiniGPT-4)的最新進展主要集中在多模態理解方面,能夠處理作為連續輸入的圖像。為了將其功能擴展到多模態生成,研究者引入了專為輸出視覺特征而設計的生成式 vokens。此外,他們還在大語言模型(LLM)框架內采用了參數效率高的微調技術,用于多模態輸出學習。
多模態輸出生成
為了使生成式 token 與生成模型精確對齊,研究者制定了一個用于維度匹配的緊湊型映射模塊,并納入了若干監督損失,包括文本空間損失和潛在擴散模型損失。文本空間損失有助于模型學習 token 的正確定位,而潛在擴散損失則直接將 token 與適當的視覺特征對齊。由于生成式符號的特征直接由圖像引導,因此該方法不需要全面的圖像描述,從而實現了無描述學習。
訓練策略
鑒于文本域和圖像域之間存在不可忽略的領域偏移,研究者發現直接在有限的文本和圖像交錯數據集上進行訓練可能會導致錯位和圖像質量下降。
因此,他們采用了兩種不同的訓練策略來緩解這一問題。第一種策略包括采用無分類器引導技術,在整個擴散過程中提高生成 token 的有效性;第二種策略分兩個階段展開:最初的預訓練階段側重于粗略的特征對齊,隨后的微調階段致力于復雜的特征學習。
實驗及結果
為了評估模型功效,研究者選擇了多個基準進行了一系列評估。實驗旨在解決幾個關鍵問題:
- MiniGPT-5 能否生成可信的圖像和合理的文本?
- 在單輪和多輪交錯視覺語言生成任務中,MiniGPT-5 與其他 SOTA 模型相比性能如何?
- 每個模塊的設計對整體性能有什么影響?
為了評估模型在不同訓練階段的不同基準上的性能,MiniGPT-5 的定量分析樣本如下圖 3 所示:
此處的評估橫跨視覺(圖像相關指標)和語言(文本指標)兩個領域,以展示所提模型的通用性和穩健性。
VIST Final-Step 評估
第一組實驗涉及單步評估,即根據最后一步的 prompt 模型生成相應的圖像,結果如表 1 所示。
在所有三種設置中,MiniGPT-5 的性能都優于微調后的 SD 2。值得注意的是,MiniGPT-5(LoRA)模型的 CLIP 得分在多種 prompt 類型中始終優于其他變體,尤其是在結合圖像和文本 prompt 時。另一方面,FID 分數凸顯了 MiniGPT-5(前綴)模型的競爭力,表明圖像嵌入質量(由 CLIP 分數反映)與圖像的多樣性和真實性(由 FID 分數反映)之間可能存在權衡。與直接在 VIST 上進行訓練而不包含單模態配準階段的模型(MiniGPT-5 w/o UAS)相比,雖然該模型保留了生成有意義圖像的能力,但圖像質量和一致性明顯下降。這一觀察結果凸顯了兩階段訓練策略的重要性。
VIST Multi-Step 評估
在更詳細全面的評估中,研究者系統地為模型提供了先前的歷史背景,并隨后在每個步驟中對生成的圖像和敘述進行評估。
表 2 和表 3 概述了這些實驗的結果,分別概括了圖像和語言指標的性能。實驗結果表明,MiniGPT-5 能夠在所有數據中利用 long-horizontal 多模態輸入 prompt 生成連貫、高質量的圖像,而不會影響原始模型的多模態理解能力。這凸顯了 MiniGPT-5 在不同環境中的功效。
VIST 人類評估
如表 4 所示,MiniGPT-5 在 57.18% 的情況下生成了更貼切的文本敘述,在 52.06% 的情況下提供了更出色的圖像質量,在 57.62% 的場景中生成了更連貫的多模態輸出。與采用文本到圖像 prompt 敘述而不包含虛擬語氣的兩階段基線相比,這些數據明顯展示了其更強的多模態生成能力。
MMDialog 多輪評估
結果如表 5 所示,MiniGPT-5 在生成更準確的文本回復方面優于基線模型 Divter。雖然生成的圖像質量相似,但與基準模型相比,MiniGPT-5 在 MM 相關性方面更勝一籌,表明其可以更好地學習如何適當定位圖像生成,并生成高度一致的多模態響應。
效果如何呢?我們來看一下 MiniGPT-5 的輸出結果。下圖 7 為 MiniGPT-5 與 CC3M 驗證集上的基線模型比較。
下圖 8 為 MiniGPT-5 與 VIST 驗證集上基線模型的比較。
下圖 9 為 MiniGPT-5 與 MMDialog 測試集上基線模型的比較。
更多研究細節,可參考原論文。