成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

訓練130億大模型僅3天,北大提出Chat-UniVi統(tǒng)一圖片和視頻理解

人工智能 新聞
北京大學和中山大學等機構研究者提出了統(tǒng)一的視覺語言大模型 ——Chat-UniVi。通過構建圖片和視頻統(tǒng)一表征,該框架使得一個 LLM 能夠在圖片和視頻的混合數據下訓練,并同時完成圖片和視頻理解任務。更重要的是,該框架極大降低了視覺語言模型訓練和推理的開銷,使得在三天以內即可訓練出具有 130 億參數的通用視覺語言大模型。Chat-UniVi 模型在圖片和視頻的下游任務中都取得了卓越的性能。所有代

圖片


  • 論文地址:https://arxiv.org/pdf/2311.08046.pdf
  • GitHub 地址:https://github.com/PKU-YuanGroup/Chat-UniVi
  • Huggingface 地址:https://huggingface.co/Chat-UniVi
  • Demo 地址:https://huggingface.co/spaces/Chat-UniVi/Chat-UniVi

圖 1 Chat-UniVi 在圖片、視頻上的 17 個基準上達到先進的性能

具體來說,北京大學和中山大學的研究人員提出了一種名為 Chat-UniVi 的統(tǒng)一的視覺語言方案,其能通過統(tǒng)一的視覺表征同時處理圖片任務和視頻任務。作為一個統(tǒng)一的視覺理解模型,Chat-UniVi 以更少的視覺 token 數量,超過了專門針對圖片設計的多模態(tài)大模型和專門針對視頻設計的多模態(tài)大模型。更值得注意的是,所提出的統(tǒng)一的視覺表征極大減少了輸入視覺 token 的數量,大大降低了模型的訓練和推理成本,使得訓練一個具有 130 億參數的通用視覺語言大模型只需要三天。

圖片

在介紹本文方法之前,我們先看一下 Demo 展示:

方法介紹

現有的多模態(tài)語言模型通常只專注于圖片或視頻輸入。其中,專注于圖片理解的方法通常使用大量的視覺 token 來獲得更精細的空間分辨率。而專注于視頻理解的方法往往會犧牲每幀的空間分辨率,以輸入更多幀構建更精細的時間理解能力。

對此,研究人員提出使用一組動態(tài)視覺 token 統(tǒng)一表示圖片和視頻。如圖 2 所示,圖片可以通過不同大小的視覺 token 來建模。例如,主要對象 (即圖 2 中的羊) 需要使用更多視覺 token 進行細粒度表示,而背景 (即雪山) 只需使用一個視覺 token 即可充分建模。對于視頻來說,視頻首先會被分成多個關鍵事件,隨后視覺 token 會在事件內部進行拓展。這種圖片和視頻的統(tǒng)一表示大大減少了視覺 token 的數量,同時保持了模型的表達能力。值得注意的是,在該方法中,較長的視頻被分配了更多的視覺 token。因此,比現有的方法更適合于具有可變長度視頻的理解。

圖 2 Chat-UniVi 提出的統(tǒng)一視覺表征

為了獲得這些動態(tài)的視覺 token,研究人員基于最近鄰的密度峰聚類算法,逐步對視覺 token 進行分組和合并。當涉及視頻時,同樣應用最近鄰的密度峰聚類算法來獲取事件的幀集合。為了進一步提升模型的性能,研究人員為 LLM 提供了一個多尺度表征,其中多尺度表征的上層特征表示高級語義概念,而下層特征強調視覺細節(jié)表示。

圖片

圖 3 Chat-UniVi 整體框架圖

Chat-UniVi 框架具有兩個引人注目的優(yōu)點:首先,其統(tǒng)一的圖片和視頻建模方法允許在圖片和視頻混合數據集上進行訓練,而無需任何修改即可直接應用于圖片和視頻任務。其次,多尺度表征有助于對圖片和視頻的全面理解,使 Chat-UniVi 能夠適應各種任務,包括使用高層次特征進行語義理解,使用低層次特征生成詳細描述。

Chat-UniVi 的訓練分為兩個階段:

(1)多模態(tài)預訓練。在第一階段,研究人員凍結 LLM 和視覺編碼器的同時只訓練投影矩陣。這種訓練策略使模型能夠有效地捕獲視覺信息,而不會對 LLM 的性能造成任何明顯的損害。

(2)聯(lián)合指令微調。在第二階段,研究人員在一個包含圖片和視頻的混合數據集上對整個模型進行了全參數微調。通過在混合數據集上的聯(lián)合訓練,Chat-UniVi 實現了對大量指令的卓越理解,并產生了更自然、更可靠的輸出。

實驗

圖片理解實驗。Chat-UniVi 使用更少的視覺 token,同時實現卓越的性能。值得注意的是,Chat-UniVi 模型在 7B 參數下,也能達到 LLaVA 模型 13B 參數下的性能水平,證明了該方法的有效性。

圖片

視頻理解實驗。Chat-UniVi 作為一個統(tǒng)一的視覺語言模型,超過了專門針對視頻設計的方法,例如 VideoChat 和 Video-ChatGPT。

圖片

圖片問答實驗。Chat-UniVi 在 ScienceQA 數據集上獲得了有競爭力的性能。值得注意的是,Chat-UniVi 優(yōu)于專門針對科學問答進行優(yōu)化的 LLaMA-SciTune 模型,充分體現了該方法的優(yōu)越性。

圖片

視頻問答實驗。在所有數據集上,Chat-UniVi 都優(yōu)于最先進的方法,例如 VideoChat 和 Video-ChatGPT。

幻覺實驗。在幻覺評估上,Chat-UniVi 優(yōu)于最近提出的最先進的方法。此外,研究人員發(fā)現多尺度表征提高了抵抗幻覺的能力。值得注意的是,作為 7B 模型,Chat-UniVi 甚至優(yōu)于 13B 模型,如 MiniGPT4。研究人員將這一成功歸功于多尺度表征,多尺度表征使模型能夠同時感知高級語義概念和低級視覺外觀。

圖片

人工評測實驗。同時,研究人員也進行了人工評估實驗。研究人員發(fā)現基于 Flamingo 的方法在理解視頻的能力上存在局限性。這種限制歸因于它們使用 Q-Former 從不同長度的視頻中提取固定數量的視覺 token,這阻礙了它們在建模時間理解方面的有效性。相比之下,Chat-UniVi 作為一個統(tǒng)一的模型,不僅優(yōu)于基于 Flamingo 構建的方法,而且超過了專門為圖片和視頻設計的模型。

圖片

可視化。Chat-UniVi 所使用的動態(tài)視覺 token 有效地概括了對象和背景。這使 Chat-UniVi 能夠使用有限數量視覺 token 的同時構建圖片理解所需的細粒度的空間分辨率和視頻理解所需的細粒度時間分辨率。

圖片

圖片

圖片

責任編輯:張燕妮 來源: 機器之心
相關推薦

2024-09-12 12:46:36

2023-12-09 15:21:47

模型分子

2024-12-10 09:40:00

AI3D模型

2023-11-07 11:50:14

AI訓練

2023-08-30 14:14:00

AI模型

2024-08-07 14:40:00

AI數據

2024-09-30 09:35:55

圖像生成AI

2020-01-07 14:14:57

AI 數據人工智能

2021-01-25 13:45:14

模型人工智能深度學習

2024-04-01 08:40:00

AI框架

2022-11-01 14:50:00

數據計算

2024-09-02 14:30:00

數據訓練

2022-10-26 13:44:12

訓練模型

2023-11-20 22:02:54

開源模型

2023-06-09 12:56:17

AlpacaWizardLMVicuna

2024-11-22 13:30:00

2024-08-07 13:00:00

2023-08-15 08:36:20

ChatGPT模型
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: www在线视频| 日韩欧美在线一区 | 在线免费av电影 | 欧美一级在线免费 | 欧美精品一区二区蜜桃 | 蜜臀网| 毛片视频免费 | 欧美专区在线 | 国产精品一区在线 | 在线观看免费av网 | aaa大片免费观看 | 免费日韩av| 黑人精品欧美一区二区蜜桃 | 天天拍天天操 | 欧美日韩一区二区三区四区 | 在线日韩中文字幕 | 日韩免费看片 | 久久精片 | 美女福利视频 | 午夜在线影院 | 久久久一 | 99久久99久久精品国产片果冰 | 亚洲福利一区二区 | 手机在线不卡av | 国产精品成人一区二区三区 | 久久综合久色欧美综合狠狠 | 国产精品久久久久久久久久 | 在线观看中文字幕视频 | jlzzjlzz国产精品久久 | 狠狠伊人| 国外激情av | 国产一级视频在线播放 | 亚洲一区二区在线播放 | 日韩第一页 | 亚欧洲精品在线视频免费观看 | 一级久久久久久 | 午夜在线免费观看视频 | 国产欧美一区二区三区日本久久久 | 99热这里都是精品 | 福利一区二区 | 午夜视频免费在线观看 |