成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

【多模態&LLM】POINTS多模態大模型淺談

人工智能
NaViT利用序列打包訓練,處理任意分辨率和長寬比的輸入,在大規模監督和對比圖像文本預訓練中提高了訓練效率,可以用于圖像和視頻分類、目標檢測和語義分割,并在魯棒性和公平性基準測試中取得了改進的結果。

NaViT概述

NaViT利用序列打包訓練,處理任意分辨率和長寬比的輸入,在大規模監督和對比圖像文本預訓練中提高了訓練效率,可以用于圖像和視頻分類、目標檢測和語義分割,并在魯棒性和公平性基準測試中取得了改進的結果。

圖片圖片

下面對NaViT在數據處理、模型架構和訓練策略方面的優化總結:

  1. 數據預處理:如上圖展示了NaViT在處理任意分辨率的方法,將不同分辨率的圖像分割成補丁(patches),然后應用令牌丟棄(token drop)操作,類似于dropout,以加速訓練過程。預處理后,將三張圖像生成的補丁展平為一個序列,不足的部分用填充(padding)補充。
  2. 模型架構:引入掩碼自注意力(Masked self attention)和掩碼池化(masked pooling),以防止示例之間的信息交換(防止圖片之間存在信息交換),并為每個示例提供單一的向量表示。采用因子化和分數位置嵌入(Factorized & fractional positional embeddings),以支持任意分辨率和寬高比,并便于推斷到未見過的分辨率。
  3. 訓練策略:

a.實施連續令牌丟棄(Continuous Token dropping),允許根據每張圖像調整丟棄率,從而在保持一定完整圖像的同時提高吞吐量,減少訓練和推理之間的差異。

b.采用分辨率采樣(Resolution sampling),通過在訓練過程中從圖像大小分布中采樣,實現混合分辨率訓練,同時保留每個圖像的原始寬高比。這種方法可以在提高吞吐量的同時,增加對大圖像的曝光,從而在與同等規模的ViT相比時顯著提高性能。

通過上述優化,NaViT在處理任意分辨率和寬高比的圖像方面表現出色,同時在訓練效率和性能上優于傳統的ViT模型

POINTS

POINTS架構POINTS架構

POINTS1.5采用了傳統的LLaVA(【多模態&LLM】LLaVA系列算法架構演進:LLaVA(1.0->1.5->Next(1.6)->NeXT(Video))風格架構,該架構包括視覺編碼器、MLP投影層和LLM。這種架構通過持續的后期訓練來增強LLM解釋視覺信息的能力。

視覺編碼器

改進點:

  • NaViT風格視覺編碼器: POINTS1.5用NaViT風格的視覺編碼器替換了POINTS1.0中的CLIP視覺編碼器。NaViT能夠原生處理任意分辨率的圖像,而無需分割圖像
  • 動態高分辨率支持: NaViT允許模型在不降低性能的情況下處理任意大小的圖像,避免了傳統方法中分割圖像導致的空間關系破壞問題。
批量前向傳播與NaViT

由于NaViT處理的是序列長度不同的圖像,批量前向傳播需要特殊處理。采用了一種類似于LLM的策略,將多個圖像序列打包成一個長序列,并記錄每個圖像序列的起始和結束索引,以確保自注意力機制僅在當前圖像序列的邊界內應用。

MLP投影層

投影層與LLaVA和NVLM-D一致,都是由一個帶有GELU激活函數的兩層MLP組成,用于將視覺編碼器的輸出轉換為LLM可以處理的嵌入表示。

LLM

POINTS1.5使用Qwen2.5-7B-Instruct作為其LLM。

預訓練數據格式:

圖片圖片

預訓練期間的聊天模板,左圖為POINTS1.0,右圖為POINTS1.5

訓練方法

圖片圖片

三階段的訓練方法如下:

第一階段(對齊階段):使用大量數據訓練模態tokenizer和detokenizer。例如,視覺編碼器和解碼器。這個階段的目的是確保tokenizer能夠唯一且準確地編碼任何模態信號到一個壓縮的特征空間,同時detokenizer能夠將這些壓縮特征恢復為原始的模態信號。

第二階段:預熱模態嵌入層,將任何模態信號轉換成LLM的文本空間。在這個階段,數據集的大小不一定需要很大,因為在實驗和之前的工作中發現,較小的數據集也可以達到良好的效果。

第三階段:使用高質量的指令調整數據集來訓練模態嵌入層和LLM,同時保持tokenizer和detokenizer不變。這個階段的目的是賦予LLM理解不同模態的能力。

通過這三個階段的訓練,可以有效地擴展LLM以支持額外的模態。

實驗

圖片圖片

OpenCompass benchmarks圖片

  • 發票信息抽取

圖片圖片

  • OCR

圖片圖片

  • 公式識別

圖片圖片

  • etc...

參考文獻

  • Patch n' Pack: NaViT, a Vision Transformer for any Aspect Ratio and Resolution,https://arxiv.org/abs/2307.06304
  • POINTS1.5: Building a Vision-Language Model towards Real World Applications,https://arxiv.org/pdf/2412.08443
  • https://github.com/WePOINTS/WePOINTS


責任編輯:武曉燕 來源: 大模型自然語言處理
相關推薦

2024-12-18 18:57:58

2024-09-25 14:53:00

2024-11-13 09:39:13

2024-12-30 00:01:00

多模態大模型Python

2025-05-21 08:47:00

2025-03-19 09:30:00

2025-05-06 08:40:00

2024-01-11 16:24:12

人工智能RAG

2023-12-25 09:07:50

AI人工智能Ferret

2024-11-12 10:20:00

模型數據

2024-05-17 16:02:00

2024-11-11 15:11:23

2025-04-07 00:00:00

多模態大模型

2024-12-12 00:25:09

2023-05-15 12:14:02

ChatGPT語音模型

2024-05-21 07:54:30

視頻多模態語義檢索算法

2024-05-10 06:59:06

2024-03-25 12:40:19

訓練模型
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: a免费视频| 五月香婷婷 | 青青久久 | 成人国产精品入口免费视频 | 国产欧美一区二区三区日本久久久 | 久久精品免费一区二区三 | 欧美9999 | 国产免费av在线 | 一区二区在线不卡 | 一级片片 | 99精品久久久 | 男女羞羞的网站 | 精品免费国产视频 | 国产又爽又黄的视频 | 日韩精品视频在线 | 久久一| 精品久久香蕉国产线看观看亚洲 | 日韩欧美一区二区三区免费观看 | 9久久婷婷国产综合精品性色 | 亚洲成人精品一区二区 | 古典武侠第一页久久777 | 亚洲精彩视频在线观看 | 亚洲一区中文字幕在线观看 | 一区二区三区国产视频 | 午夜不卡一区二区 | 国产精品成人久久久久 | 欧美激情黄色 | 在线播放精品视频 | 91观看 | 日本a在线| 国产成人精品在线播放 | 一区二区三区视频 | 99精品在线观看 | 午夜在线小视频 | 国产丝袜一区二区三区免费视频 | 男人阁久久 | 亚洲国产日韩一区 | 香蕉视频久久久 | 中文字幕视频一区 | 亚洲精品日韩综合观看成人91 | 亚洲一区中文字幕 |