成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

多模態(tài)大模型最全綜述來了!7位微軟研究員大力合作,5大主題,成文119頁

人工智能 新聞
只要你想學習多模態(tài)基礎模型的基礎知識和最新進展,不管你是專業(yè)研究員,還是在校學生,它都是你的“菜”。

多模態(tài)大模型最全綜述來了!

微軟7位華人研究員撰寫,足足119頁——

圖片

它從目前已經(jīng)完善的還處于最前沿的兩類多模態(tài)大模型研究方向出發(fā),全面總結了五個具體研究主題:

  • 視覺理解
  • 視覺生成
  • 統(tǒng)一視覺模型
  • LLM加持的多模態(tài)大模型
  • 多模態(tài)agent

圖片

并重點關注到一個現(xiàn)象:

多模態(tài)基礎模型已經(jīng)從專用走向通用

Ps. 這也是為什么論文開頭作者就直接畫了一個哆啦A夢的形象。

誰適合閱讀這份綜述(報告)

用微軟的原話來說:

只要你想學習多模態(tài)基礎模型的基礎知識和最新進展,不管你是專業(yè)研究員,還是在校學生,它都是你的“菜”。

一起來看看~

一文摸清多模態(tài)大模型現(xiàn)狀

這五個具體主題中的前2個為目前已經(jīng)成熟的領域,后3個則還屬于前沿領域。

1、視覺理解

這部分的核心問題是如何預訓練一個強大的圖像理解backbone。

如下圖所示,根據(jù)用于訓練模型的監(jiān)督信號的不同,我們可以將方法分為三類:
標簽監(jiān)督、語言監(jiān)督(以CLIP為代表)和只有圖像的自監(jiān)督。

其中最后一個表示監(jiān)督信號是從圖像本身中挖掘出來的,流行的方法包括對比學習、非對比學習和masked image建模。

在這些方法之外,文章也進一步討論了多模態(tài)融合、區(qū)域級和像素級圖像理解等類別的預訓練方法。

圖片

還列出了以上這些方法各自的代表作品。

圖片

2、視覺生成

這個主題是AIGC的核心,不限于圖像生成,還包括視頻、3D點云圖等等。

并且它的用處不止于藝術、設計等領域——還非常有助于合成訓練數(shù)據(jù),直接幫助我們實現(xiàn)多模態(tài)內(nèi)容理解和生成的閉環(huán)。

在這部分,作者重點討論了生成與人類意圖嚴格一致的效果的重要性和方法(重點是圖像生成)

具體則從空間可控生成、基于文本再編輯、更好地遵循文本提示和生成概念定制(concept customization)四個方面展開。

圖片

在本節(jié)最后,作者還分享了他們對當前研究趨勢和短期未來研究方向的看法。

即,開發(fā)一個通用的文生圖模型,它可以更好地遵循人類的意圖,并使上述四個方向都能應用得更加靈活并可替代。

同樣列出了四個方向的各自代表作:

圖片

3、統(tǒng)一視覺模型

這部分討論了構建統(tǒng)一視覺模型的挑戰(zhàn): 

一是輸入類型不同;

二是不同的任務需要不同的粒度,輸出也要求不同的格式;

三是在建模之外,數(shù)據(jù)也有挑戰(zhàn)。

比如不同類型的標簽注釋成本差異很大,收集成本比文本數(shù)據(jù)高得多,這導致視覺數(shù)據(jù)的規(guī)模通常比文本語料庫小得多。

不過,盡管挑戰(zhàn)多多,作者指出:

CV領域?qū)τ陂_發(fā)通用、統(tǒng)一的視覺系統(tǒng)的興趣是越來越高漲,還衍生出來三類趨勢:

圖片

一是從閉集(closed-set)到開集(open-set),它可以更好地將文本和視覺匹配起來。

二是從特定任務到通用能力,這個轉(zhuǎn)變最重要的原因還是因為為每一項新任務都開發(fā)一個新模型的成本實在太高了;

三是從靜態(tài)模型到可提示模型,LLM可以采用不同的語言和上下文提示作為輸入,并在不進行微調(diào)的情況下產(chǎn)生用戶想要的輸出。我們要打造的通用視覺模型應該具有相同的上下文學習能力。

4、LLM加持的多模態(tài)大模型

本節(jié)全面探討多模態(tài)大模型。

先是深入研究背景和代表實例,并討論OpenAI的多模態(tài)研究進展,確定該領域現(xiàn)有的研究空白。

接下來作者詳細考察了大語言模型中指令微調(diào)的重要性。

再接著,作者探討了多模態(tài)大模型中的指令微調(diào)工作,包括原理、意義和應用。

最后,涉及多模態(tài)模型領域中的一些高階主題,方便我們進行更深入的了解,包括:

更多超越視覺和語言的模態(tài)、多模態(tài)的上下文學習、參數(shù)高效訓練以及Benchmark等內(nèi)容。

5、多模態(tài)agent

所謂多模態(tài)agent,就是一種將不同的多模態(tài)專家與LLM聯(lián)系起來解決復雜多模態(tài)理解問題的辦法。

這部分,作者主要先帶大家回顧了這種模式的轉(zhuǎn)變,總結該方法與傳統(tǒng)方法的根本差異。

然后以MM-REACT為代表帶大家看了這種方法的具體運作方式。

接著全面總結了如何構建多模態(tài)agent,它在多模態(tài)理解方面的新興能力,以及如何輕松擴展到包含最新、最強的LLM和潛在的數(shù)百萬種工具中。

當然,最后也是一些高階主題討論,包括如何改進/評估多多模態(tài)agent,由它建成的各種應用程序等。

圖片

作者介紹

本報告一共7位作者。

發(fā)起人和整體負責人為Chunyuan Li。

他是微軟雷德蒙德首席研究員,博士畢業(yè)于杜克大學,最近研究興趣為CV和NLP中的大規(guī)模預訓練。

他負責了開頭介紹和結尾總結以及“利用LLM訓練的多模態(tài)大模型”這章的撰寫。

圖片

核心作者一共4位:

  • Zhe Gan

目前已進入Apple AI/ML工作,負責大規(guī)模視覺和多模態(tài)基礎模型研究。此前是Microsoft Azure AI的首席研究員,北大本碩畢業(yè),杜克大學博士畢業(yè)。

  • Zhengyuan Yang

微軟高級研究員,羅切斯特大學博士畢業(yè),獲得了ACM SIGMM杰出博士獎等榮譽,本科就讀于中科大。

  • Jianwei Yang

微軟雷德蒙德研究院深度學習小組首席研究員。佐治亞理工學院博士畢業(yè)。

  • Linjie Li(女)

Microsoft Cloud & AI計算機視覺組研究員,普渡大學碩士畢業(yè)。

他們分別負責了剩下四個主題章節(jié)的撰寫。

綜述地址:https://arxiv.org/abs/2309.10020

責任編輯:張燕妮 來源: 量子位
相關推薦

2023-11-22 11:29:28

2025-01-08 08:21:16

2024-03-25 12:40:19

訓練模型

2024-09-02 09:12:00

場景管理

2024-07-01 10:19:22

2024-12-30 00:01:00

多模態(tài)大模型Python

2025-01-09 12:32:57

2023-11-05 10:04:47

2024-09-25 14:53:00

2024-11-13 09:39:13

2024-12-18 18:57:58

2024-04-02 09:17:50

AI數(shù)據(jù)開源

2022-02-07 15:05:07

模型AI訓練

2025-06-10 09:04:00

2025-04-22 09:22:00

模型檢測AI

2024-11-11 15:11:23

2020-09-21 14:25:26

Google 開源技術

2024-11-12 10:20:00

模型數(shù)據(jù)

2024-05-17 16:02:00

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 日韩电影免费在线观看中文字幕 | 91精品久久久久久久久久入口 | 欧美日韩不卡 | 香蕉视频91 | 亚洲 欧美 日韩在线 | 亚洲成年在线 | 亚洲免费一区 | 毛片a区| 99热国产免费 | 亚洲国产成人精品女人久久久野战 | 精品国产99 | 国产精品区一区二区三 | 午夜激情小视频 | 亚洲精品一区在线观看 | 超级碰在线| 欧美一区二区在线播放 | 天天爽夜夜爽精品视频婷婷 | 国产精品一区二区免费 | 国产精品一区在线观看 | 欧美日高清 | 欧美成人h版在线观看 | 美女国内精品自产拍在线播放 | 成人精品在线视频 | 日本在线看 | 91国内精品| 欧美福利在线 | 91精品国产91久久综合桃花 | 欧美久久久久久久久中文字幕 | 国产美女黄色 | 最新日韩欧美 | 日韩一区二区福利视频 | av网址在线 | 国产成人精品视频在线观看 | 亚洲一区二区在线视频 | 91视频a| 成人网在线看 | 伊人久久大香线 | 国产精品毛片一区二区三区 | 欧美群妇大交群中文字幕 | 亚洲福利精品 | 久热电影 |