成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

BLIP-2、InstructBLIP穩居前三!十二大模型,十六份榜單,全面測評「多模態大語言模型」

人工智能 新聞
在私域數據、感知能力、簡潔指令、定量統計方面比拼多模態大語言模型。

多模態大語言模型(Multimodal Large Language Model,MLLM)依賴于LLM豐富的知識儲備以及強大的推理和泛化能力來解決多模態問題,目前已經涌現出一些令人驚嘆的能力,比如看圖寫作和看圖寫代碼。

但僅根據這些樣例很難充分反映MLLM的性能,目前仍然缺乏對MLLM的全面評測。

為此,騰訊優圖實驗室聯合廈門大學在新建的評測基準MM上首次對現有12種開源MLLM模型進行了全面定量評測并公布了16個排行榜,包含感知和認知兩個總榜以及14個子榜單:

圖片

論文鏈接:https://arxiv.org/pdf/2306.13394.pdf

項目鏈接:https://github.com/BradyFU/Awesome-Multimodal-Large-Language-Models/tree/Evaluation

現有MLLM的定量評測方法主要分為三類,但都存在一定的局限導致難以全面反映其性能。

第一類方法在傳統的公開數據集上進行評測,例如圖像描述(Image Caption)和視覺問答(VQA)數據集。

但一方面這些傳統數據集可能難以反映MLLM涌現的新能力,另一方面由于大模型時代的訓練集都不再統一,因此難以保證這些評測數據集沒有被其他MLLM訓練過。

第二種方式是收集新的數據進行開放式評測,但這些數據要么未公開[1],要么數量太少(僅有50張)[2]。

第三種方式聚焦于MLLM的某個特定方面,比如物體幻覺(Object Hallucination)[3]或者對抗魯棒性[4],無法做全面評測。

目前亟需一個全面的評測基準來匹配MLLM的快速發展。研究人員認為一個通用的全面評測基準應該具有以下特點:

(1)應該覆蓋盡可能多的范圍,包括感知和認知能力。前者指的是識別物體,包括其存在性、數量、位置和顏色等。后者指的是綜合感知信息以及LLM中的知識來進行更復雜的推理。其中前者是后者的基礎。

(2)數據或者標注應該盡可能避免采用已有的公開數據集,以減少數據泄露的風險。

(3)指令應該盡可能簡潔并且符合人類的認知習慣。不同的指令設計可能會極大影響模型的輸出,但所有的模型都在統一的簡潔指令下進行評測可以保證公平性。一個好的MLLM模型應該具備泛化到這種簡潔指令上的能力,避免陷入Prompt Engineering。

(4)MLLM在該簡潔指令下的輸出應該是直觀的并且便于定量統計。MLLM開放式的回答給量化統計提出了很大挑戰。現有方法傾向于使用GPT或者人工打分,但可能面臨著不準確和主觀性的問題。

圖片

圖1. MME評測基準示例。每張圖片對應兩個問題,答案分別為Yes[Y]和No[N]。問題加上「Please answer yes or no」共同構成指令。

基于以上原因,一個新的MLLM評測基準MME被構建出來,它同時具備以上四個特點:

1. MME同時評測感知和認知能力。除了OCR外,感知能力還包括粗粒度和細粒度目標識別。前者識別物體的存在性、數量、位置和顏色。后者識別電影海報、名人、場景、地標和藝術品。認知能力包括常識推理、數值計算、文本翻譯和代碼推理。總的子任務數達到14種,如圖1所示。

2. MME中所有的指令-答案對都是人工構建的。對于少量使用到的公開數據集,僅使用其圖像而沒有依賴其原始標注。同時,研究人員也盡力通過人工拍攝和圖像生成的方式來采集數據。

3. MME的指令被設計得盡量簡潔以避免Prompt Engineering對模型輸出的影響。研究人員再次申明一個好的MLLM應該泛化到這種簡潔且使用頻繁的指令,這對所有模型都是公平的。圖1中顯示了每個子任務的指令。

4. 得益于指令設計「Please answer yes or no」,可以方便地根據模型輸出的「Yes」或「No」進行定量統計,這種方式可以同時保證準確性和客觀性。值得注意的是,研究人員也嘗試過設計選擇題的指令,但發現當前的MLLM還難以跟隨這類較為復雜的指令。

研究人員一共評測了12種先進的MLLM模型,包括BLIP-2 [5]、LLaVA [6]、MiniGPT-4 [7]、 mPLUG-Owl [2]、LLaMA-Adapter-v2 [8]、Otter [9]、Multimodal-GPT [10]、InstructBLIP [11]、 VisualGLM-6B [12], PandaGPT [13], ImageBind-LLM [14] 和 LaVIN [15]。

其中,統計指標有三種,包括Accuracy,Accuracy+和Score。其中對于每個任務,Accuracy是基于問題統計而來,Accuracy+是基于圖片統計而來(圖片對應的兩個問題都需要回答正確),Score是Accuracy和Accuracy+的和。

感知的總分為10種感知類子任務Score的總和,認知的總分是4種認知類任務Score的總和。具體詳見項目鏈接。

12種模型在14種子任務上的測試比較如圖2所示:

圖片

圖2. 12種模型在14種子任務上的比較。每種子任務的滿分為200分。

一共16個榜單,包括感知類和認知類的總榜單以及14個子任務的榜單也已發布。兩個總榜單分別如圖3和圖4所示,值得注意的是BLIP-2和InstructBLIP在這兩個榜單中都保持在前三。

圖片圖片

圖3.感知類任務總榜單

圖片

圖4.認知類任務總榜單

圖片

圖5.所有榜單

另外研究人員也總結了MLLM模型在實驗中暴露的一些通用問題,如圖6所示,希望可以為后續的模型優化提供指導。

圖片圖片

圖6. MLLM暴露的通用問題。[Y]/[N]表示真實的答案是Yes/No。[R]是MLLM生成的答案。

第一個問題是不跟隨指令。

盡管已經采用了非常簡潔的指令設計,但仍然有MLLM自由回答問題而不是跟隨指令。

如圖6中的第一行所示,指令已經申明「Please answer yes or no」,但MLLM僅給出了一個陳述性回答。如果在回答的開頭沒有出現「Yes」或者「No」,都判定該回答錯誤。一個好的MLLM,尤其是經過指令微調后,應該能夠泛化到這種簡單的指令上。

第二個問題是缺乏感知能力。

如圖6中的第二行所示,MLLM錯誤地識別了第一張圖片中香蕉的數量和第二張圖片中的數字,導致回答錯誤。研究人員也注意到感知的性能很容易受到指令變化的影響,因為同一張圖的兩個指令只相差一個單詞,但導致了完全不同的感知結果。

第三個問題是缺乏推理能力。

如圖6中的第三行所示,從紅色的文字可以看出MLLM已經知道了第一張圖片不是一個辦公場所,但仍然給出了一個錯誤的回答「Yes」。

相似地,在第二張圖片中,MLLM已經計算得到了正確的算數結果,但最終也給出了錯誤的答案。添加思維鏈Prompt,例如「Let’s think step by step」也許能帶來更好的效果。期待這方面有更深入的研究。

第四個問題跟隨指令的物體幻視。如圖6中的第四行所示,當指令中含有圖片中不存在的物體時,MLLM將會幻想該物體存在并最終給出一個「Yes」的回答。

這種總是回答「Yes」的方式導致了Accuracy接近于50%,Accuracy+接近于0。這表明抑制目標幻視的重要性,并且也需要進一步思考MLLM生成的答案的可靠性。

責任編輯:張燕妮 來源: 新智元
相關推薦

2025-03-06 08:50:44

2025-01-08 08:21:16

2019-06-17 06:08:40

云安全信息安全安全威脅

2023-08-30 13:23:00

模型訓練

2021-02-14 14:00:38

編程語言ITGo

2012-10-29 10:34:11

2018-11-06 09:48:36

機器學習算法模型

2024-05-17 16:02:00

2024-08-06 14:17:05

2021-04-16 09:00:00

框架Angular組件

2021-11-09 09:06:53

Gartner技術趨勢CIO

2024-11-22 08:22:58

2024-12-30 00:01:00

多模態大模型Python

2013-02-19 09:52:40

SDNIT采購

2024-09-25 14:53:00

2009-08-05 10:49:47

2024-07-01 21:10:30

2024-02-02 21:53:58

AI訓練

2024-12-18 18:57:58

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产精品久久久久久久久久久久 | 日韩欧美一区二区三区四区 | 人人玩人人添人人澡欧美 | 一级毛片网| 免费在线观看黄视频 | 91精品久久久久久久99 | 日韩一区二区三区在线观看 | 国产高清久久 | 欧美中文字幕一区二区 | 成人免费视频一区 | 国产a级黄色录像 | 超碰97人人人人人蜜桃 | 亚洲综合二区 | 在线观看中文字幕视频 | 天天看天天爽 | 99久久99| 亚洲最新网址 | 亚洲欧美日韩久久 | 蜜桃av一区二区三区 | 精品欧美一区二区三区久久久 | 日韩a视频 | 精品国产18久久久久久二百 | 日韩一级 | 中文字幕高清 | 黄色av观看 | 亚洲精彩视频 | 国产一区二区三区四 | 91精品国产手机 | 成人激情视频免费观看 | 国产 91 视频 | 亚洲精品国产综合区久久久久久久 | 亚洲国产精品99久久久久久久久 | 日产精品久久久一区二区福利 | 91在线看| 91精品国产高清久久久久久久久 | 久久精品一区 | 欧美福利精品 | 高清亚洲| 黄免费在线 | 日本一二三区高清 | 在线视频99 |