成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

九大基準全面領先,性能暴漲10.8%!視覺價值模型VisVM成「圖像描述」新寵

人工智能
視覺價值模型(VisVM)通過「推理時搜索」來提升多模態視覺語言模型的圖像描述質量,減少幻覺現象。實驗表明,VisVM能顯著提高模型的視覺理解能力,并可通過自我訓練進一步提升性能。

在現代多模態視覺語言模型(VLM)的發展中,提高圖像描述的準確性和細節豐富性始終是一個挑戰。盡管基于大規模數據的訓練極大推動了模型性能,但在實際應用中,模型仍面臨識別細微圖像區域和減少「幻覺」現象的問題。

推理時搜索(inference time search)作為一種提升響應質量的有效方法,已在大型語言模型中展現出巨大潛力。

O1和QwQ等大語言模型通過在推理階段在語言空間中進行搜索得到更好的回答,在數學和代碼等任務中展現了遠超越其他模型的卓越性能。

那么,我們能否同樣通過推理時搜索來提升多模態視覺語言模型的響應質量,并減少響應中的幻覺呢?答案是是的。

來自馬里蘭大學和微軟的研究團隊提出了視覺價值模型(Vision Value Model, VisVM),通過精確控制搜索過程來顯著提高模型在視覺任務中的表現。

圖片圖片

論文地址:https://arxiv.org/abs/2412.03704

項目頁面:https://si0wang.github.io/projects/VisVM/

項目代碼:https://github.com/si0wang/VisVM

VisVM是一種價值網絡,可以通過對逐步生成描述性標題提供獎勵信號來指導視覺語言模型(VLM)在推理時的搜索。

模型訓練

VisVM首先使用VLM自身生成多個多樣化的響應,并將這些響應按照句子維度拆分成<current sentence,next sentence>的sentence pair。

對于每一個current sentence使用CLIP model計算這句話和對應圖像的cosine similarity作為reward,最后構成< current sentence, reward,next sentence, Image>的四元組作為VisVM的訓練數據。

VisVM使用強化學習中的時序差分學習(Temporal Difference learning)作為損失函數進行訓練。這使得VisVM不僅可以評估當前句子與圖像之間的匹配程度,還可以預測當前句子如何影響未來句子的生成,為搜索提供一個長期價值信號。

VisVM引導下的推理階段搜索:

在訓練好VisVM之后,作者使用VisVM作為獎勵信號來逐步精細化推理過程。這一過程包括以下幾個步驟:

1. 生成多個句子候選:首先,模型會生成多個可能的句子,作為響應的候選。

2. 通過VisVM進行評估:接下來,利用VisVM對這些候選句子進行綜合評估,考察其與圖像內容的匹配度以及對未來生成句子的潛在影響(句子中包含的幻覺,細致程度等)。

3. 選擇最佳句子:根據VisVM的評估,從候選中挑選出最優的句子來繼續生成。

相比于直接使用只考慮當前句子與圖像匹配程度的clip分數作為獎勵信號進行搜索,VisVM可以進一步通過考慮后續生成的句子中的潛在幻覺來預測長期價值,使得VisVM能夠避開具有更高幻覺風險的響應候選,并生成不易產生幻覺且更詳細的圖像描述。

通過這種迭代的推理過程,VLM能夠構建出完整且高質量的響應序列,有效減少信息遺漏和幻覺錯誤,顯著提升模型的應用性能。

實驗

研究人員采用LLaVA-Next-Mistral-7B作為實驗的基礎模型,通過在其encoder的最后一層添加一個線性層作為value head,構建了VisVM并基于這個結構使用上文中構造的數據集與損失函數進行訓練。

在后續的實驗中,均使用LLaVA-Next-Mistral-7B作為base model用于生成響應。

研究人員首先評估了使用不同解碼方式生成的響應質量,作者從COCO2017數據集中采樣了1000個圖像,并與llava detailed description 數據集中用于圖像描述的9個prompt進行了隨機匹配作為測試集用于生成圖像藐視。

分別使用人類評估和GPT-4o評估,將VisVM引導的搜索與其他常規方法如CLIP-PRM指導搜索、Best-of-N選擇和貪婪解碼得到的圖像描述進行了比較。

結果表明VisVM在生成圖像描述時不僅細節更為豐富,產生的幻覺也大幅減少,其生成的描述性內容更加受到evaluator的青睞。

尤其是在人類作為評估者的情況下,VisVM引導搜索得到的圖像描述相比于其他三個方法分別取得了66.0%, 63.5%和74.0%的獲勝比率。

圖片圖片

例如,在描述這個場景時,VisVM引導的搜索甚至可以描述出擋風玻璃上的水滴擋住了綠色指示牌,這種細節在人類標注的時候甚至都難以察覺。展示了視覺價值模型對于細節描述的強大能力。

圖片圖片

在現有幻覺的benchmark中,研究人員在VLM的inference階段使用了非搜索方式生成響應用于評估。

在CHAIR和MMHal兩個用于測試VLM幻覺的benchmark上VisVM引導的搜索取得了顯著優于其他方法的效果,展示出減少VLM生成響應中的幻覺的強大能力

圖片圖片

并且,作者還進一步探索了了VisVM引導搜索的scaling law,結果發現無論是采用VisVM引導的搜索還是CLIP-PRM引導的搜索,隨著搜索步驟大小的增加,模型的性能都會逐步提升。這一現象證明了擴大推理時間的計算量能夠顯著增強VLM的視覺理解能力。

特別值得注意的是,隨著步驟大小的增加,VisVM引導搜索的性能提升速度更快,使得兩種方法之間的性能差距不斷擴大。VisVM在達到與CLIP-PRM相當的性能時,其計算效率幾乎是后者的兩倍。

通過擴大搜索步驟,VisVM不僅能更快地達到理想的性能,還能以更低的計算成本實現,這在提升模型處理復雜視覺任務時尤為重要。

圖片圖片

基于VisVM強大的減少幻覺的能力,作者使用使用LLaVA-NEXT-Mistral-7B作為基礎模型,并利用VisVM作為獎勵信號,搜索生成高質量的圖像描述作為監督微調(SFT)數據,對LLaVA-NEXT-Mistral-7B進行訓練。

在九個理解和幻覺基準上的測試表明,VisVM引導的自我訓練使LLAVA-next-7B的性能平均提升了10.8%,相比于其他搜索方法得到的圖像描述作為訓練數據提升顯著。

特別是在提升了視覺理解能力后,VLM的reasoning能力也有所提高,例如MMMU和MathVista兩個benchmark,該結果進一步展示了VisVM搜索得到的圖像描述質量之高。

此外,這也揭示了VisVM在自我訓練框架中的應用潛力,僅通過在語言空間中進行高質量搜索并進行微調,就能顯著提升原始VLM的視覺理解能力,這一發現為未來VLM的發展提供了新的方向和思路。

圖片圖片

圖片圖片

參考資料:https://arxiv.org/abs/2412.03704

責任編輯:武曉燕 來源: 新智元
相關推薦

2022-01-10 15:39:59

物聯網人工智能AIoT

2024-01-16 12:31:13

OpenAIGLM-4大模型

2024-09-23 08:30:00

AI模型

2010-03-26 11:01:31

災備虛擬化

2023-11-20 22:02:54

開源模型

2010-09-03 15:50:23

2012-09-24 11:17:11

2024-09-29 13:10:08

2012-11-16 13:55:04

線下渠道連鎖賣場運營商網點

2025-07-02 09:17:13

2023-12-04 13:40:09

AI訓練

2011-05-27 15:52:13

2023-01-05 09:33:37

視覺模型訓練

2023-12-25 09:23:07

模型技術

2023-04-28 15:53:55

框架模型

2024-09-19 13:40:00

2010-01-19 17:23:11

TongWeb

2024-08-19 02:10:00

服務性能優化服務架構

2010-07-02 10:17:45

UML模型圖
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 亚洲男人天堂 | 成年视频在线观看 | 人人玩人人添人人澡欧美 | 国产伦精品一区二区三区照片91 | 久久青青 | 91福利电影在线观看 | 日日日色 | 亚洲精品高清视频 | 欧美一区二区三区在线观看 | 男女羞羞视频网站 | 国产高清免费 | 精品一区二区观看 | 久久国产成人 | 狠狠av | 久久成人国产精品 | 99久久婷婷国产亚洲终合精品 | 欧美一区二区三区国产精品 | 欧美日韩精品在线一区 | 69av在线视频 | 国产精品久久国产精品99 | www.久久久| 交专区videossex农村 | 成人在线一区二区 | 日韩在线精品 | 国产原创视频 | 久久99视频这里只有精品 | 欧美9999 | 精品欧美一区二区三区久久久 | 国产高清亚洲 | 毛片视频观看 | 久久成人综合 | 麻豆国产一区二区三区四区 | 第一区在线观看免费国语入口 | 日本福利视频 | 亚洲国产精品久久久 | 精品婷婷| 日韩欧美综合在线视频 | 欧美另类视频 | 欧美日韩高清 | 亚洲国产福利视频 | 啪啪免费网站 |