賈佳亞團隊新模型對標ChatGPT+DALL-E 3王炸組合!讀懂梗圖刷爆榜單,代碼復現數學函數
刷爆多模態任務榜單,超強視覺語言模型Mini-Gemini來了!
效果堪稱是開源社區版的GPT-4+DALL-E 3王炸組合。
不僅如此,這款由港中文終身教授賈佳亞團隊提出的多模態模型,一經發布便登上了PaperWithCode熱榜。
圖片
Demo地址: http://103.170.5.190:7860/
論文地址:https://arxiv.org/pdf/2403.18814.pdf
具體來說,Mini-Gemini提供了2B小杯到34B的超大杯的不同選擇。
憑借超強的圖文理解力,Mini-Gemini在多個指標上,直接媲美Gemini Pro,GPT-4V。
圖片
目前,研究團隊將Mini-Gemini的代碼、模型、數據全部開源。
更有意思的是,超會玩梗的Mini-Gemini線上Demo已經發布,人人皆可上手試玩。
Mini-Gemini Demo放出后受到廣大網友關注,一番「嘗鮮」后,有人認為:Mini-Gemini跟商業模型差不了多少!
圖片
為何這么說?
圖片理解天花板
當前,絕大多數多模態模型僅支持低分辨率圖像輸入和文字輸出。
而在實際場景中,許多任務都需要對高清圖像進行解析,并用圖像的形式進行展現。
舉個例子,Mini-Gemini能夠看懂面包九宮格圖片教程,并進行手把手教學。
圖片
拍一張蘋果店Mac電腦信息圖,Mini-Gemini能夠將兩種尺寸的Mac不同參數進行對比。
有網友看過后表示,「媽媽再也不用擔心我的生活了」。
更重要的是,Mini-Gemini在保留超強的圖像理解和推理能力的同時,還解鎖了圖像的生成能力,就如同ChatGPT和生成模型的結合。
下面,讓我們通過幾個例子來更直觀地感受這種能力:
推理再生成,更精準了
還記得谷歌Gemini的官方演示視頻么?
當用戶給出兩個毛線團并問出能用它們做什么時,Gemini可以識別出圖片內容并給出相應的建議。
圖片
當我們把相似的輸入給到Mini-Gemini,它會怎么回答呢?
圖片
可以發現,Mini-Gemini也可以識別出圖片中的元素,并且合理地建議,同時生成了一只對應的毛線小熊。
圖片
通過一些抽象的多模態指令來讓模型給出推理,并生成合適的圖片,這個操作就很像是ChatGPT和DALLE3的聯動了!
接下來讓Mini-Gemini做自己最擅長的推理和圖片理解,看看它表現。
比如,理解圖片中的矛盾點并舉一反三。
輸入冰川中的仙人掌,它會解釋其中的矛盾并生成一張熱帶雨林中北極熊的圖片:
圖片
圖片呈現了仙人掌的典型棲息地與冰的存在之間的視覺矛盾,因為在沙漠環境中自然不會出現冰。
Mini-Gemini正是理解了這種矛盾點,才生成了一張北極熊出現在熱帶雨林的圖片。
這種并置創造了一個引人注目且超現實的視覺效果,挑戰觀眾的期待,并可能引發人們對氣候變化、環境適應或不同生態系統融合的思考。
同時,正如ChatGPT+DALLE3的夢幻結合一樣,Mini-Gemini的「推理生成」功能還可以在多輪對話中通過簡單指令生成連環小故事。
比方說,讓它根據用戶輸入講一個貴族小老鼠的故事。
Mini-Gemini會根據前文的文字生成結果和用戶輸入進行推理,在保持一致性的情況下對圖片進行修改,使其更符合用戶的要求。
圖片
當然,Mini-Gemini對于多模態模型的傳統技能圖片理解也不在話下。
比方讓模型理解輸入曲線圖的數學意義(高斯分布),并讓它使用代碼復現這張圖。
通過運行生成的代碼,模型可以高質量地還原曲線圖,節省了復現的時間。
圖片
圖片
超會玩梗
又或者讓Mini-Gemini理解梗圖,通過其強大的OCR和推理能力,也可以準確指出笑點。
一張將麥當勞P成GYM表情包,外加對話圖,搞笑點在哪?
圖片
Mini-Gemini可以準確理解圖中諷刺含義,并給出了正確的解釋。
圖片
圖片
還有這張「當某媒體說AI將接管世界,實際上我的神經網絡連貓未能識別」的梗圖。
圖片
Mini-Gemini也是可以理解,是在說AI犯錯的例子,并且與公眾接受到的預期并不一樣。
圖片
圖中細節的幽默之處,它都能get得明明白白。
圖片
高清復雜的多圖表理解和歸納也是小菜一碟,Mini-Gemini直接秒變打工人效率提升的超級外掛。
圖片
圖片
英文圖表太復雜,讀起來太費腦子?它直觀地用中文整理出了內容——「比較不同籠養系統中母雞所承受的平均疼痛天數」。
圖片
技術細節
如上演示中,Mini-Gemini是怎樣做到這種驚艷的效果呢?
圖片
論文地址:https://arxiv.org/pdf/2403.18814.pdf
Github地址:https://github.com/dvlab-research/MiniGemini
模型地址:https://huggingface.co/collections/YanweiLi/mini-gemini-6603c50b9b43d044171d0854
數據地址:https://huggingface.co/collections/YanweiLi/mini-gemini-data-660463ea895a01d8f367624e
大道至簡,Mini-Gemini的整體思路并不復雜。其中的Gemini(雙子座)表達的是使用視覺雙分支的信息挖掘(Miraing-Info in Gemini)解決高清圖像理解問題。
而其中的核心在于三點:
(1)用于高清圖像的雙編碼器機制;
(2)更高質量的數據;
(3)訓練階段結合生成模型數據拓展。
詳細來說,Mini-Gemini將傳統所使用的ViT當做低分辨率的Query,而使用卷積網絡(ConvNet)將高分辨率的圖像編碼成Key和Value。
使用Transformer中常用的Attention機制,來挖掘每個低分辨率Query所對應的高分辨率區域。
從而在保持最終視覺Token數目不變的情況下去提升對高清圖像的響應,保證了在大語言模型(LLM)中對于高清圖像的高效編碼。
值得一提的是,由于高分辨率分支卷積網絡的使用,可以根據需要對圖像所需的分辨率自適應調整,能夠遇強則強。
對于圖像的生成部分,Mini-Gemini借助了SDXL,使用LLM推理后所生成的文本鏈接兩個模型,類似于DALLE3的流程。
圖片
而對于數據這個「萬金油」,Mini-Gemini進一步收集并優化了訓練數據的質量,并加入了跟生成模型結合的文本數據進行訓練。
在僅使用2-3M數據的情況下,實現了對圖像理解、推理、和生成的統一流程。
Mini-Gemini在各種Zero-shot的榜單上毫不遜色于各種大廠用大量數據訓練出來的模型,可謂是「平、靚、正」 !
媲美Gemini Pro和GPT-4V
可以看出,Mini-Gemini提供了多種普通和高清版本的模型,并且覆蓋了2B的小杯到34B的超大杯。
各個版本都取得了相似參數量下領先的效果,在許多指標上甚至超越Gemini Pro和GPT-4V。
圖片
人人在線可玩
值得一提的是,Mini-Gemini的圖像理解和生成能力已經出了Demo,可以在線跟自定義圖像對話的那種。
操作也極其簡單,直接跟輸入圖像或文字進行對話即可,歡迎來撩!
圖片
Demo地址:http://103.170.5.190:7860/
參考資料:
https://arxiv.org/pdf/2403.18814.pdf
https://github.com/dvlab-research/MiniGemini
https://huggingface.co/collections/YanweiLi/mini-gemini-6603c50b9b43d044171d0854
https://huggingface.co/collections/YanweiLi/mini-gemini-data-660463ea895a01d8f367624e