專用于理解游戲場景的開源大模型-VideoGameBunny
大模型在游戲開發(fā)領(lǐng)域扮演了重要角色,從AI機器人生成到場景搭建覆蓋各個領(lǐng)域。但在游戲場景理解、圖像識別、內(nèi)容描述方面很差。
為了解決這些難題,加拿大阿爾伯塔的研究人員專門開源了一款針對游戲領(lǐng)域的大模型VideoGameBunny(以下簡稱“VGB”)。
VGB可以作為視覺AI助理,能夠理解游戲環(huán)境并提供實時反饋。例如,在探索型的3A游戲中,可以幫助玩家識別關(guān)鍵物品或進行問答,幫助玩家能夠更快地掌握游戲技巧,從而增強游戲的互動性和沉浸感。
VGB也可以通過分析大量的游戲圖像數(shù)據(jù),夠檢測到圖形渲染的錯誤、物理引擎的不一致性等,幫助開發(fā)人員快速識別和修復(fù)游戲中的bug和異常。
開源地址:https://huggingface.co/VideoGameBunny/VideoGameBunny-V1/tree/main
VGB是基于Bunny模型(高性能低消耗版本)基礎(chǔ)之上開發(fā)而成,這個模型的設(shè)計方法類似于LLaVA,采用多層感知器網(wǎng)絡(luò)作為投影層,將來自強預(yù)訓(xùn)練視覺模型的視覺嵌入轉(zhuǎn)化為圖像標記,供語言模型處理,可有效利用了預(yù)訓(xùn)練的視覺和語言模型使它們能夠高效地協(xié)同處理數(shù)據(jù)。
Bunny模型支持最高1152×1152像素的圖像分辨率,這在處理視頻游戲圖像時非常重要,因為游戲畫面通常包含從UI圖標到大型物體等不同尺寸的視覺元素。多尺度特征的提取有助于模型捕捉這些元素,從而提高對游戲內(nèi)容的理解能力。
為了使VGB能夠更好地理解和處理游戲的視覺內(nèi)容,研究人員使用了Meta開源的LLama-3-8B作為語言模型,并結(jié)合了SigLIP視覺編碼器以及S2包裝器。這種多尺度特征提取方法能夠捕捉游戲中不同尺度的視覺元素,從微小的用戶界面圖標到大型游戲?qū)ο螅瑥亩鵀槟P吞峁┝素S富的上下文信息。
此外,為了生成和游戲圖像相匹配的指令數(shù)據(jù),研究人員使用了多種先進的模型,包括Gemini-1.0-Pro-Vision、GPT-4V、GPT-4o等,以生成不同類型的指令。這些指令包括簡短的標題、詳細的標題、圖像到JSON的描述以及基于圖像的問答等,可以幫助模型更好地理解和響應(yīng)玩家的查詢和命令。
在模型訓(xùn)練方面,VGB使用了比較流行的LoRA參數(shù)高效微調(diào)方法,允許模型在保持預(yù)訓(xùn)練權(quán)重的同時,對特定任務(wù)進行微調(diào),從而在不顯著增加計算成本的情況下提高模型的性能。此外,研究團隊還使用了PEFT庫來指導(dǎo)模型的訓(xùn)練過程,進一步提升了訓(xùn)練的高效性和穩(wěn)定性。
訓(xùn)練數(shù)據(jù)方面,研究人員收集了來自413款不同游戲的超過185,000多張圖像以及將近39萬個圖像-指令對,涵蓋了圖像說明、問答對以及136,974張圖像的JSON表示。
JSON格式的數(shù)據(jù)包含了16個元素,能夠捕捉圖像的多層次細節(jié)信息,包括整體概述、具體的人物描述、天氣信息、用戶界面和玩家?guī)齑娴恼鼍爸械奈矬w、照明和環(huán)境效果等。
為了創(chuàng)建圖像到JSON的數(shù)據(jù)集,研究團隊使用Gemini-1.5-Pro結(jié)合特定的指示,將給定的圖像轉(zhuǎn)換成一個具有層次結(jié)構(gòu)細節(jié)和信息的JSON文件。
研究人員認為,全球游戲市場總額超過3000億美元,在游戲開發(fā)、性能測試、提升游戲體驗等方面對大模型有著巨大需求,VGB是可以輔助開發(fā)人員以及玩家達到這些目的。
本文轉(zhuǎn)自 AIGC開放社區(qū),作者:AIGC開放社區(qū)
