成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

GitHub一周2000星!國產統一圖像生成模型神器升級,理解質量雙up,還學會了“反思”

人工智能 新聞
一模支持文生圖、圖像編輯、主題驅動圖像生成的OmniGen,2.0新版本正式發布。

國產開源統一圖像生成模型,技術重大升級!

新進展來自智源研究院:

一模支持文生圖、圖像編輯、主題驅動圖像生成的OmniGen,2.0新版本正式發布。

具體來說,OmniGen2在保持簡潔架構的基礎上,顯著增強了上下文理解能力、指令遵循能力和圖像生成質量

同時,OmniGen2全面繼承了其基座多模態大模型在上下文理解與生成方面的能力,同步支持圖像和文字生成,進一步打通了多模態技術生態

模型上線即引發開源社區廣泛討論,發布一周GitHub星標突破2000,X上相關話題瀏覽量數十萬

圖片

現在科研體驗版已開放,可搶先嘗試圖像編輯、上下文參照的圖像生成等特色能力(鏈接見文末)。

官方還承諾,OmniGen2模型權重、訓練代碼及訓練數據將全面開源,為社區開發者提供優化與擴展的基礎。

多種玩法,提示詞就能解鎖

OmniGen2的玩法簡單,只需要輸入提示詞,就能解鎖豐富的圖像編輯與生成能力。

1. 基于自然語言指令的圖像編輯

OmniGen2支持基于自然語言指令的圖片編輯功能,可實現局部修改操作,包括物體增刪、顏色調整、人物表情修改、背景替換等。

圖片

2. 多模態上下文參考的圖像生成

OmniGen2可從輸入圖像中提取指定元素,并基于這些元素生成新圖像。例如,將物品/人物置于新的場景中。當前OmniGen2更擅長保持物體相似度而不是人臉相似度。

圖片

3. 文生圖

OmniGen2能夠生成任意比例的圖片。

圖片

從創新架構到圖像生成反思機制

再來看看具體技術細節。

分離式架構+雙編碼器策略

OmniGen2采取了分離式架構解耦文本和圖像,同時采用了ViT和VAE的雙編碼器策略。

不同于其他工作,ViT和VAE獨立作用于MLLM和Diffusion Transformer中,提高圖像一致性的同時保證原有的文字生成能力。

圖片

數據生成流程重構

OmniGen2也在探索解決阻礙領域發展的基礎數據和評估方面的難題。

相關的開源數據集大多存在固有的質量缺陷,尤其是在圖像編輯任務中,圖像質量和質量準確度都不高。而對于圖片上下文參考生成任務,社區中缺乏相應的大規模多樣化的訓練數據。這些缺陷極大地導致了開源模型和商業模型之間顯著的性能差距。

為了解決這個問題,OmniGen2開發了一個從視頻數據和圖像數據中生成圖像編輯和上下文參考數據的構造流程。

圖片

圖像生成反思機制

受到大型語言模型自我反思能力的啟發,OmniGen2還探索了將反思能力整合到多模態生成模型中的策略。

基于OmniGen2的基礎模型構建了面對圖像生成的反思數據

反思數據由文本和圖像的交錯序列組成,首先是一個用戶指令,接著是多模態模型生成的圖像,然后是針對之前生成輸出的逐步反思。

每條反思都涉及兩個關鍵方面:

  1. 對與原始指令相關的缺陷或未滿足要求的分析;
  2. 為解決前一幅圖像的局限性而提出的解決方案。

圖片

經過訓練的模型具備初步的反思能力,未來目標是進一步使用強化學習進行訓練。

圖片

新基準

OmniGen2在已有基準上取得了頗具競爭力的結果,包括文生圖,圖像編輯。

圖片

然而,對于圖片上下文參考生成(in-context generation)任務,目前還缺乏完善的公共基準來系統地評估和比較不同模型的關鍵能力。

現有的上下文圖像生成基準在捕獲實際應用場景方面存在不足。它們不考慮具有多個輸入圖像的場景,并且受到上下文類型和任務類型的限制。同時,先前的基準使用CLIP-I和DINO指標來評估上下文生成的圖像的質量。這些指標依賴于輸入和輸出之間的圖像級相似性,這使得它們不適用于涉及多個主題的場景,并且缺乏可解釋性。

為了解決這一限制,團隊引入了OmniContext基準,其中包括8個任務類別,專門用于評估個人、物體和場景的一致性

數據的構建采用多模態大語言模型初篩和人類專家手工標注相結合的混合方法。

圖片

作為首個在該基準上接受評估的模型,OmniGen2取得了7.18的總體得分,超越了BAGEL等其他領先的開源模型,證明其能較好地平衡提示詞遵循能力和主體一致性,在多種任務場景下都能穩定發揮 。

此外,OmniGen2依托智源研究院自研的大模型訓練推理并行框架FlagScale,開展推理部署優化工作。通過深度重構模型推理鏈路,并融合TeaCache緩存加速策略,實現32%的推理效率提升,大幅縮短響應時間并強化服務效能。

同時,框架支持一鍵式跨機多實例彈性部署,有效提升集群資源整體利用率。團隊將持續推進軟硬協同優化,構建高效推理部署能力體系。

OmniGen2的模型權重、訓練代碼及訓練數據將全面開源,為開發者提供優化與擴展的新基礎,推動統一圖像生成模型從構想加速邁向現實。

OmniGen2相關鏈接

Github: https://github.com/VectorSpaceLab/OmniGen2/

論文:https://arxiv.org/abs/2506.18871

模型:https://huggingface.co/BAAI/OmniGen2

科研體驗版鏈接:https://genai.baai.ac.cn

責任編輯:張燕妮 來源: 量子位
相關推薦

2023-09-19 08:03:50

rebase?merge

2024-02-19 07:52:40

CSSJS屬性

2015-04-13 00:24:17

2024-09-26 09:10:08

2011-07-01 10:16:50

Firefox 4Firefox 5

2024-10-30 14:10:00

圖像生成模型

2024-02-02 09:00:14

內存泄漏對象

2015-11-09 10:24:46

2024-12-20 13:50:00

訓練模型AI

2015-11-06 16:54:56

歪評寒冬程序員

2017-03-09 15:12:50

2020-02-16 11:13:39

遠程辦公工具技術

2024-11-22 13:30:00

2022-10-20 07:39:26

2017-11-21 09:01:58

Github自然語言Python

2021-07-01 19:22:33

腳本Shell參數

2024-06-18 08:22:51

ActivityUI線程

2024-10-16 10:41:36

2024-12-23 07:15:00

多模態大模型MLLM人工智能

2024-03-01 08:13:45

Shell編程解釋器
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 亚洲精品成人免费 | 久久97精品| 亚洲精品www. | 亚洲精品国产电影 | 国产特黄一级 | 国产精品污www一区二区三区 | 三区在线观看 | 日韩中文字幕免费在线 | 欧美一区二区在线 | 中文字幕高清一区 | 国产精品一区二区福利视频 | 特级黄一级播放 | 一区在线视频 | 美国av片在线观看 | 国产精品日韩一区 | 欧美精品网 | 日日噜噜噜夜夜爽爽狠狠视频, | 日本超碰在线 | 一级片网址 | 日韩免费电影 | 成人精品免费 | 欧美日韩国产一区二区三区 | 亚洲综合在线一区 | 成人做爰www免费看视频网站 | 免费国产一区 | 国产欧美视频一区二区 | 亚洲国产日韩一区 | 欧美黄色一区 | 国产精品美女一区二区 | 玖玖国产精品视频 | 在线观看国产精品视频 | 日韩在线国产 | 亚洲天堂精品久久 | 亚洲在线观看视频 | 伊人网伊人网 | 成人性视频免费网站 | 最新免费av网站 | 国产精品欧美一区二区三区 | 欧美日韩亚洲一区 | 久久久久久久电影 | 免费观看的av |