成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

超越擴散模型!自回歸新范式僅需2.9秒就生成高質量圖像,中科大哈工大度小滿出品

人工智能 新聞
總的來說,STAR基于scale-wise自回歸的方式,解決了VAR中存在的引導條件有限、位置編碼不合理的問題,實現了更高效、性能更好的文本引導圖像生成。

超越擴散模型!自回歸范式在圖像生成領域再次被驗證——

中科大、哈工大、度小滿等機構提出通用文生圖模型STAR。

僅需2.9秒就可生成高質量圖像,超越當前一眾包括SDXL在內擴散模型的性能。

圖片

此外在生成圖像真實度、圖文一致性和人類偏好上均表現優秀。

圖片

來看看具體是如何做到的?

自回歸通用文生圖模型STAR

擴散模由于其高質量和多元的生成,一度在文生圖領域占有主導地位。

它通過逐步的去噪過程,為圖像生成提供了更強的穩定性和可控性,然而也導致生成過程極其耗時。

而自回歸模型的潛力,在受到大語言模型啟發下,開始在這一領域逐漸被探索。

比如VAR指出是因為自回歸模型逐個預測token的行為不符合圖像模態的特點,提出“next-scale prediction”范式,將視覺自回歸建模為逐個預測更大尺度scale的token map。這一方式避免了原始基于next-token的自回歸方案難以建模圖像模態的問題,重新為視覺生成定義了新的自回歸范式,從而使得生成的圖像具有更高的真實度,不過仍然有很多局限,性能仍落后于擴散模型。

作者提出基于尺度的文生圖自回歸模型STAR,重新思考VAR中的“next-scale prediction”范式。

具體來說,所提出的STAR包括兩部分:

增強的文本引導和改進的位置編碼,以高效地實現高質量圖像生成。

增強的文本引導

為了更好地處理各種復雜的文本描述并生成相應的圖像,研究者提出幾項關鍵解決方案:

1、文本特征作為起始token map,根據起始token map生成更高分辨率的token map這不僅增強了模型對新文本場景的適應性,確保模型可以泛化到新的文本提示,從整體上保證了文本描述與生成圖像之間的一致性

2、在每個transformer層引入交叉注意力機制,從更精細的粒度控制圖像生成,使得生成的圖像更加精確地貼合文本。

具體網絡格式如下:

圖片

歸一化旋轉位置編碼(Normalized RoPE)

對于next-scale prediction范式,如何利用同一個transformer生成不同尺度的token map是一個重要的問題,隨之而來的是如何編碼這些token map中的tokens的位置。

傳統的正余弦編碼難以處理不同尺度的token map,同時編碼多個尺度容易導致尺度之間的混淆。

可學習的絕對位置編碼需要為每個尺度的token map學習對應的位置編碼,導致額外的學習參數,提升了訓練難度,尤其是大尺度情況下的訓練變得更加困難;除此之外固定個數的位置編碼限制了更大分辨率圖像生成的可能。

研究者提出二維的歸一化旋轉位置編碼(Normalized RoPE)

圖片

任意token間的相對位置被歸一化到統一的尺度,從而確保了對不同尺度的token map中的相對位置有統一的理解,避免對不同尺度位置同時編碼的混淆,更好地適配scale-prediction任務。

除此之外,這一新的位置編碼不需要額外的參數,更易于訓練,為更高分辨率圖像生成提供了潛在的可能。

訓練策略

研究者選擇先在256*256圖像上以較大的batch size訓練生成,隨后在512*512圖像上微調,以獲得512的生成結果。由于歸一化位置編碼,模型很快收斂,僅需少量微調即可生成高質量512分辨率圖像。

相比目前的方法,所提出的STAR在FID,CLIP score和ImageReward上表現優異,體現了STAR良好的生成真實度,圖文一致性和人類偏好。除此之外,STAR生成一張512分辨率的高質量圖像僅需約2.9秒,相比現有的擴散文生圖模型具有顯著優勢。

具體地,在MJHQ-30k上的FID達到4.73,超越了PixArt-α等模型;CLIP score達到0.291,與SDXL相當:

圖片

在ImageReward benchmark上,STAR達到了0.87的image reward,與領先的PixArt-α相當:

圖片
相比現有的方法,STAR可以生成多元的圖像類型。

在人物攝影、藝術繪畫、靜物、風景等場景下均能獲得很好的效果,生成的人臉、毛發、材質達到了令人驚嘆的細節:

圖片

總的來說,STAR基于scale-wise自回歸的方式,解決了VAR中存在的引導條件有限、位置編碼不合理的問題,實現了更高效、性能更好的文本引導圖像生成。

廣泛的實驗證明,所提出的方法在生成圖像真實度、圖文一致性和人類偏好上均表現優秀。僅需約2.9秒的時間內,在512分辨率圖像生成上,實現超越先進的文生圖擴散模型(PixArt-α、Playground、SDXL等)的性能。

基于自回歸的STAR為目前diffusion支配的文本控制圖像生成領域提供了新的可能。

項目網站:https://krennic999.github.io/STAR/ 

論文鏈接:https://arxiv.org/pdf/2406.10797

責任編輯:張燕妮 來源: 量子位
相關推薦

2024-04-17 13:22:55

人工智能

2024-11-12 13:10:49

2024-10-16 14:10:00

AI視頻生成

2023-08-28 13:06:47

2024-12-04 09:15:00

AI模型

2025-07-02 09:21:30

2025-01-09 09:29:57

2023-08-21 13:49:00

圖像技術

2024-12-02 10:40:00

AI模型

2024-12-09 10:15:00

AI技術

2025-04-01 05:10:00

2021-11-17 16:13:45

IBM 處理器量子

2024-11-06 13:03:49

2024-06-17 07:10:00

2023-11-30 13:04:56

LCM圖像

2023-05-31 16:15:51

模型圖像

2025-02-12 10:17:12

2022-11-09 13:43:59

中小企業

2024-09-02 08:22:00

模型數據集

2024-04-12 08:59:02

強化學習系統人工智能擴散模型
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 日韩精品一区二区不卡 | 欧美日韩亚洲系列 | 日本91av视频| 中文字幕欧美一区 | 狠狠操天天操 | 国产成人99久久亚洲综合精品 | 久久国产日韩欧美 | 一区二区三区四区国产 | 欧美一区二区三区免费电影 | 激情一区二区三区 | 1区2区视频 | 免费av手机在线观看 | 日韩一区二区在线免费观看 | 成人深夜福利 | 国产一区二区在线看 | 天天想天天干 | 日韩精品一区二区三区中文字幕 | 波多野吉衣久久 | 国产欧美一区二区三区国产幕精品 | 国产日韩欧美在线观看 | 日本久久久一区二区三区 | 日本一本视频 | 国产美女精品 | 国产精品视频久久久久久 | 亚洲一区二区久久 | 天天操伊人 | 色网站在线 | 日韩激情免费 | 人人澡人人射 | 亚洲成人日韩 | 国产一级电影在线 | 国产精品久久久久久久久久久久午夜片 | 成人免费大片黄在线播放 | 一级视频在线免费观看 | 蜜臀久久 | 精品久久电影 | 国产成人精品免高潮在线观看 | 国产亚洲网站 | 99精品视频网 | 日韩一区二区三区在线视频 | 免费国产黄网站在线观看视频 |