成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

KDD2025|小紅書聯(lián)合中科大提出1.44M輕量高效AI圖像檢測模型,超SOTA 4.5個點

人工智能
小紅書聯(lián)合中國科學(xué)技術(shù)大學(xué)給出了解決方案,僅用 1.44M 參數(shù)量實現(xiàn)了通用 AI 圖片檢測,在 33 個測試子集上達到 96.7% 的準確率,超 SOTA 模型 4.5 個百分點。這項研究目前已經(jīng)被 KDD 2025 接收。

當下,AI 生成圖像的技術(shù)足以以假亂真,在社交媒體肆意傳播。如何對不同生成模型實現(xiàn)通用檢測?小紅書聯(lián)合中國科學(xué)技術(shù)大學(xué)給出了解決方案,僅用 1.44M 參數(shù)量實現(xiàn)了通用 AI 圖片檢測,在 33 個測試子集上達到 96.7% 的準確率,超 SOTA 模型 4.5 個百分點。這項研究目前已經(jīng)被 KDD 2025 接收。

論文鏈接:

https://arxiv.org/abs/2408.06741

代碼鏈接:

https://github.com/Ouxiang-Li/SAFE


圖片

01 AI圖像共性:源于成像機制

要實現(xiàn)通用的 AI 圖像檢測,核心問題是如何泛化到未知的生成模型上去,現(xiàn)在主流的生成模型包括生成對抗網(wǎng)絡(luò) GANs 和擴散模型 DMs。

研究團隊從生成模型架構(gòu)的共性出發(fā),期望從 AI 圖像和真實圖像的成像機制的差異中找到突破口。

圖片

在 GANs 中,先通過全連接層把低分辨率的潛在特征變成高分辨率,然后用上采樣和卷積操作合成圖像。DMs 呢,先把有噪圖像通過池化和卷積操作降維,再通過同樣的操作升維預(yù)測噪聲。

這兩種模型在合成圖像時,都大量使用上采樣和卷積,而這兩個操作在數(shù)值計算上相當于對像素值加權(quán)平均,會讓合成圖像相鄰像素的局部相關(guān)性變強,留下獨特的 “偽影特征”,這就是 AI 圖像檢測的關(guān)鍵線索。

02 檢測方法”跑偏“:錯在訓(xùn)練策略

想象一下,你要在一堆真假難辨的畫作里找出贗品,如果用來鑒定的方法本身就有缺陷,那肯定很難完成任務(wù)。

現(xiàn)有的 AI 圖像檢測方法,就面臨著這樣的困境。

當前的 AI 圖像檢測方法大多將重點放在挖掘真實圖像與 AI 圖像之間的通用差異,,也就是“通用偽影特征”,卻忽略了訓(xùn)練過程中的關(guān)鍵問題。

研究團隊發(fā)現(xiàn),當前的訓(xùn)練模式存在兩大問題。

圖片

第一個問題是“弱化的偽影特征”。

AI 圖像在生成過程中,由于使用了上采樣和卷積等操作,圖像像素之間的聯(lián)系變得更加緊密,從而留下了可供檢測的痕跡。然而,許多檢測方法在對圖像進行預(yù)處理時,常常采用下采樣操作來統(tǒng)一圖像尺寸,這一操作會“抹除”那些細微的痕跡,大大增加了檢測的難度。


第二個問題是“過擬合的偽影特征”。

現(xiàn)有的檢測方法在訓(xùn)練時,數(shù)據(jù)增強方式較為單一,比如僅僅進行水平翻轉(zhuǎn)操作。這就使得模型過度適應(yīng)了訓(xùn)練數(shù)據(jù)中的特定特征,出現(xiàn)過擬合現(xiàn)象。一旦遇到未曾見過的 AI 圖像,模型就無法準確識別,泛化性能較差。

03 簡單圖像變換:有效去偏

為了解決這些問題,研究團隊提出了 SAFE,它憑借三種簡單的圖像變換直擊難題。

第一是痕跡保留(Artifact Preservation)。

SAFE 在圖像預(yù)處理階段,舍棄了傳統(tǒng)的下采樣(Resize)操作,改為采用裁剪(Crop)操作。在訓(xùn)練過程中進行隨機裁剪(RandomCrop),測試時則使用中心裁剪(CenterCrop)。這樣一來,AI 圖像中的細節(jié)以及像素之間的微妙聯(lián)系得以保留,方便檢測器發(fā)現(xiàn)那些細微的“破綻”,顯著提升了捕捉 AI 偽影的能力。

第二是不變性增強(Invariant Augmentation)。

SAFE 引入了 ColorJitter 和 RandomRotation 兩種數(shù)據(jù)增強方式。ColorJitter 通過在色彩空間中對圖像進行調(diào)整,能夠有效減少因顏色模式差異而帶來的偏差。RandomRotation 則讓模型在不同旋轉(zhuǎn)角度下依然能夠聚焦于像素之間的聯(lián)系,避免受到與旋轉(zhuǎn)相關(guān)的無關(guān)特征的干擾,增強了模型對圖像旋轉(zhuǎn)的適應(yīng)能力。

第三是局部感知(Local Awareness)。

SAFE 提出了基于 Patch 的隨機掩碼策略(RandomMask)。在訓(xùn)練時,按照一定概率對圖像實施隨機掩碼,引導(dǎo)模型將注意力集中在局部區(qū)域,進而提升模型的局部感知能力。令人驚喜的是,即使圖像的大部分區(qū)域被掩蔽,模型依然能夠依據(jù)剩余的未掩蔽部分準確判斷圖像的真?zhèn)巍?/p>

此外,SAFE 利用簡單的離散小波變換(DWT)來提取高頻特征,并將其作為檢測的偽影特征。由于 AI 圖像與自然圖像在高頻分量上存在明顯差異,DWT 能夠很好地保留圖像的空間結(jié)構(gòu),有效提取這些差異特征。

04 實驗對比:輕量且高效

研究團隊開展了大量實驗,以驗證 SAFE 的實際效果。

在實驗設(shè)置上,訓(xùn)練數(shù)據(jù)選用 ProGAN 生成的 AI 圖像以及對應(yīng)的真實圖像,測試數(shù)據(jù)則廣泛涵蓋了多種來源的自然圖像,以及由 26 種不同生成模型所生成的 AI 圖像,包括常見的 GANs 和 DMs 等。并且選取了 10 種極具代表性的方法作為基線進行對比,通過精確的分類準確率(ACC)和平均精度(AP)來衡量檢測效果。

4.1 泛化性能對比

SAFE 在 33 個測試子集上達到了平均 96.7% 的準確率,超過 SOTA 方法 4.5 個點。

值得注意的是,SAFE只有 1.44M 的參數(shù)量,在實際推理時的 FLOPs 僅為 2.30B,相比于 SOTA 方法有 50 多倍的效率提升,便于工業(yè)部署。

圖片

針對最新的基于 DiTs 的生成器,研究團隊構(gòu)建了 DiTFake 測試集,包含最新的生成模型Flux、SD3 以及 PixArt。SAFE 在 DiTFake 上表現(xiàn)堪稱卓越,平均準確率達到 99.4%,對新型生成器的泛化能力極強。

圖片

4.2 即插即用的特性

值得一提的是,由于 SAFE 具有模型無關(guān)的特性,研究人員將其提出的圖像變換作為一個即插即用的模塊,應(yīng)用到現(xiàn)有的檢測方法之中。從 GenImage 測試集的對比結(jié)果來看,這一應(yīng)用帶來了令人驚喜的效果,檢測性能得到了一致提升。

圖片


4.3 消融實驗

研究團隊還進行了充分的消融實驗,深入探究模型各個組成部分的具體作用。

在圖像預(yù)處理環(huán)節(jié),重點聚焦于裁剪(Crop)操作的效能探究。實驗數(shù)據(jù)有力地證實,在訓(xùn)練進程中,裁剪操作相較于傳統(tǒng)的下采樣(Resize),具有不可替代的關(guān)鍵作用。

即使測試圖片在傳輸過程中不可避免地經(jīng)歷了下采樣操作,基于裁剪方法比基于下采樣方法訓(xùn)練出的模型仍表現(xiàn)出更好的檢測效果。

圖片

對于數(shù)據(jù)增強技術(shù),分別對 ColorJitter、RandomRotation 和 RandomMask 進行了單獨和組合的效果評估。這三種數(shù)據(jù)增強技術(shù)不僅各自都能發(fā)揮有效的作用,而且當它們共同作用時,效果更加顯著,能夠進一步提升檢測性能。

圖片

在特征提取方面,研究團隊對不同的圖像處理算子進行了消融,包括用原圖(Naive)、頻域變換算子(FFT、DCT、DWT)、邊緣提取算子(Sobel、Laplace)以及不同的頻帶(LL、LH、HL、HH)。

圖片

因為 AI 圖像在高頻部分的擬合能力相對較弱,通過高頻信息的差異進行判別展現(xiàn)出了卓越的性能。在高頻信息提取上,F(xiàn)FT 和 DCT 仍表現(xiàn)出和 DWT 相當?shù)男阅埽f明簡單的頻域變換已經(jīng)能夠很好地進行 AI 圖像檢測。

SAFE 為 AI 圖像檢測領(lǐng)域開辟了新的方向。它促使我們重新思考復(fù)雜的人工設(shè)計特征的必要性,也啟發(fā)后續(xù)研究可以從優(yōu)化訓(xùn)練模式入手,減少訓(xùn)練偏差。

05 結(jié)論與展望

本論文通過對現(xiàn)有 AI 生成圖像檢測方法的重新審視,提出了一個新的問題設(shè)定,構(gòu)建了更具挑戰(zhàn)性的 Chameleon 數(shù)據(jù)集,并設(shè)計了一個融合多專家特征的檢測器 AIDE。實驗結(jié)果表明,AIDE 在現(xiàn)有的兩個流行基準(AIGCDetectBenchmark 和GenImage)上取得了顯著的性能提升,分別比現(xiàn)有的最先進方法提高了 3.5% 和 4.6% 的準確率。然而,在我們提出的 Chameleon 基準上,盡管 AIDE 取得了最好的性能,但與現(xiàn)有基準相比,仍存在較大的差距。

這表明,檢測 AI 生成圖像的任務(wù)仍然具有很大的挑戰(zhàn)性,需要未來進一步的研究和改進。我們希望我們的工作能夠為這一領(lǐng)域的研究提供新的思路和方向,推動 AI 生成圖像檢測技術(shù)的發(fā)展。

盡管AIDE模型在AI生成圖像檢測領(lǐng)域取得了顯著進展,但研究者們?nèi)杂媱澰谖磥淼墓ぷ髦羞M一步優(yōu)化模型架構(gòu),此外,研究者們還計劃擴大Chameleon數(shù)據(jù)集的規(guī)模,涵蓋更多類別、更多場景、更多生成模型的圖像,以推動AI生成圖像檢測技術(shù)的進一步發(fā)展,敬請期待!

同時團隊還有一篇 AI 圖像鑒別的相關(guān)工作,提出了行業(yè)稀缺的全手工標注“幻像熔爐” Chameleon基準和行業(yè)領(lǐng)先的“超級偵探” AIDE檢測方法,歡迎閱讀。

責任編輯:龐桂玉 來源: 小紅書技術(shù)REDtech
相關(guān)推薦

2023-12-04 13:23:00

數(shù)據(jù)訓(xùn)練

2024-11-04 13:30:00

模型AI

2025-02-25 10:04:10

2025-02-20 13:50:00

AI生成訓(xùn)練

2023-03-17 07:59:57

AI數(shù)字化

2024-10-12 10:57:39

2024-11-04 08:30:00

2023-07-14 15:46:00

圖像語言

2021-12-06 09:53:09

自然語言神經(jīng)網(wǎng)絡(luò)人工智能

2024-09-26 10:04:20

2024-12-23 15:30:00

模型AI測試

2024-12-02 10:40:00

AI模型

2025-04-03 09:27:44

2025-04-01 09:32:00

模型訓(xùn)練AI

2024-06-17 07:10:00

2024-12-04 09:15:00

AI模型

2025-01-16 10:20:00

AI生成動畫

2025-04-01 09:20:00

模型預(yù)測AI

2024-01-08 08:23:08

OpenCV機器學(xué)習(xí)計算機視覺

2023-08-21 13:49:00

圖像技術(shù)
點贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 国产精品高潮呻吟久久aⅴ码 | eeuss国产一区二区三区四区 | 日韩精品四区 | 久久久青草婷婷精品综合日韩 | 国产成人免费视频 | 国产999精品久久久久久 | 亚洲91精品 | 国产一区二区视频免费在线观看 | 国产精品一区二区三区在线 | 日韩欧美国产精品一区二区 | 99精品国产一区二区三区 | 在线成人免费视频 | 午夜午夜精品一区二区三区文 | 久久久久国产一区二区三区不卡 | 91久久久久久久久久久久久 | 午夜影院在线观看免费 | 天天拍天天操 | 美女在线一区二区 | 男人av网| 亚洲国产成人精品久久 | 国产精品3区 | 欧美一级黄色网 | 日韩欧美一二三区 | 日韩电影一区 | 欧美精品一区二区在线观看 | 精久久久| 羞羞色视频| 欧美精品一区二区三区四区 在线 | 国产精品久久久久久久久久免费看 | 日韩视频一区在线观看 | 国产美女精品视频免费观看 | 国产天天操| 成人精品福利 | 精国产品一区二区三区四季综 | 亚洲美女av网站 | 日韩成人免费视频 | 日韩精品一区二区三区久久 | 精品蜜桃一区二区三区 | 国产高潮好爽受不了了夜色 | 97国产精品 | 成人在线视频网站 |