深度神經(jīng)網(wǎng)絡(luò)可辨別Deepfakes偽造的照片
在某位開(kāi)發(fā)者打開(kāi)了 Deepfakes 的潘多拉魔盒之后,以假亂真的人工智能偽造照片技術(shù),已經(jīng)引發(fā)了各界的廣泛爭(zhēng)論。好消息是,加州大學(xué)河濱分校 Amit K. Roy-Chowdhury 教授帶領(lǐng)的一支研究團(tuán)隊(duì),已經(jīng)開(kāi)發(fā)出了一套高水準(zhǔn)的深度神經(jīng)網(wǎng)絡(luò),能夠分析一張照片是否經(jīng)由 DeepFakes 偽造。
(圖自:加州大學(xué)河濱分校,via New Atlas)
研究期間,團(tuán)隊(duì)向他們的深度神經(jīng)網(wǎng)絡(luò)投喂了大量的篡改和非篡改照片數(shù)據(jù)集,并對(duì)其作出相應(yīng)的計(jì)算機(jī)標(biāo)記。
自被篡改的圖片中,團(tuán)隊(duì)突出顯示了被數(shù)字化添加到鏡頭中的對(duì)象的邊界像素。此前已有研究人員證實(shí),偽造照片的不尋常物體邊界,會(huì)較真實(shí)物體更加平滑或有所不同。
雖然人眼不一定能夠檢測(cè)到這些差異,但計(jì)算機(jī)可以對(duì)異常像素進(jìn)行逐個(gè)的檢查,然后將標(biāo)記的數(shù)據(jù)集輸入深度神經(jīng)網(wǎng)絡(luò)。
這是一套模擬人腦的松散建模算法,旨在識(shí)別原始數(shù)據(jù)中的模式?;诖耍撋疃壬窠?jīng)網(wǎng)絡(luò)將學(xué)會(huì)識(shí)別數(shù)字添加進(jìn)去的圖像指示邊界。
當(dāng)它隨后顯示來(lái)自數(shù)據(jù)集外部、此前沒(méi)見(jiàn)過(guò)的照片時(shí),就能夠在很大程度上辨別出經(jīng)過(guò) Deepfakes 偽造的照片。
需要指出的是,盡管這套系統(tǒng)目前僅適用于靜態(tài)照片,但團(tuán)隊(duì)正在努力將其應(yīng)用于視頻的鑒別。畢竟視頻的本質(zhì),就是一幀幀的連續(xù)圖像。
當(dāng)然,在投入實(shí)際試用后,這套深度神經(jīng)網(wǎng)絡(luò)也可能永遠(yuǎn)都做不到 100% 的識(shí)別準(zhǔn)確率,畢竟訓(xùn)練數(shù)據(jù)及都是被研究人員有意標(biāo)識(shí)過(guò)的。
有關(guān)這項(xiàng)研究的詳情,已經(jīng)發(fā)表在近日出版的《IEEE Transactions on Image Processing》影像處理期刊上。原標(biāo)題為:
《Hybrid LSTM and Encoder–Decoder Architecture for Detection of Image Forgeries》