成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

AI視頻「閃爍」難題攻破!輕松改變視頻風格,北大校友一作

人工智能 新聞
無論是拍視頻還是制作動畫,依靠的都是“關(guān)鍵幀”。如果幀與幀之間聯(lián)系不緊密,就會出現(xiàn)這種詭異的“閃爍畫風”。

本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

AI拍視頻,竟然已經(jīng)絲滑到這個程度了嗎?

輸入一段視頻,念上一段“咒語”,AI瞬間就能秒懂,并當場給你把視頻重畫一遍:

圖片

不僅完美hold住各類風格,最關(guān)鍵的是,幀幀絲滑流暢。

就連建筑物這種細節(jié)較多的視頻,也幾乎看不出“AI出品”的bug:

圖片

目前,無論是拍視頻還是制作動畫,依靠的都是“關(guān)鍵幀”。如果幀與幀之間聯(lián)系不緊密,就會出現(xiàn)這種詭異的“閃爍畫風”——

圖片

而這也是AI生成視頻最大的瓶頸之一。

現(xiàn)在,來自南洋理工大學的團隊,終于解決了這個問題,研究在推特上掀起了不小熱度:

圖片

那么,這究竟是如何做到的?

如何讓AI拍的視頻不“閃爍”?

AI生成視頻會“閃爍”,本質(zhì)上是前后幀不連貫導(dǎo)致的。

舉個例子,這是同一個視頻中截取的兩幀畫面:

圖片

用AI根據(jù)這兩幀“重繪”圖像,乍一看問題不大,細節(jié)上卻有不少差異。

例如,一幀生成的人物頭上有“金色發(fā)帶”,另一幀中卻消失了:

圖片

這樣一來,看似AI生成的幾十幀圖像風格差不多,連起來細節(jié)差異卻非常大,視頻也就容易出現(xiàn)閃爍現(xiàn)象:

圖片

為此,研究人員提出了一種新框架,,核心是提升AI生成視頻時幀與幀之間的連貫性。

這個框架包含關(guān)鍵幀翻譯(key frame translation)和完整視頻翻譯(full video translation)兩部分。

第一部分基于擴散模型生成關(guān)鍵幀,基于跨幀約束加強這些關(guān)鍵幀之間的一致性;第二部分則通過基于時間感知的匹配算法將其他幀與關(guān)鍵幀“連接”起來。

框架的核心,在于第一部分。

研究人員給這部分提出了一種新的分層跨幀一致性約束方法,在原視頻基礎(chǔ)上,利用光流來約束幀與幀之間的關(guān)系。

其中,第一幀相當于整個視頻的“錨點”,用于控制視頻的整體走向;后續(xù)的每一幀,則都會以前一幀作為參考,防止生成的圖像偏離最初的風格、形狀、紋理和顏色等。

至于視頻生成模型,核心采用的則是Stable Diffusion+ControlNet的組合,但經(jīng)過了改進。

如下圖所示,紅色虛線是原本Stable Diffusion等擴散模型采樣過程,黑色線條則是經(jīng)過調(diào)整后的過程:

圖片

當然,在不同的采樣階段,跨幀約束也不一樣,包括形狀感知、像素感知等。

相比之前的AI視頻生成模型,這個框架最大的優(yōu)勢在于,當輸入一個新視頻的時候,它不需要再用這個視頻材料重新進行訓練,換而言之就是零樣本學習。

只需要輸入一段提示詞+一段視頻,框架就能自動將視頻“翻譯”出你想要的效果。

例如,這是團隊利用改進后的框架,重新生成的一段相同風格視頻,和改進前的擴散模型相比,幾乎看不出閃爍了:

圖片

14秒生成一張關(guān)鍵幀

所以,生成一段視頻是否需要很長時間?

至少從生成幀的效率來看,速度還是不慢的,其中關(guān)鍵幀和Stable Diffusion出圖的速度差不多,平均在14.23秒左右;非關(guān)鍵幀就非??炝?,每幀只需要1.49秒。

圖片

如果視頻不長、甚至只有十幾幀的話,不到一分鐘就能搞定一段視頻的轉(zhuǎn)換。

作者們將這個新框架和之前的幾類文生視頻框架進行了對比,包括FateZero、vid2vid-zero、Pxi2Video和Text2Video-Zero等,顯然新框架目前是最流暢、鬼影也最少的:

圖片

不僅僅是單純的“視頻翻譯”,作者們還展示了提示詞對于視頻生成的控制效果。

例如在相同輸入下,只要更改一段提示詞中的“關(guān)鍵字”,AI就能在幾乎不改動其他元素的情況下,生成一段新的視頻,例如換個發(fā)型、換種風格,或是將狗頭換成狐貍頭:

圖片

除此之外,作者們還請來了23名志愿者,對新框架生成的視頻質(zhì)量進行了綜合評分,評估指標有三個,分別是提示詞和輸入幀的關(guān)聯(lián)度、時間一致性和視頻整體質(zhì)量。

結(jié)果顯示,這個框架在“人類評分”中均取得了不錯的水平:

圖片

一作北大校友

四位作者均來自南洋理工大學。

圖片

一作楊帥,南洋理工大學助理教授,本科和博士畢業(yè)于北京大學,目前的研究方向是基于人像的編輯、文本風格化、圖像翻譯等。

周弈帆,南洋理工大學研究工程師,本科畢業(yè)于北京理工大學,拿過ACM-ICPC金牌,研究方向包括文本挖掘、基于機器學習重建入射光場等。

劉子緯,南洋理工大學助理教授,香港中文大學博士,研究方向是計算機視覺、機器學習和計算機圖形學等。

Chen Change Loy,南洋理工大學和香港中文大學副教授,他的研究興趣集中在計算機視覺和深度學習方向,包括圖像、視頻恢復(fù)和生成,以及表征學習等。

目前這個項目的代碼還沒開源,不過論文表示“會有的”。

圖片

實測效果如何,我們可以期待一波。

項目地址:https://anonymous-31415926.github.io/

論文地址:https://arxiv.org/abs/2306.07954

責任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2023-10-16 12:31:17

人工智能數(shù)據(jù)

2023-07-17 09:21:12

Meta模型

2023-07-03 10:34:13

2021-01-15 09:30:36

算法技術(shù)數(shù)據(jù)

2025-06-19 09:10:00

2021-11-22 09:39:21

深度學習神經(jīng)網(wǎng)絡(luò)人工智能

2024-09-04 13:19:16

2021-11-19 10:13:01

模型人工智能計算

2023-07-26 14:35:12

論文方法

2024-09-18 10:32:00

AI智能體模型

2025-06-03 08:39:00

2020-11-27 17:57:08

AI 數(shù)據(jù)人工智能

2025-04-15 08:50:00

2020-08-24 14:25:02

AI 數(shù)據(jù)人工智能

2025-06-16 08:49:00

2020-06-29 16:42:41

人工智能

2024-11-05 14:40:00

智能體AI

2023-07-28 14:49:00

黑盒優(yōu)化機器學習

2025-02-19 08:29:27

2023-11-20 22:02:54

開源模型
點贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 国产精品久久久精品 | 麻豆毛片 | av影片在线| 欧美一区在线视频 | 久久999 | 国产欧美一区二区精品忘忧草 | 国产成人久久 | 日本欧美国产在线 | 亚洲精品一区二区久 | 国产成人福利在线观看 | av一级久久 | av片免费 | 国产精品久久久久久久久久了 | 黄色骚片 | 免费国产黄| 欧美激情在线精品一区二区三区 | 国产精品久久久久久久久大全 | 亚洲网在线 | 久久精品国产免费一区二区三区 | 亚洲区一区二区 | 国产精品免费观看 | 久久99蜜桃综合影院免费观看 | 亚洲精品久久久久久久久久久 | 欧美一级二级在线观看 | 欧美视频第二页 | jizz亚洲人 | 亚洲精品一区二区三区在线观看 | 欧美在线视频一区二区 | 日韩免费视频一区二区 | 911精品美国片911久久久 | 精品综合 | 欧美成人性生活 | 亚洲精品久久久一区二区三区 | 国产精品欧美一区二区三区 | 午夜影晥| 国产成人精品高清久久 | 国产日韩亚洲欧美 | 伊人久久综合 | 色婷婷久久久久swag精品 | 91社区在线高清 | 亚洲视频欧美视频 |