成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

計(jì)算機(jī)視覺(jué)技術(shù)深度解讀之視頻動(dòng)作識(shí)別

開(kāi)發(fā) 開(kāi)發(fā)工具
視頻的理解與識(shí)別是計(jì)算機(jī)視覺(jué)的基礎(chǔ)任務(wù)之一。隨著視頻設(shè)備和網(wǎng)絡(luò)的普通,視頻理解也吸引了越來(lái)越多研究者的關(guān)注。而識(shí)別視頻中的動(dòng)作則是其中一個(gè)充滿挑戰(zhàn)而又具有較高實(shí)際應(yīng)用價(jià)值的任務(wù)。

 視頻的理解與識(shí)別是計(jì)算機(jī)視覺(jué)的基礎(chǔ)任務(wù)之一。隨著視頻設(shè)備和網(wǎng)絡(luò)的普通,視頻理解也吸引了越來(lái)越多研究者的關(guān)注。而識(shí)別視頻中的動(dòng)作則是其中一個(gè)充滿挑戰(zhàn)而又具有較高實(shí)際應(yīng)用價(jià)值的任務(wù)。相比圖像來(lái)說(shuō),視頻內(nèi)容和背景更加復(fù)雜多變,不同的動(dòng)作類(lèi)別之間具有相似性,而相同的類(lèi)別在不同環(huán)境下又有著不同的特點(diǎn)。此外,由于拍攝造成的遮擋、抖動(dòng)、視角變化等也為動(dòng)作識(shí)別進(jìn)一步帶來(lái)了困難。在實(shí)際應(yīng)用中,精確的動(dòng)作識(shí)別有助于輿情監(jiān)控,廣告投放,以及很多其他視頻理解相關(guān)的任務(wù)。

與圖像識(shí)別相比,視頻分析需要更大量數(shù)據(jù)。早期的數(shù)據(jù)集KTH[1],Weizmann[2]等僅由演員表演固定的幾個(gè)動(dòng)作,如走路,慢跑等。之后,較大規(guī)模的數(shù)據(jù)集如UCF101[3]等由網(wǎng)絡(luò)視頻組成,具體動(dòng)作類(lèi)別則由志愿者人工標(biāo)注完成。目前,研究者發(fā)布了更大規(guī)模的數(shù)據(jù)集,例如Kinetics[4]包含了上百類(lèi)動(dòng)作以及幾十萬(wàn)視頻(如圖1所示示例),雖然相比實(shí)際情況仍不夠全面,但也對(duì)動(dòng)作識(shí)別的研究有了極大的幫助。


圖1. Kinetics數(shù)據(jù)集的示例視頻幀

(https://arxiv.org/pdf/1705.06950.pdf)。

視頻動(dòng)作識(shí)別目前常用的技術(shù)可以大致分為如下幾類(lèi):

1. 基于人工特征的視頻動(dòng)作識(shí)別

早期的動(dòng)作識(shí)別主要基于興趣點(diǎn)的檢測(cè)和表示。梯度直方圖[5],時(shí)空興趣點(diǎn)檢測(cè)[6],以及光流直方圖[7]等都用于提取圖像和時(shí)序的特征表示。與圖像相比,視頻蘊(yùn)含了大量的運(yùn)動(dòng)信息,為了更好的利用運(yùn)動(dòng)信息,Heng等人提出了密集軌跡的特征[8],密集的提取和追蹤光流中每個(gè)像素特征,編碼后進(jìn)行分類(lèi)。然而,當(dāng)面臨大規(guī)模數(shù)據(jù)集時(shí),這些特征缺乏一定的靈活性和可擴(kuò)展性。

2. 基于雙流的神經(jīng)網(wǎng)絡(luò)

近年來(lái),神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別、物體檢測(cè)等計(jì)算機(jī)視覺(jué)任務(wù)上取得了幾乎超越人類(lèi)的成果,研究者在視頻任務(wù)中也越來(lái)越多的開(kāi)始使用神經(jīng)網(wǎng)絡(luò)。然而,直接將用于圖像分類(lèi)的神經(jīng)網(wǎng)絡(luò)用于視頻分類(lèi)會(huì)忽略視頻的時(shí)序特征,而時(shí)序特征對(duì)于視頻分類(lèi)尤為重要。介于此,研究者提出了基于雙流的動(dòng)作識(shí)別方法。Simonyan et al. 提出了一個(gè)融合網(wǎng)絡(luò)[9] ,該論文首次將視頻分成空間和時(shí)間兩個(gè)部分,分別將RGB圖像和光流圖像送入兩支神經(jīng)網(wǎng)絡(luò)并融合最終分類(lèi)結(jié)果。如圖2所示,利用雙流神經(jīng)網(wǎng)絡(luò),可以同時(shí)得到視頻中人或物體外表和運(yùn)動(dòng)的信息,該方法在當(dāng)時(shí)各個(gè)基準(zhǔn)數(shù)據(jù)集上取得了領(lǐng)先的識(shí)別水平。 


圖2. 雙流神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖

(https://papers.nips.cc/paper/5353-two-stream-convolutional-networks-for-action-recognition-in-videos.pdf)

之后,又有許多研究針對(duì)雙流網(wǎng)絡(luò)這種框架進(jìn)行了一些改進(jìn),例如Temporal Segment Network則提出了一種可以捕捉較長(zhǎng)時(shí)序的網(wǎng)絡(luò)結(jié)構(gòu)[10]。Xu 提出了基于密集擴(kuò)張網(wǎng)絡(luò)的框架[11],并探討了空間和時(shí)間分支的不同融合方式。

3. 基于三維卷積的神經(jīng)網(wǎng)絡(luò)

除了雙流網(wǎng)絡(luò),還有一些研究者針對(duì)視頻將神經(jīng)網(wǎng)絡(luò)優(yōu)化為三維卷積神經(jīng)網(wǎng)絡(luò),以此來(lái)捕捉更多的時(shí)空信息。如圖3所示,Tran等人首次提出了在視頻動(dòng)作識(shí)別中使用三維神經(jīng)網(wǎng)絡(luò)(C3D)代替二維的神經(jīng)網(wǎng)絡(luò)[12]。此后,由于ResNet在圖像識(shí)別任務(wù)中取得的較好效果,Hara等人提出了基于三維網(wǎng)絡(luò)的ResNet[13],Qiu等人也提出了用二維模擬三維神經(jīng)網(wǎng)絡(luò)的偽3D網(wǎng)絡(luò)(P3D)[14]。  

圖3.三維神將網(wǎng)絡(luò)示意圖。 

(https://www.cv-foundation.org/openaccess/content_iccv_2015/papers/Tran_Learning_Spatiotemporal_Features_ICCV_2015_paper.pdf)

最近,deep mind團(tuán)隊(duì)提出了Inflated 3D ConvNets (I3D)[15],具體方法是利用了2D網(wǎng)絡(luò)權(quán)重展開(kāi)作為3D網(wǎng)絡(luò)的預(yù)訓(xùn)練權(quán)重,同時(shí)借助大規(guī)模的Kinetics數(shù)據(jù)集進(jìn)行預(yù)訓(xùn)練,在基準(zhǔn)數(shù)據(jù)集上效果得到明顯提升。

4. 其他

此外,仍有很多研究者在探索其他更有效的視頻動(dòng)作識(shí)別方法,如基于長(zhǎng)短記憶網(wǎng)絡(luò)(LSTM)的識(shí)別框架[16],基于對(duì)抗神經(jīng)網(wǎng)絡(luò)(GAN)[17]的框架等。

雖然目前動(dòng)作識(shí)別已經(jīng)取得了快速的發(fā)展,但距離人類(lèi)識(shí)別水平仍有很大的差距,在實(shí)際應(yīng)用中也面臨著各種各種復(fù)雜的問(wèn)題。我們期待著今后的研究中能夠出現(xiàn)更具有可擴(kuò)展性,魯棒性的算法和框架。

【本文是51CTO專(zhuān)欄機(jī)構(gòu)“AiChinaTech”的原創(chuàng)文章,微信公眾號(hào)( id: tech-AI)”】

戳這里,看該作者更多好文

 

責(zé)任編輯:華軒 來(lái)源: 51CTO專(zhuān)欄
相關(guān)推薦

2023-04-04 08:25:31

計(jì)算機(jī)視覺(jué)圖片

2023-09-04 15:15:17

計(jì)算機(jī)視覺(jué)人工智能

2017-11-30 12:53:21

深度學(xué)習(xí)原理視覺(jué)

2023-07-07 10:53:08

2020-05-15 14:25:19

微軟人臉識(shí)別人工智能

2023-11-20 22:14:16

計(jì)算機(jī)視覺(jué)人工智能

2022-09-15 15:24:19

人工智能機(jī)器學(xué)習(xí)

2019-12-11 13:24:57

深度學(xué)習(xí)數(shù)據(jù)結(jié)構(gòu)軟件

2019-01-11 18:52:35

深度學(xué)習(xí)視覺(jué)技術(shù)人工智能

2020-07-10 15:20:51

Linux?OpenCV代碼

2023-11-24 16:38:38

無(wú)人機(jī)計(jì)算機(jī)視覺(jué)

2021-03-29 11:52:08

人工智能深度學(xué)習(xí)

2023-03-28 15:21:54

深度學(xué)習(xí)計(jì)算機(jī)視覺(jué)

2021-05-19 09:00:00

人工智能機(jī)器學(xué)習(xí)技術(shù)

2020-04-26 17:20:53

深度學(xué)習(xí)人工智能計(jì)算機(jī)視覺(jué)

2020-09-04 11:47:12

計(jì)算機(jī)視覺(jué)

2020-08-04 10:24:50

計(jì)算機(jī)視覺(jué)人工智能AI

2024-03-01 10:08:43

計(jì)算機(jī)視覺(jué)工具開(kāi)源

2020-11-05 13:50:23

計(jì)算機(jī)視覺(jué)

2020-12-16 19:28:07

深度學(xué)習(xí)計(jì)算機(jī)視覺(jué)Python庫(kù)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

主站蜘蛛池模板: 狠狠躁天天躁夜夜躁婷婷老牛影视 | 国产乱码精品1区2区3区 | 最新中文字幕在线 | 高清一区二区三区 | 久久久高清 | 亚洲精品电影网在线观看 | 午夜专区 | 视频1区2区| 青青草在线视频免费观看 | 天天干视频网 | 伊人春色成人 | 精品久久精品 | 九九在线 | 色免费看 | 午夜精品一区二区三区三上悠亚 | 狠狠热视频 | 天堂资源最新在线 | 精品久久久久久久久久久久久久 | 欧美在线高清 | 伊人伊成久久人综合网站 | 国产99精品| 国产一区二区三区在线观看免费 | 国产成人精品a视频 | 波多野结衣中文字幕一区二区三区 | 在线观看视频91 | 久久久久无码国产精品一区 | 四虎影视免费在线 | 中文字幕一区二区三区日韩精品 | 久久精品视频9 | 亚洲网址在线观看 | 国产a级毛毛片 | 欧美激情视频一区二区三区在线播放 | 日本成人毛片 | 久久久精品国产 | 国产视频不卡一区 | 久久精品 | www.日韩| 久久婷婷香蕉热狠狠综合 | 在线观看第一区 | 免费在线成人 | 狠狠艹 |