文獻(xiàn)標(biāo)識碼: A
DOI:10.16157/j.issn.0258-7998.212388
中文引用格式: 楊戈,鄒武星. 基于深度學(xué)習(xí)的視頻行為分類方法綜述[J].電子技術(shù)應(yīng)用,2022,48(7):1-7,12.
英文引用格式: Yang Ge,Zou Wuxing. A survey on video action classification methods based on deep learning[J]. Application of Electronic Technique,2022,48(7):1-7,12.
0 引言
視頻行為分類的目的是根據(jù)視頻內(nèi)容將視頻行為歸類為預(yù)設(shè)類別。隨著數(shù)字?jǐn)z像機(jī)、智能手持終端等各種視頻拍攝設(shè)備的普及,網(wǎng)絡(luò)上視頻產(chǎn)生數(shù)量出現(xiàn)飛速增長。截至2019年6月,中國網(wǎng)絡(luò)視頻用戶規(guī)模近7.59億,中國短視頻用戶規(guī)模為6.27億[1],最新興起的短視頻業(yè)務(wù)用戶規(guī)模以及用戶日均短視頻移動應(yīng)用(Application,APP)停留時長均出現(xiàn)爆發(fā)式增長。圖像本身就包含大量信息,而視頻是圖像在時間維度的擴(kuò)展,每秒往往包含24幀左右的圖像,所占存儲空間較之圖像可以說是呈數(shù)量級倍數(shù)關(guān)系。存儲、分析這些視頻內(nèi)容需要花費(fèi)巨大的財力和人力,在計算機(jī)自動分析視頻數(shù)據(jù)得到廣泛應(yīng)用前,視頻內(nèi)容的行為分類一般依靠人工實(shí)現(xiàn),不僅效率低而且誤判、漏判率高。自動化視頻內(nèi)容分析技術(shù)推廣的現(xiàn)實(shí)意義廣泛而深遠(yuǎn)。
計算機(jī)視頻行為分析技術(shù)不僅可以同時自動監(jiān)控多路信號,且不會產(chǎn)生疲勞,降低誤判的可能性;在視頻內(nèi)容檢索領(lǐng)域的應(yīng)用更是將極大減輕公共安全從業(yè)人員的視頻檢索工作量,提高他們的檢索效率,降低漏檢率。自動化視頻內(nèi)容分析技術(shù)推廣的現(xiàn)實(shí)意義廣泛而深遠(yuǎn),深度學(xué)習(xí)在視頻分類的應(yīng)用主要有以下方面。
本文詳細(xì)內(nèi)容請下載:http://m.xxav2194.com/resource/share/2000004577。
作者信息:
楊 戈1,2,鄒武星1,2
(1.北京師范大學(xué)珠海分校 智能多媒體技術(shù)重點(diǎn)實(shí)驗室,廣東 珠海519087;
2.北京師范大學(xué)自然科學(xué)高等研究院,廣東 珠海519087)