《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 其他 > 設(shè)計(jì)應(yīng)用 > 基于DenseNet和深度運(yùn)動(dòng)圖的行為識(shí)別算法
基于DenseNet和深度運(yùn)動(dòng)圖的行為識(shí)別算法
2020年信息技術(shù)與網(wǎng)絡(luò)安全第1期
張健,張永輝,何京璇
(海南大學(xué),海南 海口 570228)
摘要: 結(jié)合深度信息以及RGB視頻序列中豐富的紋理信息,提出了一種基于DenseNet和深度運(yùn)動(dòng)圖像的人體行為識(shí)別算法。該算法基于DenseNet網(wǎng)絡(luò)結(jié)構(gòu),首先獲取彩色紋理信息和光流信息,然后從同步的深度視頻序列獲取深度信息,以增強(qiáng)特征互補(bǔ)性;再將空間流、時(shí)間流和深度流三種特征信息分別作為網(wǎng)絡(luò)的輸入;最后通過LSTMs進(jìn)行特征融合和行為分類。實(shí)驗(yàn)結(jié)果表明,在公開的動(dòng)作識(shí)別庫UTDMHAD數(shù)據(jù)集上,該算法識(shí)別準(zhǔn)確率為 92.11%,與該領(lǐng)域中的同類算法相比表現(xiàn)優(yōu)異。
中圖分類號(hào):TP391.4
文獻(xiàn)標(biāo)識(shí)碼:A
DOI: 10.19358/j.issn.2096-5133.2020.01.012
引用格式:張健,張永輝,何京璇。基于DenseNet和深度運(yùn)動(dòng)圖的行為識(shí)別算法[J]。信息技術(shù)與網(wǎng)絡(luò)安全,2020,39(1):63-69.
Action recognition algorithm based on DenseNet and depth motion map
Zhang Jian,Zhang Yonghui,He Jingxuan
(Hainan University,Haikou 570228,China)
Abstract: This paper proposes a human behavior recognition algorithm based on DenseNet and DMM,which integrates depth information and rich texture information in RGB video sequence.Based on the DenseNet network structure,the algorithm firstly obtains color texture information and optical flow information,and then obtains depth information from synchronous depth video sequence to enhance feature complementarity.Three kinds of characteristic information are used as the input of spatial flow network,temporal flow network and deep flow network.Then LSTMs is used for feature fusion and behavior classification.Experimental results show that the recognition rate of UTDMHAD data set is 92.11%,which is an excellent performance compared with similar algorithms in this field.
Key words : action recognition;depth motion maps;DenseNet;optical flow

0     引言

  近年來,有關(guān)人體行為識(shí)別的研究層出不窮,現(xiàn)如今已成為計(jì)算機(jī)視覺研究中日益關(guān)注的熱點(diǎn)。其中,對視頻中目標(biāo)的行為識(shí)別一直以來都是一個(gè)非常活躍的研究領(lǐng)域。雖然在對于靜止圖像識(shí)別的研究上取得了很大的成功,但是對視頻類的行為識(shí)別如今仍是一個(gè)富有挑戰(zhàn)性的課題。

  在行為識(shí)別領(lǐng)域中,卷積神經(jīng)網(wǎng)絡(luò)得到了廣泛的應(yīng)用。早期的研究人員主要嘗試融合光流與RGB視頻幀來提高行為識(shí)別準(zhǔn)確率。RGB視頻內(nèi)的細(xì)節(jié)信息非常豐富,但缺乏深度信息,其識(shí)別準(zhǔn)確率常常受光照變化、陰影、物體遮擋等因素的干擾。如文獻(xiàn)[2]在2014年首次提出了創(chuàng)造性的雙流網(wǎng)絡(luò),通過從RGB視頻序列提取時(shí)空信息進(jìn)行識(shí)別;文獻(xiàn)[3]用基于長短期記憶的多尺度卷積神經(jīng)網(wǎng)絡(luò)來提取多層次表觀特征,從而學(xué)習(xí)長周期的高層時(shí)空特征;文獻(xiàn)[4]使用在ImageNet上進(jìn)行預(yù)訓(xùn)練的DenseNet來搭建雙流卷積神經(jīng)網(wǎng)絡(luò),從中提取空間和時(shí)間特征,然后微調(diào)來進(jìn)行單幀活動(dòng)預(yù)測。




本文詳細(xì)內(nèi)容請下載:http://m.xxav2194.com/resource/share/2000003117





作者信息:

張健,張永輝,何京璇

(海南大學(xué),海南 海口 570228)


此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。
主站蜘蛛池模板: 曰批免费视频播放免费| 国产成年无码v片在线| 好大好硬好深好爽想要之黄蓉| 欧美xxxx网站| 波多野结衣全部系列在线观看| 精品无码成人久久久久久| 色老头在线一区二区三区| 免费视频爱爱太爽了| 手机看片福利永久国产日韩| aisaobi| eeuss在线播放| 东北美女野外bbwbbw免费| 久久久久99人妻一区二区三区| 亚洲av无码国产精品麻豆天美| 丰满老妇女好大bbbbb| 一本加勒比HEZYO无码人妻| bollywoodtubesexvideos| 44444色视频在线观看| 美美哒韩国免费高清在线观看| 欧美重口绿帽video| 日本3p视频在线看高清| 坐公交车弄了2个小时小视频| 国产成人精品视频网站| 公与2个熄乱理在线播放| 亚洲一区二区三区影院| 一区二区三区在线免费观看视频| free性满足hd极品| 精品人妻系列无码人妻免费视频| 欧美午夜精品久久久久免费视| 手机看片福利永久国产日韩| 国产肥老上视频| 国产99视频在线观看| 亚洲国产成人在线视频| 久久电影网午夜鲁丝片免费 | 亚洲精品国精品久久99热一| 久久午夜无码鲁丝片直播午夜精品 | 正在播放暮町ゆう子在线观看| 日韩午夜福利无码专区a| 大香伊人久久精品一区二区| 国产在线一区二区三区av| 亚洲综合一二三|