《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 嵌入式技術(shù) > 設(shè)計(jì)應(yīng)用 > 基于卷積神經(jīng)網(wǎng)絡(luò)的手勢(shì)識(shí)別研究
基于卷積神經(jīng)網(wǎng)絡(luò)的手勢(shì)識(shí)別研究
2016年微型機(jī)與應(yīng)用第09期
操小文,薄華
(上海海事大學(xué) 信息工程學(xué)院,上海201306)
摘要: 傳統(tǒng)的手勢(shì)識(shí)別系統(tǒng)由特征提取和分類器組成,需要人工設(shè)計(jì)特征,但很難達(dá)到足夠滿意的效果且耗費(fèi)大量的時(shí)間。將卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于手勢(shì)識(shí)別,能直接把圖像數(shù)據(jù)輸入網(wǎng)絡(luò),且不用進(jìn)行復(fù)雜的前期預(yù)處理。卷積神經(jīng)網(wǎng)絡(luò)擁有很強(qiáng)的魯棒性和較低的復(fù)雜性,通過大量的仿真實(shí)驗(yàn),證明了該識(shí)別方法具有很好的識(shí)別效果,相比現(xiàn)有方法有較大的優(yōu)勢(shì)。
Abstract:
Key words :

  操小文,薄華

  (上海海事大學(xué) 信息工程學(xué)院,上海201306)

  摘要:傳統(tǒng)的手勢(shì)識(shí)別系統(tǒng)由特征提取和分類器組成,需要人工設(shè)計(jì)特征,但很難達(dá)到足夠滿意的效果且耗費(fèi)大量的時(shí)間。將卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于手勢(shì)識(shí)別,能直接把圖像數(shù)據(jù)輸入網(wǎng)絡(luò),且不用進(jìn)行復(fù)雜的前期預(yù)處理。卷積神經(jīng)網(wǎng)絡(luò)擁有很強(qiáng)的魯棒性和較低的復(fù)雜性,通過大量的仿真實(shí)驗(yàn),證明了該識(shí)別方法具有很好的識(shí)別效果,相比現(xiàn)有方法有較大的優(yōu)勢(shì)。

  關(guān)鍵詞:特征提取;卷積神經(jīng)網(wǎng)絡(luò);手勢(shì)識(shí)別;魯棒性

0引言

  隨著現(xiàn)有科學(xué)技術(shù)的發(fā)展,機(jī)器人技術(shù)[1]將會(huì)給人類帶來很大的便利,而人機(jī)交互[2]則是其中最重要的一環(huán)。因此,要讓機(jī)器人根據(jù)人的指示完成相應(yīng)的動(dòng)作,就必須要讓機(jī)器人“明白”人的指示。人們平時(shí)運(yùn)用最多的就是手勢(shì),而基于視覺的手勢(shì)識(shí)別技術(shù)涉及到模式識(shí)別[3]、圖像處理以及計(jì)算機(jī)視覺[4]等許多領(lǐng)域,是現(xiàn)在非常熱門的研究課題。目前國(guó)內(nèi)對(duì)基于視覺的手勢(shì)識(shí)別技術(shù)已展開了許多的研究工作。

  關(guān)于手勢(shì)識(shí)別[5]的常用算法有以下三種:(1)基于幾何特征[6]的手勢(shì)識(shí)別。將手勢(shì)的區(qū)域和邊緣特征用作待識(shí)別的特征,并采用各種距離公式進(jìn)行模板匹配。該方法有較強(qiáng)的適應(yīng)性和穩(wěn)定性,但是學(xué)習(xí)能力不足且效率不高,有很明顯的不足。(2)基于隱馬爾可夫模型的手勢(shì)識(shí)別。這是一種統(tǒng)計(jì)分析模型,其拓?fù)浣Y(jié)構(gòu)具有一般性,能夠很好地描述手勢(shì)信號(hào)的時(shí)空變化,適用于動(dòng)態(tài)手勢(shì)的識(shí)別,但是計(jì)算量過于龐大且速度緩慢,不能很好地滿足當(dāng)前應(yīng)用的需要。(3)基于人工神經(jīng)網(wǎng)絡(luò)[7]的手勢(shì)識(shí)別。具有較強(qiáng)的學(xué)習(xí)能力和抗干擾能力,而且網(wǎng)絡(luò)能很好地?cái)M合各類非線性映射,在擁有更快的計(jì)算速度的同時(shí)還有很強(qiáng)的魯棒性和泛化能力,但由于其對(duì)時(shí)間序列的處理能力不強(qiáng),主要應(yīng)用于靜態(tài)手勢(shì)識(shí)別[8],而對(duì)于動(dòng)態(tài)手勢(shì)的識(shí)別[9]則效果不佳。

  由以上分析可知,現(xiàn)有算法都有或多或少的缺陷,因此未能得到很好的應(yīng)用。而卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)在二維圖像處理中的獨(dú)特優(yōu)勢(shì),使其在手勢(shì)識(shí)別中的研究也漸漸開展。

1卷積神經(jīng)網(wǎng)絡(luò)

  傳統(tǒng)圖像識(shí)別[10]的分類模型如圖1所示。人工設(shè)計(jì)特征是一件非常耗時(shí)耗力的事情,必須要有非常深厚的專業(yè)知識(shí)和經(jīng)驗(yàn)才能確定出能用于正確分類的特征。然而卷積神經(jīng)網(wǎng)絡(luò)[11]則不需要人工設(shè)計(jì)特征,它能夠?qū)D像數(shù)據(jù)直接輸入網(wǎng)絡(luò)中,然后在輸出端即可給出分類結(jié)果。其分類模型如圖2所示。

  

001.jpg

  1.1CNN網(wǎng)絡(luò)結(jié)構(gòu)

  CNN包含有兩種特殊的神經(jīng)元層,分別是卷積層和下采樣層[12],其整個(gè)網(wǎng)絡(luò)結(jié)構(gòu)由卷積層(C)和下采樣層(S)交替出現(xiàn)最后與全連接層(F)相連所構(gòu)成,并在最后的輸出層給出結(jié)果。本文的網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。

  

002.jpg

  卷積操作其實(shí)是用一個(gè)卷積核[13](即特征矩陣)在圖像矩陣上移動(dòng),卷積核與圖像上相對(duì)位置的元素作乘積,最后將所得結(jié)果相加得到一個(gè)值。當(dāng)卷積核移動(dòng)完畢,所有值就構(gòu)成了一個(gè)新的圖像矩陣,即完成了對(duì)上一層的特征抽取。其數(shù)學(xué)表達(dá)式如(1)所示:

  I3@0%{4SPFNHVB2$SUCTL8I.png

  其中,f為激活函數(shù),一般為sigmoid或tanh;b為偏置項(xiàng)。

  下采樣則相當(dāng)于對(duì)特征進(jìn)行二次提取,這樣做是為了對(duì)上一層的特征進(jìn)行降維,減少計(jì)算量并且避免因特征過多導(dǎo)致出現(xiàn)過擬合。經(jīng)過降維后的特征更能刻畫出圖像的一般性,更加適用于分類[14],并可以增強(qiáng)網(wǎng)絡(luò)結(jié)構(gòu)對(duì)位移的魯棒性。

  下采樣的一般形式如式(2):

  xij=down(xi-1j)(2)

  down(·) 為下采樣函數(shù),與卷積操作類似,其也是對(duì)一個(gè)區(qū)域的加權(quán)求和,若用n×n大小的窗口進(jìn)行下采樣,最終的圖像大小將會(huì)是輸入圖像的1/n。

  1.2基于卷積神經(jīng)網(wǎng)絡(luò)的算法及訓(xùn)練過程

  本文所采用的網(wǎng)絡(luò)結(jié)構(gòu)有8層,包含輸入層、3層卷積層、3層下采樣層、1層全連接層。與參考文獻(xiàn)[8]相比,本文所用網(wǎng)絡(luò)多了一層卷積層和一層下采樣層,且卷積核大小設(shè)置也不一樣。本文將網(wǎng)絡(luò)的學(xué)習(xí)速率(alpha)設(shè)置為0.2,批次大小(batchsize)設(shè)置為20,迭代次數(shù)(numepochs)設(shè)置為150。且卷積核和各偏置等參數(shù)的初始值均隨機(jī)產(chǎn)生,輸入樣本后通過前向傳播和反向傳播算法對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練來更新參數(shù)。其中每層所做的操作如下:

  (1)輸入層是已經(jīng)歸一化為48×48的圖像,經(jīng)二值化處理后即可輸入網(wǎng)絡(luò)。

  (2)C1網(wǎng)絡(luò)層是對(duì)輸入圖像進(jìn)行卷積所得結(jié)果,本文使用7×7的卷積核對(duì)輸入圖像進(jìn)行特征抽取,該層特征圖為3張,大小為42×42。

  (3)S2網(wǎng)絡(luò)層是對(duì)C1層進(jìn)行的抽樣,抽樣窗口大小為2×2,此時(shí)特征圖數(shù)量仍為3張,大小為21×21。

  (4)C3是對(duì)S2的卷積操作,卷積核大小設(shè)置為6×6,特征圖為5張,大小為16×16。

  (5)S4網(wǎng)絡(luò)層(同S2),為第二個(gè)下采樣層,抽樣窗口仍是2×2,特征圖為5張,大小為8×8。

  (6)C5是第三個(gè)卷積層,卷積核大小為5×5,此時(shí)圖像大小為4×4,特征圖數(shù)量設(shè)置為7張。

  (7)S6是第三個(gè)下采樣層,經(jīng)2×2的抽樣窗口后大小是2×2,圖像數(shù)量為7張。

  (8)F7層是全連接層,是把S6層的特征數(shù)據(jù)向量化后連接到輸出層。根據(jù)分類的類別數(shù),本文的輸出層有三個(gè)神經(jīng)元,即分三類。

  整個(gè)網(wǎng)絡(luò)結(jié)構(gòu)確定后,利用前向傳播(fp)、反向傳播(bp)等算法確定網(wǎng)絡(luò)參數(shù),這樣整個(gè)網(wǎng)絡(luò)就訓(xùn)練完畢。

2仿真實(shí)驗(yàn)

  2.1手勢(shì)圖像的預(yù)處理

  雖然CNN可以直接輸入原始圖像,但是簡(jiǎn)單的預(yù)處理可以使最終識(shí)別效果更好而又不耗費(fèi)太多時(shí)間。

  本文將圖像進(jìn)行灰度和二值化處理,最終歸一化到48×48作為試驗(yàn)的最終輸入數(shù)據(jù),如圖4所示。

 

004.jpg

  2.2實(shí)驗(yàn)結(jié)果及分析

  本文的實(shí)驗(yàn)數(shù)據(jù)均為作者自己拍攝,手勢(shì)總共有3種,分別是指向手勢(shì)1、勝利手勢(shì)2、搖滾手勢(shì)3,如圖5所示。當(dāng)用設(shè)備拍攝時(shí),保持設(shè)備與手的位置基本不變,在限制范圍內(nèi),手可以任意旋轉(zhuǎn)、平移,方向不定。

  

004.jpg

  對(duì)于神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),樣本的多少對(duì)最終學(xué)習(xí)效果有很大的影響。樣本過少會(huì)使網(wǎng)絡(luò)無法學(xué)習(xí)到圖像的有效特征,降低識(shí)別效率。因此本文拍攝了大量的樣本來進(jìn)行試驗(yàn),從各類手勢(shì)中選取2 500個(gè)訓(xùn)練樣本和500個(gè)測(cè)試樣本。取其迭代10次的平均識(shí)別率作為該方法的最終識(shí)別率。

  (1)分別用圖像的灰度圖和二值圖進(jìn)行試驗(yàn),結(jié)果如表1、表2所示。

006.jpg 

  由以上結(jié)果可知,卷積神經(jīng)網(wǎng)絡(luò)在手勢(shì)識(shí)別中擁有較高的識(shí)別率,且在單一背景下因手的灰度與周圍環(huán)境的反差,用二值圖像能獲得更好的識(shí)別率。后續(xù)試驗(yàn)均采用二值化圖像進(jìn)行。

  (2)為了驗(yàn)證該網(wǎng)絡(luò)結(jié)構(gòu)的魯棒性,模擬真實(shí)情況下的場(chǎng)景,給圖像加上3種不同程度的噪聲和3種不同程度的運(yùn)動(dòng)模糊。如圖6所示。

 

005.jpg

 

  實(shí)驗(yàn)結(jié)果如表3~表8所示。

007.jpg

  由上述結(jié)果可知,給圖像加了噪聲和運(yùn)動(dòng)模糊后,各類手勢(shì)的識(shí)別率均有所下降,且受影響最大的為手勢(shì)3,可能因?yàn)槭謩?shì)3最復(fù)雜,所包含的特征數(shù)最多,在噪聲和模糊的影響下所掩蓋的特征最多,導(dǎo)致識(shí)別率下降最快。但是在一定程度內(nèi),識(shí)別率雖有所下降但依舊維持在一個(gè)較高的水準(zhǔn),表明該網(wǎng)絡(luò)確實(shí)有很強(qiáng)的魯棒性,沒有因?yàn)樵肼暫湍:拇嬖诙霈F(xiàn)較大的異常,完全可以滿足現(xiàn)有的應(yīng)用需要。

3結(jié)論

  卷積神經(jīng)網(wǎng)絡(luò)避免了對(duì)圖像前期復(fù)雜的預(yù)處理,不用去人工設(shè)計(jì)和提取特征,節(jié)省了大量的時(shí)間和人工成本。其獨(dú)特的卷積-下采樣結(jié)構(gòu)使其擁有很強(qiáng)的容忍畸變的能力,而獨(dú)有的權(quán)值共享則極大地縮減了網(wǎng)絡(luò)的訓(xùn)練參數(shù),大大降低了計(jì)算量,且使其擁有更簡(jiǎn)單的網(wǎng)絡(luò)結(jié)構(gòu)和更強(qiáng)的適應(yīng)能力,給圖像處理領(lǐng)域帶來了極大的方便。

  本文通過大量的仿真實(shí)驗(yàn),驗(yàn)證了卷積神經(jīng)網(wǎng)絡(luò)在手勢(shì)識(shí)別中的高效性和強(qiáng)魯棒性,具有很好的應(yīng)用前景。后續(xù)可以通過對(duì)網(wǎng)絡(luò)結(jié)構(gòu)和算法的一些改進(jìn),進(jìn)一步降低其在手勢(shì)識(shí)別中的誤識(shí)率。

參考文獻(xiàn)

  [1] 劉江華,程君實(shí),陳佳品.基于視覺的動(dòng)態(tài)手勢(shì)識(shí)別及其在仿人機(jī)器人交互中的應(yīng)用[J]. 機(jī)器人, 2002,24(3):4651.

  [2] 王茂吉.基于視覺的靜態(tài)手勢(shì)識(shí)別系統(tǒng)[D]. 哈爾濱:哈爾濱工業(yè)大學(xué),2006.

  [3] 孫世輝.基于視覺的復(fù)雜背景下手勢(shì)識(shí)別方法的研究[D]. 大連:大連海事大學(xué),2014.

  [4] 王振,高茂庭.基于卷積神經(jīng)網(wǎng)絡(luò)的圖像識(shí)別算法設(shè)計(jì)與實(shí)現(xiàn)[J].現(xiàn)代計(jì)算機(jī),2015,34(7):6166.

  [5] 張圓圓.基于視覺的手勢(shì)識(shí)別技術(shù)及其應(yīng)用研究[J].計(jì)算技術(shù)與自動(dòng)化,2015,34(1):131135.

  [6] 殷倩倩.基于計(jì)算機(jī)視覺的靜態(tài)手勢(shì)識(shí)別[D]. 上海:復(fù)旦大學(xué),2014.

  [7] 陳先昌.基于卷積神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)算法與應(yīng)用研究[D].杭州:浙江工商大學(xué),2013.

  [8] 劉飛飛.基于視覺的實(shí)時(shí)手勢(shì)識(shí)別及應(yīng)用[D]. 西安:長(zhǎng)安大學(xué),2015.

  [9] 王西穎,戴國(guó)忠,張習(xí)文,等.基于HMMFNN模型的復(fù)雜動(dòng)態(tài)手勢(shì)識(shí)別[J]. 軟件學(xué)報(bào), 2008,19(9):2529.

  [10] 楊耿,和衛(wèi)星.運(yùn)動(dòng)目標(biāo)圖像識(shí)別與跟蹤系統(tǒng)的研究[J].計(jì)算機(jī)測(cè)量與控制,2005,13(3):267269.

  [11] LECUN Y, BOTTOU L, BENGIO Y, et al. Gradientbased learning applied to document recognition[J]. Proceedings of the IEEE, 1998,86(11):22782324.

  [12] 趙志宏,楊紹普,馬增強(qiáng).基于卷積神經(jīng)網(wǎng)絡(luò)LeNet5的車牌字符識(shí)別研究[J].系統(tǒng)仿真學(xué)報(bào),2010,22(3):638641.


此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。
欧美激情办公室aⅴ_国产欧美综合一区二区三区_欧美午夜精品久久久久免费视_福利视频欧美一区二区三区

          欧美一区二区视频97| 美女视频网站黄色亚洲| 黄网动漫久久久| 国产精品入口日韩视频大尺度| 欧美精品久久久久a| 欧美大秀在线观看| 米奇777在线欧美播放| 久久久久久亚洲精品不卡4k岛国| 欧美一区二区三区的| 亚洲欧美一区二区视频| 亚洲欧美成人精品| 亚洲永久免费观看| 亚洲直播在线一区| 亚洲永久免费| 亚洲欧美另类在线| 亚洲欧美综合| 性做久久久久久免费观看欧美| 亚洲专区一二三| 亚洲欧美日韩精品久久久| 亚洲伊人一本大道中文字幕| 亚洲无毛电影| 香蕉av777xxx色综合一区| 欧美一区成人| 久久久久久久久久久成人| 久久婷婷丁香| 欧美jizzhd精品欧美喷水| 欧美成人性生活| 欧美精品色网| 欧美日韩日本国产亚洲在线| 欧美性大战久久久久久久| 国产精品青草综合久久久久99 | 猫咪成人在线观看| 欧美大片在线观看一区| 欧美日韩国产在线播放| 欧美午夜大胆人体| 国产日韩欧美一区在线| 精品动漫一区| 99视频在线观看一区三区| 亚洲愉拍自拍另类高清精品| 久久爱www久久做| 麻豆久久婷婷| 欧美日韩精品免费看| 国产精品欧美久久| 合欧美一区二区三区| 亚洲精品在线视频观看| 亚洲欧美日韩精品久久奇米色影视 | 亚洲精品国产品国语在线app| 99这里只有久久精品视频| 亚洲欧美日韩直播| 麻豆久久久9性大片| 欧美日韩一区二区三区在线观看免| 国产精品亚洲一区| 亚洲第一级黄色片| 亚洲一级影院| 久久伊人亚洲| 国产精品久久二区| 影院欧美亚洲| 亚洲一区二区成人在线观看| 噜噜噜躁狠狠躁狠狠精品视频 | 久久精品中文字幕免费mv| 欧美成人免费一级人片100| 国产精品国产三级国产专播精品人| 国产主播在线一区| 一区二区三区欧美| 久久一区二区三区av| 国产精品普通话对白| 亚洲国产另类久久久精品极度| 亚洲永久精品国产| 欧美精品一区二区三区在线看午夜 | 亚洲一区二区在线观看视频| 久久婷婷久久| 国产乱肥老妇国产一区二 | 国产精品丝袜xxxxxxx| 91久久精品国产91久久性色| 欧美一区二区三区电影在线观看| 欧美精品一区在线观看| 韩国精品在线观看| 亚洲一级在线观看| 欧美高清视频一二三区| 国产综合激情| 亚洲欧美日本精品| 欧美日韩国产精品专区| 亚洲成人在线网| 欧美制服丝袜| 国产精品久久久久久亚洲调教 | 欧美视频在线一区二区三区| 在线观看欧美日韩| 欧美在线视频一区二区| 国产精品久久久久国产a级| 亚洲精品韩国| 久久视频一区二区| 国产伊人精品| 性做久久久久久免费观看欧美| 欧美特黄一级大片| 日韩网站在线| 欧美激情日韩| 亚洲激情电影在线| 久久综合九色综合欧美就去吻| 国产九区一区在线| 亚洲一区视频在线| 国产精品chinese| 一本色道久久综合亚洲精品高清| 欧美大片在线观看一区| 伊人久久婷婷色综合98网| 欧美中文字幕在线| 国产欧美日韩综合| 午夜精品亚洲| 国产精品一区一区| 亚洲欧美怡红院| 国产精品欧美日韩一区| 亚洲欧美区自拍先锋| 国产精品久久午夜夜伦鲁鲁| 中文亚洲字幕| 国产精品a级| 亚洲欧美日本日韩| 国产精品一区毛片| 欧美一区二区三区免费观看| 国产区日韩欧美| 欧美综合二区| 合欧美一区二区三区| 久久免费视频观看| 亚洲第一在线视频| 欧美激情视频一区二区三区在线播放| 亚洲国产精品久久久| 免费观看久久久4p| 亚洲国产日韩欧美一区二区三区| 欧美成人按摩| 日韩视频在线一区二区三区| 欧美日韩在线影院| 亚洲你懂的在线视频| 国产欧美高清| 久久久精品tv| 亚洲国产成人午夜在线一区 | 毛片一区二区三区| 亚洲区在线播放| 欧美日韩精品三区| 亚洲一区二区三区免费在线观看| 国产精品黄色| 久久精品av麻豆的观看方式| 亚洲成人在线| 欧美色图麻豆| 欧美一区二区三区日韩视频| 激情丁香综合| 欧美连裤袜在线视频| 亚洲在线1234| 国自产拍偷拍福利精品免费一| 欧美h视频在线| 亚洲视频在线视频| 国产性猛交xxxx免费看久久| 麻豆精品传媒视频| 在线亚洲+欧美+日本专区| 国产一区二区毛片| 欧美激情小视频| 亚洲综合成人在线| 尤物yw午夜国产精品视频明星| 欧美精品在线观看91| 午夜久久久久久| 亚洲国产精品黑人久久久| 欧美先锋影音| 久久在线免费视频| 宅男噜噜噜66国产日韩在线观看| 国产亚洲综合精品| 欧美日本韩国一区二区三区| 新狼窝色av性久久久久久| 亚洲国产91| 国产精品私房写真福利视频| 美女诱惑黄网站一区| 亚洲免费婷婷| 亚洲国产精品尤物yw在线观看| 国产精品激情av在线播放| 麻豆免费精品视频| 午夜精品影院在线观看| 亚洲精品偷拍| 狠狠色狠狠色综合日日91app| 欧美日韩一区二区三| 久久在线精品| 香蕉久久夜色精品| 亚洲精品国产无天堂网2021| 国产一区二区激情| 欧美日韩中文字幕综合视频| 久久综合九色综合欧美就去吻| 亚洲伊人伊色伊影伊综合网| 亚洲激情视频在线播放| 国产日本欧洲亚洲| 欧美日韩一区二区三区在线 | 最新国产乱人伦偷精品免费网站| 国产精品午夜春色av| 欧美美女福利视频| 久久影视三级福利片| 性欧美8khd高清极品| 一区二区三区国产盗摄| 亚洲国产成人高清精品| 国产原创一区二区| 国产精品一区二区你懂得 | 亚洲天堂男人| 亚洲精品视频啊美女在线直播| 国产亚洲精品7777| 国产精品日韩在线播放| 欧美色一级片| 欧美精品在线看|