《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 其他 > 設(shè)計(jì)應(yīng)用 > 基于歐氏距離解纏的多角度跨庫(kù)人臉表情識(shí)別
基于歐氏距離解纏的多角度跨庫(kù)人臉表情識(shí)別
信息技術(shù)與網(wǎng)絡(luò)安全 11期
梁 廣
(中國(guó)科學(xué)技術(shù)大學(xué) 網(wǎng)絡(luò)空間安全學(xué)院,安徽 合肥230026)
摘要: 當(dāng)前,人臉表情的識(shí)別受數(shù)據(jù)庫(kù)偏差和姿勢(shì)角度差異的影響。為了解決這個(gè)問(wèn)題,提出了一個(gè)基于特征解纏的跨數(shù)據(jù)庫(kù)無(wú)監(jiān)督學(xué)習(xí)模型。該模型包含三個(gè)主要策略:基于歐氏距離的多屬性解纏策略,表情特征內(nèi)部的對(duì)比學(xué)習(xí)策略,對(duì)抗領(lǐng)域自適應(yīng)策略。該方法首先得到表情、姿勢(shì)和庫(kù)相關(guān)的特征,并在歐氏空間解纏不同屬性的特征。對(duì)比學(xué)習(xí)可以使相同表情標(biāo)簽的特征逼近,不同表情標(biāo)簽的特征疏遠(yuǎn)。對(duì)抗領(lǐng)域自適應(yīng)策略使得未被學(xué)習(xí)的目標(biāo)庫(kù)樣本和已學(xué)習(xí)過(guò)的源庫(kù)樣本的特征分布逼近。該方法在8個(gè)公開(kāi)的數(shù)據(jù)庫(kù)上展開(kāi)實(shí)驗(yàn),得到了充分的驗(yàn)證。
中圖分類號(hào): TP37
文獻(xiàn)標(biāo)識(shí)碼: A
DOI: 10.19358/j.issn.2096-5133.2021.11.005
引用格式: 梁廣. 基于歐氏距離解纏的多角度跨庫(kù)人臉表情識(shí)別[J].信息技術(shù)與網(wǎng)絡(luò)安全,2021,40(11):29-36.
Euclidean distance disentanglement adaptive method for multi-view cross-database facial expression recognition
Liang Guang
(School of Cyberspace Science and Technology,University of Science and Technology of China,Hefei 230026,China)
Abstract: At present, the accuracy of face expression recognition is affected by database biases and posture variations. To solve this problem, this paper proposes a novel cross-database unsupervised learning model based on feature disentanglement. There are three strategies in this model:multiple attribute features disentanglement, contrastive learning within face expression feature, adversarial domain adaptation. The feature disentanglement can get expression-related, pose-related and database-related features, and try to separate the features of different attributes. Contrastive learning can make expression features of the same label closer, and expression features of the different labels as far apart as possible. Adversarial domain adaptive learning makes the unseen sample′s features closer to sample′s features of the training database. Our experiments are carried out on 8 databases and achieved state of the art results.
Key words : facial expression recognition;feature disentanglement;cross database;contrastive learning

0 引言

如今,人臉表情識(shí)別相關(guān)研究的熱度逐漸上升。相應(yīng)的技術(shù)也應(yīng)用于教育質(zhì)量評(píng)估、刑事審訊等多個(gè)領(lǐng)域。然而,當(dāng)前的很多研究主要關(guān)注于相同數(shù)據(jù)庫(kù)上的人臉表情識(shí)別,即訓(xùn)練樣本和測(cè)試樣本都來(lái)自于同一個(gè)數(shù)據(jù)庫(kù)。由于不同表情數(shù)據(jù)庫(kù)在人種、背景和光照等存在差異,表情識(shí)別的效果受到很大的影響[1]。同時(shí),人臉圖片也包含多個(gè)不同姿勢(shì),不同姿勢(shì)之間的差異也導(dǎo)致了表情識(shí)別準(zhǔn)確率的下降。研究者當(dāng)前也在研究降低數(shù)據(jù)庫(kù)和姿勢(shì)所帶來(lái)影響的方法。

由于姿勢(shì)的差異對(duì)表情識(shí)別有明顯的影響,研究人員提出了三大類方法來(lái)消除表情識(shí)別中的姿態(tài)差異:姿勢(shì)規(guī)范化方法[2];單分類器方法[3-4];姿勢(shì)魯棒的特征方法[5-8]。由于正臉的表情識(shí)別準(zhǔn)確率高于側(cè)臉,研究者使用姿勢(shì)規(guī)范化的方法將側(cè)臉圖像轉(zhuǎn)換成正臉圖像來(lái)進(jìn)行識(shí)別表情。然而,用來(lái)測(cè)試的目標(biāo)數(shù)據(jù)庫(kù)通常缺失同一個(gè)人的正-側(cè)臉數(shù)據(jù)對(duì)。這也導(dǎo)致了側(cè)臉圖像在通過(guò)生成式對(duì)抗網(wǎng)絡(luò)[9](Generative Adversarial Networks,GAN)生成正臉的過(guò)程中存在失真,影響表情識(shí)別效果。對(duì)于單分類器方法,研究者使用單個(gè)分類器來(lái)識(shí)別多種姿勢(shì)下的表情。這種方法需要大量不同姿勢(shì)的圖像來(lái)訓(xùn)練單一分類器,而現(xiàn)實(shí)中很難得到足夠多的多角度圖像。而姿勢(shì)魯棒的特征方法嘗試訓(xùn)練一個(gè)編碼器來(lái)生成對(duì)姿勢(shì)差異魯棒的表情特征。這種方法在特征層面降低了表情特征中的姿勢(shì)噪聲,同時(shí)不需要大量的目標(biāo)數(shù)據(jù)庫(kù)樣本,也無(wú)需生成偽樣本。因此本模型選擇了姿勢(shì)魯棒的特征方法來(lái)降低姿勢(shì)差異。




本文詳細(xì)內(nèi)容請(qǐng)下載:http://m.xxav2194.com/resource/share/2000003845





作者信息:

梁  廣

(中國(guó)科學(xué)技術(shù)大學(xué) 網(wǎng)絡(luò)空間安全學(xué)院,安徽 合肥230026)


此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。
主站蜘蛛池模板: 成人性生免费视频| 久久中文字幕人妻丝袜| 久久无码人妻一区二区三区午夜| 亚洲永久中文字幕在线| 亚洲av日韩综合一区尤物| 久久久久久青草大香综合精品| 一本色道久久88亚洲精品综合| 91老湿机福利免费体验| 香蕉视频在线看| aⅴ在线免费观看| 老司机在线免费视频| 污视频网站在线观看免费| 日韩电影免费在线观看视频| 少妇特殊按摩高潮惨叫无码| 国产精品综合在线| 国产一区二区精品久久凹凸| 亚洲色偷偷色噜噜狠狠99网| 久久精品国产99国产精偷| xl上司带翻译无马赛樱花| 亚洲第一成人在线| 精品无码一区二区三区爱欲| 欧美又大又粗又爽视频| 成人黄色免费网址| 国产精品久久久福利| 午夜影视在线免费观看| 亚洲AV无码潮喷在线观看| 一级做a爱片特黄在线观看免费看| 豆奶视频最新官网| 精品久久久久成人码免费动漫| 最近完整中文字幕2019电影| 孕交动漫h无遮挡肉| 国产女主播喷水视频在线观看| 伊人这里只有精品| 久久久久亚洲AV无码专区桃色 | 欧美性天天影院| 成人18在线观看| 国产小呦泬泬99精品| 亚洲第一极品精品无码久久| 中文字幕第233页| 人人澡人人澡人人看添欧美| 特级做a爰片毛片免费看一区|