《電子技術應用》
您所在的位置:首頁 > 通信與網絡 > 設計應用 > 基于標簽嵌入的多模態多標簽情感識別算法
基于標簽嵌入的多模態多標簽情感識別算法
網絡安全與數據治理 2022年 第1期
張 超,張信明
(中國科學技術大學 大數據學院,安徽 合肥230026)
摘要: 多模態情感分析目前是多模態分析和自然語言處理領域的研究熱點,在商品推薦、智能客服等場景中具有廣泛的應用。現有的方法在多標簽場景下對標簽間依賴性表示不充分,并且忽略了模態特征之間語義差距。對此提出了一種基于標簽嵌入的多模態多標簽情感識別算法,通過訓練的標簽嵌入向量捕獲標簽之間依賴關系,對模態特征添加約束減小模態之間的語義差距。實驗結果顯示,該算法在多模態多標簽情感識別任務中在準確率和漢明損失指標上相較于現有方法有明顯提升。
中圖分類號: TP391.1
文獻標識碼: A
DOI: 10.20044/j.csdg.2097-1788.2022.01.016
引用格式: 張超,張信明. 基于標簽嵌入的多模態多標簽情感識別算法[J].網絡安全與數據治理,2022,41(1):101-107.
Label embedding based multimodal multi-label emotion recognition
Zhang Chao,Zhang Xinming
(School of Data Science,University of Science and Technology of China,Hefei 230026,China)
Abstract: Multimodal utterance-level emotion recognition has been a hot topic in both multimodal analysis and natural language processing communities which has a variety of applications such as product recommendation and intelligent customer service. Previous methods do not adequately represent inter-label dependencies in multi-label scenarios and ignore the semantic gap between modality features. The proposed method uses learned label embedding to capture label dependency and adds a constraint to modality features aiming at learning modality-invariant representations to reduce the modality gap. Detailed experimental results demonstrate that the proposed method has a significant improvement on accuracy and hamming loss on the multi-modal multi-label emotion recognition task compared with existing methods.
Key words : multimodal;emotion recognition;multi-label;label embedding

0 引言

隨著互聯網與社交媒體的不斷發展,越來越多的人使用包含文本、語音、圖像在內的多模態數據在社交媒體上表達自己的看法或觀點。海量的多模態數據中蘊含著豐富的情感信息,對多模態數據進行情感分析有利于了解人們對某些事件的態度和看法,在輿論監控、商品推薦、股市預測等方面具有很大的應用價值。此外,近年來的研究表明,與單模態情感識別模型相比,多模態模型在處理社交媒體數據時具有更強的魯棒性,并在識別準確率方面取得了顯著的改進[1]。不同的模態信息可能暗含著不同的情緒,如圖1所示,可能從文本信息中只能推斷出厭惡的情緒,而從視覺和語音的組合信息中推斷出悲傷和生氣的情緒,因此必須充分融合來自不同模態的信息才能準確識別出多模態數據中的情感信息。

盡管目前多模態情感分析在模型性能方面已經取得了較好的效果,但是仍然存在兩個問題需要解決。第一個問題是情感識別在現實場景中通常是一個多標簽分類問題,如何對標簽依賴關系建模并使用標簽信息是一項具有挑戰性的任務。目前大多數工作將多標簽分類問題轉換為多個二分類問題,而忽視了標簽之間的依賴性。另一個問題是異構模態信號之間的巨大語義差異,使得模態特征難以直接融合。

目前關于多模態情感分析的研究主要集中在設計高效的模態融合機制。Zadeh等[2]利用張量的外積來對不同模態之間的相互作用進行建模,Tsai等[3]提出了基于注意力的模型,使用跨模態注意力融合來自不同模態的信息。盡管這些模型在多模態情感識別任務中取得了良好的效果,但是忽略了模態特征之間的語義差異,影響了多模態特征融合的效果。Ju等[4]提出了基于序列生成的模型來解決多模態多標簽情感識別問題,利用序列生成的方式對標簽之間依賴關系建模,但是這種方法依賴于預先定義的標簽順序并且計算效率低。

本文提出了一種基于標簽嵌入的多模態多標簽情感識別算法,即使用標簽嵌入向量對標簽依賴性建模,使用模態不變表示來減少模態語義差異。首先,鑒于情感標簽包含著豐富的信息,本文使用標簽之間的共現信息來學習多模態情感標簽嵌入。然后,使用CMD分布度量[5]限制不同模態特征的分布差距,獲得模態不變表示,這種限制有助于縮小不同模態之間的語義差距,從而使用更簡單的融合方法融合不同模態特征。最后,將所有的模態特征連接起來,利用學習到的標簽嵌入和融合特征完成情感識別任務。

本文在一個公開的多模態多標簽情感數據集CMU-MOSEI上進行了廣泛的實驗,以評估方法性能。實驗結果表明,該方法能夠有效地融合模態特征并且對標簽依賴進行建模。本文主要貢獻有:

(1)使用標簽的共現信息來學習標簽嵌入,用標簽嵌入來表示標簽依賴關系。

(2)考慮了模態特征之間的語義差距,通過在損失函數中添加對模態特征的約束來減小模態特征語義差距。

(3)MOSEI數據集的實驗結果表明,該方法在多模態多標簽情感識別任務上相較于現有方法,性能有明顯提升。




本文詳細內容請下載:http://m.xxav2194.com/resource/share/2000004619




作者信息:

張  超,張信明

(中國科學技術大學 大數據學院,安徽 合肥230026)


此內容為AET網站原創,未經授權禁止轉載。
主站蜘蛛池模板: 日韩电影免费在线观看网站| 一边摸一边叫床一边爽| 蜜芽忘忧草二区老狼果冻传媒| 天天爽夜夜爽人人爽| 久久精品无码一区二区日韩av| 激情内射日本一区二区三区 | 国产香蕉一区二区三区在线视频| 久久不见久久见免费影院www日本| 欧美性理论片在线观看片免费| 免费黄网站大全| 韩国色三级伦不卡高清在线观看| 国内自拍视频一区二区三区| 中文字幕免费在线看线人动作大片| 樱桃视频影院在线观看| 亚洲高清免费在线观看| 色婷婷精品免费视频| 国产真实伦在线观看| 99久久精品午夜一区二区| 成人毛片免费观看| 久久精品国产亚洲av麻豆色欲 | 国产在线精品一区二区| 68日本xxxⅹxxxxx18| 女人是男人的未来的人| 丰满岳乱妇在线观看中字无码| 欧洲美女与动性zozozo| 亚洲精品动漫人成3d在线| 精品国产一区二区三区久久| 国产在线视频一区二区三区| 一区两区三不卡| 多人交换伦交视频| 一本色道久久88| 无翼乌工口肉肉无遮挡无码18| 亚洲av午夜成人片精品网站| 欧美色成人tv在线播放| 免费a级毛片网站| 精品视频中文字幕| 国产乡下三级全黄三级| 91丁香亚洲综合社区| 国产精品久久福利网站| 97久久精品人妻人人搡人人玩| 波多野结衣办公室33分钟|