《電子技術應用》
您所在的位置:首頁 > 其他 > 設計應用 > 基于雙注意力和多區域檢測的細粒度圖像分類
基于雙注意力和多區域檢測的細粒度圖像分類
2022年電子技術應用第8期
潘新辰,楊小健,秦 嶺
南京工業大學 計算機科學與技術學院,江蘇 南京211816
摘要: 有效地檢測具有辨別性的局部區域和更準確地提取圖像的細粒度特征有助于提高細粒度圖像的分類效果。為此,提出了一種結合雙注意力機制和多區域檢測的細粒度圖像分類方法。多區域檢測旨在通過類別標簽學習定位到具有辨別性的圖像區域,然后通過特征提取網絡提取辨別性局部區域的特征并與全局特征相融合。同樣,更精確的特征提取網絡能夠提取圖像細粒度的特征。因此,通過將雙注意力機制和多區域檢測相結合,所提出的方法在3個公開的細粒度圖像數據集CUB-200-2011、StanfordCars和FGVC Aircraft上分別達到了88.3%、94.5%和92.3%的準確率。
中圖分類號: TP301.6
文獻標識碼: A
DOI:10.16157/j.issn.0258-7998.211980
中文引用格式: 潘新辰,楊小健,秦嶺. 基于雙注意力和多區域檢測的細粒度圖像分類[J].電子技術應用,2022,48(8):117-122.
英文引用格式: Pan Xinchen,Yang Xiaojian,Qin Ling. Fine-grained image classification based on dual attentions and multi-region detection[J]. Application of Electronic Technique,2022,48(8):117-122.
Fine-grained image classification based on dual attentions and multi-region detection
Pan Xinchen,Yang Xiaojian,Qin Ling
Computer Science and Technology,Nanjing University of Technology,Nanjing 211816,China
Abstract: Effectively detecting discriminative local areas and more accurately extracting fine-grained features of images will help improve the classification effect of fine-grained images. For this reason, a fine-grained image classification method combining dual attention mechanism and multi-region detection is proposed. Multi-region detection aims to locate discriminative image regions through class label learning, and then extract the features of the discriminative local regions through a feature extraction network and merge them with global features. Similarly, a more precise feature extraction network can extract fine-grained features of an image. Therefore, by combining the dual attention mechanism and multi-region detection, the proposed method respectively achieves 88.3%, 94.5% and 92.3% accuracy on three public fine-grained image datasets, CUB-200-2011, StanfordCars and FGVC Aircraft.
Key words : fine-grained image classification;attention mechanism;regional detection;convolutional neural network;feature extraction;feature group

0 引言

    目前,深度學習技術已被廣泛應用于圖像分類領域,細粒度圖像分類旨在區分同種對象的不同類別。相較于傳統圖像分類,細粒度圖像分類的難點在于:(1)不同類別之間的高相似性,難以找到具有辨別性的區域并提取細節特征;(2)同一種類別之間由于圖像視角、光照、背景和遮擋等因素的變化也存在著一定的差異性。因此,如何定位具有辨別性的局部區域,以及如何更精確地提取細粒度特征,成為目前細粒度圖像分類方法的主要研究方向。

    為了檢測具有辨別性的局部區域,一些方法[1-2]通過人工標注的方式對細粒度圖像中具有辨別性的區域進行標注,然后通過網絡學習定位辨別性局部區域,從而提高網絡模型的分類準確性,需要花費大量的時間、人力對圖像進行標注,成本太大。還有一些方法[3-4]利用類別標簽以弱監督的方式來學習具有辨別性的局部區域,這類方法雖然不能夠達到使用人工標注的標簽進行監督學習的效果,但額外成本幾乎為零。

    注意力機制作為提升網絡特征提取能力的重要手段[5]主要分為通道注意力機制和空間注意力機制,通道注意力機制可以學習到不同通道間的權重關系,空間注意力機制可以學習不同像素間的依賴關系。合理利用以上兩個注意力機制能夠更細粒度提取圖像的特征,從而能夠更好地進行分類。




本文詳細內容請下載:http://m.xxav2194.com/resource/share/2000004663




作者信息:

潘新辰,楊小健,秦  嶺

(南京工業大學 計算機科學與技術學院,江蘇 南京211816)



wd.jpg

此內容為AET網站原創,未經授權禁止轉載。
主站蜘蛛池模板: 国产福利1000| 日本中文字幕在线视频| 公的大龟慢慢挺进我的体内视频| 香蕉免费一级视频在线观看| 性做久久久久久| 久久综合久久鬼色| 水蜜桃视频在线免费观看| 四虎影视永久地址www成人| 亚洲精品短视频| 天天摸天天碰天天爽天天弄| 久久久久99精品成人片试看| 欧美亚洲国产精品久久高清| 伊人影院在线视频| 色噜噜噜噜亚洲第一| 国产熟睡乱子伦午夜视频| HUGEBOOBS熟妇大波霸| 成年人性生活片| 久久精品视频国产| 欧美日韩电影在线播放网| 免费看午夜影豆网| 色妞色综合久久夜夜| 国产成人综合日韩精品无| 8x成年视频在线观看| 女人与拘做受AAAAA片| 中文字幕日韩人妻不卡一区| 日韩精品一区二区亚洲av观看| 亚洲成人在线电影| 男人扒开女人腿使劲桶动态图| 国产一区二区在线视频| 久久精品人人槡人妻人人玩 | 天天色天天射天天干| 中文字幕日韩欧美一区二区三区 | 校园亚洲春色另类小说合集| 亚洲美女视频免费| 精品国产一区二区三区久久| 国产乱人视频在线看| 久草视频在线免费| 国产精品无码久久久久久| aaaaa级少妇高潮大片| 成人18xxxx网站| 丰满少妇高潮惨叫久久久|