《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 人工智能 > 設(shè)計(jì)應(yīng)用 > 基于Anchor-free架構(gòu)的行人檢測(cè)方法
基于Anchor-free架構(gòu)的行人檢測(cè)方法
2020年信息技術(shù)與網(wǎng)絡(luò)安全第4期
張慶伍,關(guān)勝曉
(中國(guó)科學(xué)技術(shù)大學(xué) 微電子學(xué)院,安徽 合肥 230026)
摘要: 使用無(wú)預(yù)選框(Anchor-free)的檢測(cè)框架,設(shè)計(jì)了一種行人檢測(cè)算法。將深度殘差網(wǎng)絡(luò)(ResNet)作為特征提取網(wǎng)絡(luò),與特征金字塔網(wǎng)絡(luò)(FPN)結(jié)構(gòu)相結(jié)合,使用了多尺度預(yù)測(cè)的方式進(jìn)行預(yù)測(cè)。把目標(biāo)中心點(diǎn)和尺寸作為一種高級(jí)的語(yǔ)義特征,將含有更多細(xì)節(jié)信息的淺層特征圖和含有更多語(yǔ)義信息的深層特征圖進(jìn)行融合。在Citypersons數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn)驗(yàn)證,相較現(xiàn)有行人檢測(cè)算法,提出的算法在輕微遮擋、一般遮擋和嚴(yán)重遮擋情況下漏檢率分別提升了1.11%~3.01%,0.15%~6.55%和0.59%~6.39%,檢測(cè)效果更好。
中圖分類(lèi)號(hào):TP183
文獻(xiàn)標(biāo)識(shí)碼:A
DOI: 10.19358/j.issn.2096-5133.2020.04.008
引用格式:張慶伍,關(guān)勝曉.基于Anchor-free架構(gòu)的行人檢測(cè)方法[J].信息技術(shù)與網(wǎng)絡(luò)安全,2020,39(4):43-47,52.
Pedestrian detection algorithms based on Anchor-free architecture
Zhang Qingwu,Guan Shengxiao
(School of Microelectronics,University of Science and Technology of China,Hefei 230026,China)
Abstract: This paper designed a pedestrian detection algorithm based on the Anchor-free detection framework.The deep residual network (ResNet) was used as a feature extraction network,combined with the feature pyramid structure (FPN),and finally multiscale prediction was used for prediction.This paper also regarded the target center point and size as an advanced semantic feature,and combined the shallow feature map with more detailed information and the deep feature map with more semantic information.The experiments were verified on the Citypersons dataset.Compared with the existing pedestrian detection algorithms, the detection results were respectively improved by 1.11%~3.01%, 0.15%~6.55% and 0.59%~6.39% in the case of slight occlusion, general occlusion and severe occlusion, and the detection effect is better.
Key words : Anchor-free;pedestrian detection;feature fusion;multi-scale detection

0    引言

行人檢測(cè)是智能安防和車(chē)輛輔助駕駛等實(shí)際應(yīng)用的關(guān)鍵技術(shù)。隨著計(jì)算機(jī)視覺(jué)技術(shù)的快速發(fā)展,目標(biāo)檢測(cè)算法的性能也不斷提升。目前基于深度學(xué)習(xí)的目標(biāo)檢測(cè)方法按照是否提出預(yù)選框可以分為兩大類(lèi):一類(lèi)是基于預(yù)選框的檢測(cè)算法,該類(lèi)算法首先預(yù)先設(shè)置預(yù)選框,然后通過(guò)預(yù)選框和真實(shí)目標(biāo)進(jìn)行匹配,最終選出合適的預(yù)選框進(jìn)行訓(xùn)練,這類(lèi)算法以FasterRCNN和SSD為代表;另一類(lèi)是不使用預(yù)選框的檢測(cè)算法,該類(lèi)算法首先對(duì)預(yù)測(cè)目標(biāo)的關(guān)鍵點(diǎn)進(jìn)行標(biāo)注,然后將深度神經(jīng)網(wǎng)絡(luò)的輸出設(shè)置成相同的格式,直接進(jìn)行訓(xùn)練,這類(lèi)算法以YOLO和DenseBox為代表。其中,Anchorfree的算法框架結(jié)構(gòu)簡(jiǎn)潔,更加適用于計(jì)算資源較少的實(shí)際應(yīng)用場(chǎng)景。本文在Anchor-free算法的基礎(chǔ)上,首先使用不同的基礎(chǔ)網(wǎng)絡(luò)構(gòu)建檢測(cè)算法,然后選出性能穩(wěn)定的基礎(chǔ)網(wǎng)絡(luò),利用特征金字塔結(jié)構(gòu)對(duì)不同卷積層上的特征圖進(jìn)行融合,提升檢測(cè)效果,最后使用多尺度預(yù)測(cè)的方法,通過(guò)不同尺度的預(yù)測(cè)圖生成了更多的檢測(cè)結(jié)果,再次提升了檢測(cè)效果。本文算法在Citypersons數(shù)據(jù)集上進(jìn)行了驗(yàn)證,其檢測(cè)精度相較其他行人檢測(cè)算法有一定提升。






本文詳細(xì)內(nèi)容請(qǐng)下載:http://m.xxav2194.com/resource/share/2000003204





作者信息:

張慶伍,關(guān)勝曉

(中國(guó)科學(xué)技術(shù)大學(xué) 微電子學(xué)院,安徽 合肥 230026)


此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。
主站蜘蛛池模板: r18bl各种play高h| 亚洲a在线播放| 色聚网久久综合| 国内一级毛片成人七仙女| 久久99久久99精品免观看| 欧美日韩加勒比一区二区三区| 女人笫一次一级毛片| 亚洲av人无码综合在线观看| 男女久久久国产一区二区三区| 国产午夜视频在线观看第四页| 91视频啊啊啊| 成人网视频免费播放| 免费a级毛片在线播放| 高清免费a级在线观看国产 | 做受视频120秒视频| 超pen个人视频国产免费观看| 国产精品爽爽va在线观看无码| 一本伊大人香蕉在线观看| 日韩欧美中文字幕出| 亚洲成a人片在线观看天堂无码 | 国内大量揄拍人妻精品視頻| 两人夜晚打扑克剧烈运动| 日韩乱码人妻无码中文字幕久久| 啊灬啊灬别停啊灬用力啊免费| 福利视频导航网| 天天狠天天透天干天天怕∴| 久re这里只有精品最新地址| 最近中文字幕高清中文字幕电影二| 亚洲第一成人在线| 精品久久久久久久免费人妻 | 欧美黑人vs亚裔videos| 再深点灬舒服灬太大| 草草影院ccyy国产日本欧美| 国产成人高清亚洲一区app| 2021国产果冻剧传媒不卡| 天天拍夜夜拍高清视频| 两性午夜欧美高清做性| 无码日韩AV一区二区三区| 久久精品国产亚洲精品| 欧美一级夜夜爽视频| 亚洲日韩乱码中文字幕|