《電子技術應用》
您所在的位置:首頁 > 測試測量 > 設計應用 > 基于YOLO改進殘差網絡結構的車輛檢測方法
基于YOLO改進殘差網絡結構的車輛檢測方法
2020年信息技術與網絡安全第9期
胡臣辰,陳賢富
中國科學技術大學 微電子學院,安徽 合肥230027
摘要: 針對車輛檢測任務,設計更高效、精確的網絡模型是行業研究的熱點,深層網絡模型具有比淺層網絡模型更好的特征提取能力,但構建深層網絡模型時將導致梯度消失、模型過擬合等問題,應用殘差網絡結構可以緩解此類問題。基于YOLO算法,改進殘差網絡結構,加深網絡層數,設計了一種含有68個卷積層的卷積神經網絡模型,同時對輸入圖像進行預處理,保證目標在圖像上不變形失真,最后在自定義的車輛數據集上對模型進行訓練與測試,并將實驗結果與YOLOV3模型進行對比,實驗表明,本文設計的模型檢測精準度(AP)達90.63%,較YOLOV3提高了4.6%。
中圖分類號: TP393
文獻標識碼: A
DOI: 10.19358/j.issn.2096-5133.2020.09.011
引用格式: 胡臣辰,陳賢富. 基于YOLO改進殘差網絡結構的車輛檢測方法[J].信息技術與網絡安全,2020,39(9):56-60.
Vehicle detection method based on improved residual network structure of based on YOLO
Hu Chenchen,Chen Xianfu
Institute of Microelectronics,University of Science and Technology of China,Hefei 230027,China
Abstract: For vehicle detection task, the design of more efficient and accurate network model is a hot research. Deep network model has better feature extraction capabilities than shallow network model, but will cause the gradient to disappear and the model to overfit and other problems. Application of residual network structure can alleviate such problems. Based on the YOLO algorithm, this paper improves the residual network structure and deepens the number of network layers. A convolutional neural network model with 68 convolutional layers is designed. At the same time, the input image is preprocessed to ensure that the target is not deformed or distorted on the image. Finally, the model is trained and tested on a custom vehicle data set, and the experimental results are compared with the YOLOV3 model. The experiment shows that the model detection accuracy(AP) designed in this paper reaches 90.63%, which is 4.6% higher than YOLOV3.
Key words : object detection;YOLO;residual network;deep learning

0 引言

    車輛是目標檢測任務中的重要對象之一,在自動駕駛、目標追蹤等領域有著十分重要的應用。以梯度方向直方圖(Histogram of Oriented Gradient,HOG)和支持向量機(Support Vector Machine,SVM)結合的傳統目標檢測算法先計算候選框內圖像梯度的方向信息統計值,再通過正負樣本訓練SVM,使用傳統方法受限于候選框提取效率、HOG特征尺度魯棒性,在實時性以及遮擋目標檢測等諸多方面有著明顯缺陷[1]。近年來,基于深度學習的目標檢測方法以強特征提取能力、高檢測率取得了驚人的成果。近年來深度學習網絡在計算機視覺上因AlexNet在2012年的ImageNet大賽中大放異彩而進入飛速發展。2014年VGGNet在追求深層網絡的性能時,發現增加網絡的深度會提高性能,但是與此同時帶來的梯度消失問題不可避免。2015年ResNet網絡較好地解決了這個問題,深層殘差網絡可以減少模型收斂時間、改善尋優過程,但應用尺度大的卷積核的同時增加了網絡模型的參數量與計算量,降低了模型的訓練與檢測速度[2]

    計算機視覺中的目標檢測任務關注圖像中特定目標的位置信息,現有方法分為two-stage和one-stage兩類。two-stage方法先產生包含目標的候選框,再通過卷積神經網絡對目標進行分類,常見的方法有RCNN、Fast-RCNN、Faster-RCNN。one-stage方法直接使用一個卷積網絡對給定輸入圖像給出檢測結果,以YOLO為代表的one-stage目標檢測方法在檢測時,將候選框的生成與目標的分類回歸合并成一步,基于YOLO的檢測算法大大提高了檢測速度,但檢測精度仍有待提高[3]。本文選擇在基于YOLO方法的基礎上改進主干網絡的殘差網絡結構,設計了一種新的網絡模型,經實驗表明提高了檢測準確率。




本文詳細內容請下載:http://m.xxav2194.com/resource/share/2000003099




作者信息:

胡臣辰,陳賢富

(中國科學技術大學 微電子學院,安徽 合肥230027)

此內容為AET網站原創,未經授權禁止轉載。
主站蜘蛛池模板: 日韩欧美亚洲国产精品字幕久久久| 亚洲一卡2卡4卡5卡6卡在线99| 国产人人为我我为人| 国产乱来乱子视频| 伊人久久大香线蕉avapp下载| 亚洲人成电影在线观看网| 一级日本黄色片| 51精品视频免费国产专区| 美女扒开尿囗给男生桶爽| 欧美成人一区二区三区在线视频| 成人免费无码大片a毛片| 国产精品亚洲欧美大片在线观看| 国产精品久久久久999| 好吊色欧美一区二区三区四区 | 天天综合网网欲色| 国产裸体歌舞一区二区| 国产成人av在线影院| 又紧又大又爽精品一区二区 | 色综合久久中文字幕网| 精品国产免费一区二区三区| 欧美日韩亚洲综合| 99热国产在线观看| 色偷偷亚洲女人天堂观看欧| 久久精品99国产精品日本| xxxxx性欧美| 蜜桃视频在线观看免费网址入口| 欧美人与物videos另类xxxxx| 无码人妻精品一区二区在线视频| 国产高清视频网站| 午夜三级A三级三点在线观看| 亚洲午夜无码久久| 亚洲精品无码久久久久AV麻豆| 久久午夜夜伦鲁鲁片免费无码 | 麻豆亚洲av熟女国产一区二| 国产肉体xxxx裸体137大胆| www.99色| 成年免费大片黄在线观看下载| 久久婷婷色一区二区三区| 欧美一级二级三级视频| 亚洲精品一区二区三区四区乱码 | www.成年人视频|