《電子技術應用》
您所在的位置:首頁 > 其他 > 設計應用 > 空基下視多角度紅外目標識別
空基下視多角度紅外目標識別
2022年電子技術應用第7期
劉 彤1,2,3,楊德振1,4,宋嘉樂1,2,3,傅瑞罡3,何佳凱1
1.華北光電技術研究所 機載探測中心,北京100015;2.中國電子科技集團公司電子科學研究院,北京100015; 3.國防科技大學 電子科學學院ATR重點實驗室,湖南 長沙410073; 4.北京真空電子技術研究所 微波電真空器件國家重點實驗室,北京100015
摘要: 為實現空基下視紅外目標的快速高精度識別,提出了一種單階段的空基下視多角度紅外目標識別算法。首先使用Darknet-53結合SPP模塊對紅外目標進行特征提取,使局部特征與全局特征融合,提高特征圖表達能力,最后借鑒RetinaNet中的Focal loss鎖定目標的檢測框,同時得出目標類型及檢測精度。針對現有數據集多為平視,且視角單一的缺陷,使用復合翼無人機分別從不同高度和角度采集紅外圖像,構建多尺度下視紅外目標數據集,在PyTorch架構上實現并進行性能驗證實驗,所提算法對分辨率為640×512的下視紅外圖像中目標識別的mAP達到91.74%,識別速度為33 f/s,滿足空基平臺前端的在線識別需求,且在公開紅外船舶數據集上也具有較好的識別結果。實驗表明該算法在保證精度的基礎上滿足實時性的要求,為后續用于復合翼無人機上的多尺度目標實時識別提供了理論技術。
中圖分類號: TP391.9
文獻標識碼: A
DOI:10.16157/j.issn.0258-7998.212449
中文引用格式: 劉彤,楊德振,宋嘉樂,等. 空基下視多角度紅外目標識別[J].電子技術應用,2022,48(7):131-139.
英文引用格式: Liu Tong,Yang Dezhen,Song Jiale,et al. Air-based downward-looking multi-angle infrared target recognition[J]. Application of Electronic Technique,2022,48(7):131-139.
Air-based downward-looking multi-angle infrared target recognition
Liu Tong1,2,3,Yang Dezhen1,4,Song Jiale1,2,3,Fu Ruigang3,He Jiakai1
1.Airborne Detection Center,North China Research Institute of Electro-optics,Beijing 100015,China; 2.China Academic of Electronics and Information Technology,Beijing 100015,China; 3.ATR Key Laboratory,National University of Defense Technology,Changsha 410073,China; 4.National Key Laboratory of Science and Technology on Vacuum Electronics,Beijing Vacuum Electronics Research Institute, Beijing 100015,China
Abstract: In order to realize the rapid and high-precision recognition of air-based downward-looking infrared targets, a single-stage space-based down-looking multi-angle infrared target recognition algorithm is proposed. Firstly, use Darknet-53 combined with SPP module to perform feature extraction on infrared targets, to fuse local features and global features to improve the expression ability of feature maps, and finally use Focal loss in RetinaNet to lock the detection box of the target, and at the same time obtain the target type and detection accuracy. Aiming at the defect that the existing data sets are mostly head-ups and single viewing angles, a composite-wing drone was used to collect infrared images from different heights and angles, and a multi-scale down-view infrared target data set was constructed, which was implemented and verified on the PyTorch architecture. The proposed algorithm achieves 91.74% of the mAP of the downward-looking infrared target, the recognition speed is 33 FPS, and it also has a good recognition result on the public infrared ship data set. The experiments show that the algorithm meets the real-time requirements on the basis of ensuring accuracy, and provides theoretical technology for subsequent real-time recognition of multi-scale targets on compound-wing UAVs.
Key words : downward-looking infrared target;one stage;compound wing drone;SPP;Focal loss

0 引言

    采用多個復合翼無人機集群的空基紅外目標探測識別系統進行協同態勢感知是地面遠程紅外制導的有效輔助手段。其中艦船和車輛目標的智能識別算法作為當代陸海防務系統中關鍵技術,對于保障我國的國防安全具有重要的應用價值。紅外圖像具有對比度高、作用距離遠、穿透力強等特點,熱成像不需要借助外界光源,隱蔽性好,可以全天時工作。目前多數車載系統的視角為平視,平視視場受限,而使用機載系統可以獲得更大的下視視場角,在實戰中能有效探測和攔截低空突防的威脅目標。

    傳統目標識別算法難以對下視視場角的圖像進行特征提取,作為端到端學習的深度學習,能夠自動提取圖像特征,具有較好的目標識別能力。北京理工大學的王旭辰等[1]提出基于深度學習的無人機載多平臺目標檢測算法,使用Darknet-53網絡作為檢測器,在公開數據集UAV123和實測數據集中進行檢測,驗證得到該算法在視角旋轉、目標尺度變化以及障礙物遮擋下能進行穩定檢測。但文中僅使用了YOLOv3目標檢測算法,并未對其進行改進,檢測精度沒有得到提高。電子科技大學的劉瑞[2]針對空中目標存在目標尺度及疏密程度變化大、存在重疊、遮擋等問題,提出四級復雜度的航空圖像目標檢測算法,采用復合擴張主干網深度和寬度的方法構建出四級復雜度的主干網絡,再將主干網分別與FPN+PAN網絡、輸出頭網絡相結合,得到空中目標檢測算法。在VisDrone-DET2020訓練集下對提出的網絡進行訓練,將算法的mAP@[.5:.95]累計提升了0.65%,mAP@0.75累計提升了1.41%。但僅在公開數據集上進行訓練與檢測,該公開數據集僅為可見光數據集,不具備紅外數據集所具備的優點。嚴開忠等[3]針對小型無人機載平臺算力受限、檢測速度慢的問題,提出了一種改進YOLOv3的目標檢測算法,引入深度可分離卷積對主干網絡進行改進,降低網絡的參數和計算量,從而提高檢測速度。此外使用K-means生成先驗框的初始聚類中心,在邊界框回歸中使用CIoU損失,同時將DIoU與NMS相結合,提高算法的檢測精度。在自定義數據集中的mAP為82%,檢測速度從3.4 f/s提高到16 f/s。但算法的檢測精度和速度仍有待提高。上海交通大學的朱壬泰等[4]針對目前深度學習中多目標檢測算法占用資源量大,無法在中小型無人機平臺上實時運行的問題,提出了基于卷積神經網絡計算優化的算法。采用深度可分離卷積對計算量進行優化,將主干網Resnet18中的卷積層替換為深度可分離卷積,對改進的算法在公開數據集PASCAL VOC 2007進行驗證,得到在檢測精度不變的條件下,檢測速度達到56 f/s。但該算法在航拍數據集上的檢測精度由于與公開數據集分布的差異有所下降,對航拍目標的適應性不強。周子衿[5]針對深度學習網絡結構復雜,機載平臺計算資源有限,以及航拍視角中小目標數量大,難以對圖像特征進行提取,容易出現漏檢和錯檢現象,對YOLOv3網絡進行輕量化處理,在網絡稀疏化訓練后進行BN層的通道剪枝,此外使用K-maens++算法對先驗框進行重定義,將改進后的算法在自定義的DOTA-like數據集上進行測試,算法權重模型大小下將98.7%,使得推理時間加快了60.5%,檢測速度提高了32.9%,檢測精度提高1.14%。但無人機的飛行高度較低,局限于超低空域附近,所看到的視場角受限。




本文詳細內容請下載:http://m.xxav2194.com/resource/share/2000004602




作者信息:

劉  彤1,2,3,楊德振1,4,宋嘉樂1,2,3,傅瑞罡3,何佳凱1

(1.華北光電技術研究所 機載探測中心,北京100015;2.中國電子科技集團公司電子科學研究院,北京100015;

3.國防科技大學 電子科學學院ATR重點實驗室,湖南 長沙410073;

4.北京真空電子技術研究所 微波電真空器件國家重點實驗室,北京100015)



wd.jpg

此內容為AET網站原創,未經授權禁止轉載。
主站蜘蛛池模板: 日本xxxxx高清| 亚洲精品无码久久毛片 | 国产仑乱无码内谢| 中文字幕在线亚洲精品| 男人把大ji巴放进男人免费视频| 无限资源日本免费2018| 免费高清a级毛片在线播放| 91久久精品国产91久久性色也| 日韩国产成人精品视频| 六月丁香婷婷综合| 1024国产视频| 日本乱理伦片在线观看网址| 午夜一级黄色片| 8050午夜二级毛片全黄app| 成人性生活免费视频| 亚洲福利电影在线观看| 黄色一级一毛片| 孩交精品xxxx视频视频| 亚洲国产综合第一精品小说| 视频久re精品在线观看| 天堂va在线高清一区| 亚洲av无码专区国产不乱码| 美女黄18以下禁止观看| 国产色视频在线| 久久九九久精品国产日韩经典| 男女性爽大片视频男女生活| 国产精品久久久久久久小唯西川| 久久99精品久久只有精品| 狠狠躁日日躁夜夜躁2022麻豆| 国产欧美日韩亚洲一区二区三区| 中文字幕乱码中文乱码51精品 | 久久国产精品久久精品国产| 两个人看的WWW在线观看| youjizz国产| 无遮挡动漫画在线观看| 亚洲国产成人99精品激情在线| 色88久久久久高潮综合影院 | 新97人人模人人爽人人喊| 伊人久久久大香线蕉综合直播| 国产香蕉在线精彩视频| 小泽玛利亚在线观看国产|