《電子技術應用》
您所在的位置:首頁 > 人工智能 > 設計應用 > 基于深度學習的視頻火焰識別方法
基于深度學習的視頻火焰識別方法
2020年信息技術與網絡安全第12期
蔡春兵,吳翠平,徐鯤鵬
中國礦業大學(北京) 化學與環境工程學院,北京100083
摘要: 針對傳統視頻火災檢測方法依靠人工經驗提取火焰特征,誤報率高、魯棒性差的特點,提出一種基于深度學習的視頻火焰識別方法。該方法充分利用火焰的運動特征和顏色信息,先使用改進的五幀差法和自適應混合高斯建模法進行運動目標提取;再采用RGB-HSV混合顏色空間模型篩選出圖像中可能的火焰像素區域;最后將以上兩個步驟結合起來進行疑似火焰區域提取,并將疑似火焰區域圖像傳入預訓練的AlexNet卷積神經網絡模型進行火與非火的精確識別。通過對多種場景下火焰視頻的測試結果表明,提出的方法具有較高的召回率、準確率和較低的誤報率。
中圖分類號: TP391.4
文獻標識碼: A
DOI: 10.19358/j.issn.2096-5133.2020.12.008
引用格式: 蔡春兵,吳翠平,徐鯤鵬. 基于深度學習的視頻火焰識別方法[J].信息技術與網絡安全,2020,39(12):44-51.
Video flame recognition method based on deep learning
Cai Chunbing,Wu Cuiping,Xu Kunpeng
College of Chemical and Environmental Engineering,China University of Mining and Technology(Beijing), Beijing 100083,China
Abstract: Aiming at the characteristics of traditional video fire detection methods that rely on manual experience to extract flame features, with high false alarm rate and low accuracy, a video flame recognition method based on deep learning is proposed. This method makes full use of the motion characteristics and color information of the flame. Firstly, the improved five-frame subtraction method and the adaptive Gaussian mixture model are used to extract the moving objects. Then, the RGB-HSV mixed color space model is used to filter out the possible flame areas in the image. Finally, the above two steps are combined to extract the suspected flame area, and the extracted image of the suspected flame area is fed into the pre-trained AlexNet convolutional neural network model for accurate recognition. The test results of flame video in many scenarios show that the proposed method has higher recall rate, accuracy rate, and lower false alarm rate.
Key words : flame recognition;computer vision;deep learning;convolution neural network

0 引言

    傳統的氣體型、感溫型、感煙型和感光型等火災探測器[1],依靠火災中的CO、CO2、溫度、煙霧微粒、熱和輻射等物理特征來探測火災發生。因其通常與火源距離較遠,導致可靠性與實時性都不足。視頻火災探測技術無需靠近火源,可實現大視野、遠距離監控,廣泛應用于大型工廠、森林和煤礦等大空間和室外開放空間的火災探測。

    火焰具有明顯的視覺特征,傳統視頻火災探測算法通常根據火焰的顏色、形狀和紋理等靜態特征,以及閃爍頻率、面積增長、形態變化和移動方向等動態特征進行識別。CHEN T H等人[2]結合RGB色彩分割和火焰運動特性進行火焰像素的判定。KO B C[3]等人通過檢測運動區域和火焰顏色判斷來提取候選火焰區域,并對候選區域提取特征,用于訓練支持向量機SVM分類器,實現對火與非火的判定。MEI Z[4]等人通過幀間差分法和火焰顏色模型確定候選著火區域,然后提取火災候選區域特征組成的特征向量,用于訓練BP神經網絡模型來識別火災。候選區域的特征提取對后續分類器性能的好壞起到決定性的作用,傳統視頻火焰探測需要人工設計復雜的特征提取方法,在識別率和泛化性能上都有一定的局限性。

    深度學習為傳統自然語言處理、計算機視覺等領域帶來了革命性進步,也必然促進視頻火災探測技術獲得突破性進展。深度學習算法可自動提取圖像特征,克服了傳統視頻火災探測需依靠人工經驗提取特征的缺陷。FRIZZI S等人[5]訓練了9層網絡結構的卷積神經網絡,實現了火災的識別。SON G等人[6]用AlexNet作為基礎架構,訓練了火災分類模型。WU H等人[7]分別訓練了區域檢測網絡和區域分類網絡,實現對火災的判定。上述方法都直接在原始圖片上使用卷積神經網絡進行特征提取,這樣大量的無關特征也將被傳入全連接網絡進行訓練,使得分類性能不佳。

    通常,火焰只占據圖像的一部分,可首先提取火焰疑似區域,再將疑似區域傳入深度學習模型進行特征提取和精確識別。通過結合傳統方法和深度學習算法的優點,提出一種基于深度學習的視頻火焰識別方法。

    本文的主要工作如下:

    (1)利用改進的五幀差法和自適應混合高斯混合建模法(Adaptive Gaussian Mixture Model,AGMM)進行運動目標提取,并結合RGB-HSV混合顏色空間模型,提取疑似火焰區域。

    (2)制作火與類火數據集,訓練AlexNet卷積神經網絡模型對疑似火焰區域進行精確識別。

    (3)在實際數據上進行測試,并與文獻中其他算法進行對比,以評價算法的召回率、準確率和誤報率。




本文詳細內容請下載:http://m.xxav2194.com/resource/share/2000003226




作者信息:

蔡春兵,吳翠平,徐鯤鵬

(中國礦業大學(北京) 化學與環境工程學院,北京100083)

此內容為AET網站原創,未經授權禁止轉載。
主站蜘蛛池模板: 国产精品无码久久久久| 无遮挡无删动漫肉在线观看| 再深点灬舒服灬太大了少妇| 久久精品久噜噜噜久久| 好妈妈5韩国电影高清中字| 亚洲H在线播放在线观看H| 男人把女人桶到爽| 国产免费午夜a无码v视频| 8x国产在线观看| 嫩草伊人久久精品少妇av| 久久夜色精品国产亚洲| 欧美日在线观看| 免费国产美女爽到喷出水来视频| 野外三级国产在线观看| 国产精品无码av一区二区三区| 一本一道久久a久久精品综合| 日本边添边摸边做边爱的网站 | 亚洲第一区视频| 精品福利一区3d动漫| 国产大秀视频一区二区三区| 2021国产麻豆剧传媒剧情最新| 女人与公拘交酡过程高清视频| 久久久久九九精品影院| 最近中文字幕在线中文高清版| 亚洲第一福利网| 男生和女生一起差差差很痛视频| 国产AV国片精品一区二区| 黄色三级电影网址| 国产精品久久久久久久久久久不卡 | 日韩精品欧美激情国产一区 | 人人澡人人澡人人澡| 在公车上忘穿内裤嗯啊色h文| 一级做a爰片性色毛片男| 日本性生活网站| 亚洲1234区乱码| 欧美日韩一区二区三区在线观看视频 | 亚洲欧美一区二区三区| 男人的j桶女人的j视频| 又黄又大又爽免费视频| 蜜桃成熟时33d在线| 国产大学生粉嫩无套流白浆|