《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 模擬設(shè)計(jì) > 設(shè)計(jì)應(yīng)用 > 基于深度卷積網(wǎng)絡(luò)和卷積去噪自編碼器的水聲信號(hào)識(shí)別方法
基于深度卷積網(wǎng)絡(luò)和卷積去噪自編碼器的水聲信號(hào)識(shí)別方法
網(wǎng)絡(luò)安全與數(shù)據(jù)治理 11期
曹琳,彭圓,牟林,孫悅,徐劍秋
(水下測(cè)控技術(shù)重點(diǎn)實(shí)驗(yàn)室,遼寧大連116013)
摘要: 針對(duì)復(fù)雜水聲信號(hào)的分類識(shí)別問題,提出了一種新的網(wǎng)絡(luò)模型結(jié)構(gòu),將卷積神經(jīng)網(wǎng)絡(luò)和卷積去噪自編碼器結(jié)合到一起應(yīng)用于水聲信號(hào)Lofar譜的分類識(shí)別中。實(shí)驗(yàn)結(jié)果表明,該模型能夠利用更少的參數(shù)學(xué)習(xí)更豐富的魯棒性特征,目標(biāo)識(shí)別的總體準(zhǔn)確率達(dá)到81.2%,與傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)識(shí)別方法相比具有更高的識(shí)別準(zhǔn)確率。
中圖分類號(hào):TP183
文獻(xiàn)標(biāo)識(shí)碼:A
DOI:10.19358/j.issn.2097-1788.2023.11.007
引用格式:曹琳,彭圓,牟林,等.基于深度卷積網(wǎng)絡(luò)和卷積去噪自編碼器的水聲信號(hào)識(shí)別方法[J].網(wǎng)絡(luò)安全與數(shù)據(jù)治理,2023,42(11):35-38,45.
Underwater acoustic signal recognition method based on deep convolutional network and convolutional denoising autoencoder
Cao Lin,Peng Yuan,Mu Lin,Sun Yue,Xu Jianqiu
(Science and Technology on Underwater Test and Control Laboratory,Dalian 116013,China)
Abstract: This paper proposes a new network model structure for the classification and recognition of complex underwater acoustic signal.Convolutional neural network and convolutional denoising autoencoder are combined together,it is applied to the classification and recognition of underwater acoustic signal Lofar spectrum.The experimental results show that the model can learn richer robustness features with fewer parameters.The overall accuracy of target recognition reaches 812%,compared with the traditional the recognition method of convolutional neural network,the recognition accuracy is higher.
Key words : convolutional neural network; convolutional denoising autoencoder; Lofar spectrum; classification recognition

0引言

如何在復(fù)雜的海洋環(huán)境下對(duì)水聲信號(hào)進(jìn)行識(shí)別是目前亟需解決的難題。傳統(tǒng)的基于信號(hào)特征的水聲目標(biāo)信號(hào)識(shí)別方法,特征受時(shí)/頻/空域變換算法的制約不可避免地丟失目標(biāo)信息。深度學(xué)習(xí)方法能夠自動(dòng)地通過逐層訓(xùn)練學(xué)習(xí)到數(shù)據(jù)高級(jí)的特征表示,從而得到更豐富的特征信息。該方法集特征提取與分類于一體,完成從輸入信號(hào)到輸出分類的處理。隨著深度學(xué)習(xí)在圖像識(shí)別、語音識(shí)別等領(lǐng)域取得了巨大的成功,國內(nèi)外學(xué)者陸續(xù)嘗試將深度學(xué)習(xí)方法應(yīng)用于水聲信號(hào)識(shí)別中。一些學(xué)者將卷積神經(jīng)網(wǎng)絡(luò)對(duì)水聲信號(hào)的時(shí)頻譜特征進(jìn)行學(xué)習(xí)和識(shí)別[1],有效降低了噪聲的影響,分類精度可達(dá)9857%,取得了很好的識(shí)別效果,李俊豪等學(xué)者根據(jù)水聲信號(hào)的特點(diǎn),從水聲信號(hào)時(shí)頻特征出發(fā)設(shè)計(jì)了深度卷積網(wǎng)絡(luò)[2],有助于提取到具有一定物理意義的譜特征,識(shí)別率顯著提高。但由于水聲信號(hào)的獲取難度大,導(dǎo)致水聲數(shù)據(jù)樣本是小樣本,樣本較少模型容易產(chǎn)生過擬合的現(xiàn)象。深度自編碼網(wǎng)絡(luò)可以對(duì)原始數(shù)據(jù)進(jìn)行有效的降維,避免模型出現(xiàn)過擬合。陳越超等學(xué)者基于降噪自編碼器對(duì)水聲數(shù)據(jù)進(jìn)行特征提取與識(shí)別[3],結(jié)果表明,對(duì)于不同類型目標(biāo)與同一目標(biāo)的不同狀態(tài),降噪自編碼器都能提取可分性特征,識(shí)別率也高于其他對(duì)比方法。薛靈芝等學(xué)者對(duì)深度自編碼網(wǎng)絡(luò)進(jìn)行了改進(jìn),在最后一層隱藏層的輸入值中加入第一層的特征值,有效地避免了單一通道中由于連乘導(dǎo)致的梯度消失問題[4],結(jié)果表明,該算法能有效地對(duì)水聲信號(hào)進(jìn)行特征提取和分類,并具有良好的魯棒性。但是自編碼器一般基于全連接的方式構(gòu)建網(wǎng)絡(luò)模型,但是全連接網(wǎng)絡(luò)的運(yùn)算量較大,對(duì)實(shí)時(shí)性要求較高的應(yīng)用來說有較大的局限性。

綜上所述,本文綜合利用卷積神經(jīng)網(wǎng)絡(luò)(CNN)和卷積去噪自編碼器(CDAE)的優(yōu)勢(shì),構(gòu)建了適應(yīng)水聲信號(hào)的深度卷積網(wǎng)絡(luò)和卷積去噪自編碼器(CDAE-CNN),將水聲信號(hào)的Lofar譜特征作為模型的輸入,進(jìn)行特征提取和分類,利用更少的參數(shù)學(xué)習(xí)更豐富的特征,實(shí)現(xiàn)對(duì)水聲信號(hào)的分類。


本文下載請(qǐng)點(diǎn)擊:基于深度卷積網(wǎng)絡(luò)和卷積去噪自編碼器的水聲信號(hào)識(shí)別方法AET-電子技術(shù)應(yīng)用-最豐富的電子設(shè)計(jì)資源平臺(tái) (chinaaet.com)




作者信息:

曹琳,彭圓,牟林,孫悅,徐劍秋

(水下測(cè)控技術(shù)重點(diǎn)實(shí)驗(yàn)室,遼寧大連116013)


電子技術(shù)應(yīng)用微店二維碼.jpg

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。
主站蜘蛛池模板: 大学生一级特黄的免费大片视频| 非洲黑人最猛性xxxx_欧美| 男人桶女人视频不要下载| 天天爽夜夜爽夜夜爽精品视频| 亚洲精品无码mv在线观看网站| 韩国女主播一区二区| 国产视频中文字幕| 久久综合香蕉国产蜜臀av| 男人j桶进女人p| 国产三级在线播放线| 400部国产真实乱| 日本边添边摸边做边爱边视频| 喷出巨量精子系列在线观看| av免费不卡国产观看| 欧美videosdesexo肥婆| 公和我乱做好爽添厨房中文字幕| 91精品国产综合久| 日韩在线视频网址| 再灬再灬再灬深一点舒服| 成年人在线看片| 婷婷色香五月综合激激情| 亚洲最大黄色网站| 青娱乐精品视频| 天天久久综合网站| 亚洲一区二区视频在线观看| 看欧美黄色大片| 国产粉嫩粉嫩的18在线播放91| 久久中文娱乐网| 欧美一区二区三区视频在线观看 | 狠狠色综合色综合网络| 国产精品jizz在线观看直播| 久久久久久九九精品久小说| 欧美成年黄网站色视频| 国产人与禽zoz0性伦| nanana最新在线视频免费观看网| 日本伊人精品一区二区三区| 亚洲一区免费在线观看| 欧美群交在线播放1| 国产亚洲综合一区二区在线| 你懂的在线视频| 在线看亚洲十八禁网站|