《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 其他 > 設(shè)計應(yīng)用 > 面向多說話人分離的深度學(xué)習(xí)麥克風(fēng)陣列語音增強(qiáng)
面向多說話人分離的深度學(xué)習(xí)麥克風(fēng)陣列語音增強(qiáng)
2022年電子技術(shù)應(yīng)用第5期
張家揚(yáng)1,2,童 峰1,2,3,陳東升1,2,3,黃惠祥1,2
1.廈門大學(xué) 水聲通信與海洋信息技術(shù)教育部重點(diǎn)實驗室,福建 廈門361005; 2.廈門大學(xué) 海洋與地球?qū)W院,福建 廈門361005;3.廈門大學(xué)深圳研究院,廣東 深圳518000
摘要: 隨著近年來人機(jī)語音交互場景不斷增加,利用麥克風(fēng)陣列語音增強(qiáng)提高語音質(zhì)量成為研究熱點(diǎn)之一。與環(huán)境噪聲不同,多說話人分離場景下干擾說話人語音與目標(biāo)說話人同為語音信號,呈現(xiàn)類似的時、頻特性,對傳統(tǒng)麥克風(fēng)陣列語音增強(qiáng)技術(shù)提出更高的挑戰(zhàn)。針對多說話人分離場景,基于深度學(xué)習(xí)網(wǎng)絡(luò)構(gòu)建麥陣空間響應(yīng)代價函數(shù)并進(jìn)行優(yōu)化,通過深度學(xué)習(xí)模型訓(xùn)練設(shè)計麥克風(fēng)陣列期望空間傳輸特性,從而通過改善波束指向性能提高分離效果。仿真和實驗結(jié)果表明,該方法有效提高了多說話人分離性能。
中圖分類號: TN912.3
文獻(xiàn)標(biāo)識碼: A
DOI:10.16157/j.issn.0258-7998.212404
中文引用格式: 張家揚(yáng),童峰,陳東升,等. 面向多說話人分離的深度學(xué)習(xí)麥克風(fēng)陣列語音增強(qiáng)[J].電子技術(shù)應(yīng)用,2022,48(5):31-36.
英文引用格式: Zhang Jiayang,Tong Feng,Chen Dongsheng,et al. Deep learning microphone array speech enhancement for multiple speaker separation[J]. Application of Electronic Technique,2022,48(5):31-36.
Deep learning microphone array speech enhancement for multiple speaker separation
Zhang Jiayang1,2,Tong Feng1,2,3,Chen Dongsheng1,2,3,Huang Huixiang1,2
1.Key Laboratory of Underwater Acoustic Communication and Marine Information Technology Ministry of Education, Xiamen University,Xiamen 361005,China; 2.College of Ocean and Earth Sciences,Xiamen Univercity,Xiamen 361005,China; 3.Shenzhen Research Institute of Xiamen Univercity,Shenzhen 518000,China
Abstract: With the increase of human-computer voice interaction scenes in recent years, using microphone array speech enhancement to improve speech quality has become one of the research hotspots. Different from the ambient noise, the interfering speaker′s speech and the target speaker are the same speech signal in the multiple speaker separation scene, showing similar time-frequency characteristics, which poses a higher challenge to the traditional microphone array speech enhancement technology. For the multiple speaker separation scenario, the spatial response cost function of microphone array is constructed and optimized based on deep learning network. The desired spatial transmission characteristics of microphone array are designed through deep learning model training, so as to improve the separation effect by improving the beamforming performance. Simulation and experimental results show that this method effectively improves the performance of multiple speaker separation.
Key words : deep learning;microphone array;beamforming;LSTM

0 引言

    隨著人與機(jī)器之間的語言交互逐漸頻繁,更需要考慮噪聲、混響和其他說話人的干擾等引起語音信號質(zhì)量下降的因素對語音識別造成的影響,語音增強(qiáng)技術(shù)[1]可以有效地從受干擾的信號中提取純凈的語音,而麥克風(fēng)陣列比起單個麥克風(fēng)可以獲取更多的語音信息和時空特征,因而麥克風(fēng)陣列語音增強(qiáng)技術(shù)被廣泛應(yīng)用在智能家居、車載系統(tǒng)和音(視)頻會議等領(lǐng)域。

    麥克風(fēng)陣列對信號進(jìn)行空間濾波,可以增強(qiáng)期望方向上的信號并抑制方向性噪聲,實現(xiàn)語音增強(qiáng)。傳統(tǒng)麥陣語音增強(qiáng)算法;如形成固定波束的濾波累加波束形成算法(Filter-and-Sum Beamforming,F(xiàn)SB)[2],通過一定長度的濾波器系數(shù)對多通道信號進(jìn)行濾波累加,實現(xiàn)了頻率無關(guān)的空間響應(yīng)特性,具有低復(fù)雜度、硬件容易實現(xiàn)等優(yōu)點(diǎn),但是對于具有方向性的噪聲效果不佳。




本文詳細(xì)內(nèi)容請下載:http://m.xxav2194.com/resource/share/2000004272




作者信息:

張家揚(yáng)1,2,童  峰1,2,3,陳東升1,2,3,黃惠祥1,2

(1.廈門大學(xué) 水聲通信與海洋信息技術(shù)教育部重點(diǎn)實驗室,福建 廈門361005;

2.廈門大學(xué) 海洋與地球?qū)W院,福建 廈門361005;3.廈門大學(xué)深圳研究院,廣東 深圳518000)




wd.jpg

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。
主站蜘蛛池模板: 麻豆人人妻人人妻人人片AV | 四虎影视永久在线观看| 99re在线视频精品| 日本在线观看中文| 亚洲欧美中文字幕5发布| 精品爆乳一区二区三区无码AV | 国产三级在线观看免费| 福利网站在线播放| 天天干夜夜操视频| 中文字幕欧美一区| 最新69成人精品毛片| 亚洲精品第一国产综合野| 翁公厨房嫒媛猛烈进出| 国产成人综合久久亚洲精品| fc2免费人成为视频| 无人视频在线观看免费播放影院 | 亚洲a无码综合a国产av中文| 男人和男人一起差差| 美女张开腿黄网站免费| 天天爱天天做天天爽| 久久91精品国产一区二区| 欧美亚洲国产日韩综合在线播放| 人禽无码视频在线观看| 老司机一级毛片| 国产成A人亚洲精V品无码性色| 69精品久久久久| 天天操夜夜操美女| 中文字幕精品一区二区| 最新亚洲人成无码网站| 亚洲日韩中文字幕在线播放| 男女一边摸一边做爽爽| 啊灬啊灬别停啊灬用力啊免费看| 香蕉大伊亚洲人在线观看| 国产精品福利网站| aaa毛片在线| 岛国大片在线播放高清| 久久久久777777人人人视频| 日韩精品中文乱码在线观看| 亚洲国产精品久久久久久 | 久久久久久久综合色一本| 日韩美女一级毛片|