一种音频消噪方法技术

技术编号:38537487 阅读:16 留言:0更新日期:2023-08-19 17:07
本发明专利技术提供了一种音频消噪方法,包括对采集的含噪样本训练数据进行预处理;对于进行预处理后的含噪样本训练数据进行多尺度特征提取,提取其时域特征、频域特征和倒谱域特征,得到复合特征矩阵,并对复合特征矩阵中的特征数据进行降维处理,得到降维的多尺度特征数据;建立深度神经网络模型,通过降维的多尺度特征数据对深度神经网络模型进行训练,直至深度神经网络模型的网络自适应掩蔽能力收敛至接近理想自适应时频掩蔽阈值;通过训练后的深度神经网络模型对含噪音频进行去噪处理等步骤。本发明专利技术通过自适应时频掩蔽做为神经网络估计目标的方法,用于训练深度神经网络模型,可以更好的消除工业领域内采集到的音频信号中目标音频以外的噪声。音频以外的噪声。音频以外的噪声。

【技术实现步骤摘要】
一种音频消噪方法


[0001]本专利技术涉及音频信号处理
,具体涉及一种音频消噪方法。

技术介绍

[0002]在音频消噪及语音增强领域中,音频特征的提取及噪声目标的有效均会直接影响音频消噪的效果。
[0003]随着音频信号处理技术的发展和应用,在日常生活中利用音频采集设备对各类场景所需的音频进行采集、处理、识别都逐渐得到了发展。例如公共安全监管、工业设备监测等领域均广泛涉及音频信号的采集及应用。而与此同时各种基于音频信号处理的系统都面临着如何进一步提高系统性能的问题,而音频信号增强技术便是其中的关键技术之一。它的研究开始于20世纪60年代,随着数字信号处理技术的成熟,在70年代取得了许多突破性的成果,从而使语音增强技术成为语音信号处理领域的一个重要分支。学者们经过几十年的研究,已经提出了很多种语音、音频信号增强算法。
[0004]传统的单通道语音增强算法主要有谱减法、维纳滤波法、基于统计模型的算法、自适应滤波法、基于子空间的算法、基于小波变换的算法等等。除了一些传统的语音增强算法外,还出现了许多基于机器学习的语音增强算法,主要概括为以下几类:基于隐马尔可夫模型(Hidden Markov Models,HMM)的语音增强算法、基于非负矩阵分解的语音增强算法、基于浅层神经网络的语音增强算法和基于深层神经网络的语音增强算法。与传统的语音增强算法不同,基于机器学习的语音增强方法借鉴机器学习的思路,通过有监督的训练来实现语音增强。其中,基于深度学习的语音增强,利用深度神经网络模型结构强大的非线性映射能力,通过训练大量的数据,得到一个训练好的深度神经网络模型进行语音增强。
[0005]上述各类音频信号增强、消噪方法均大部分被用于消除日常生活中的语音环境混杂的噪声。当此类噪声消除算法被用于工业领域的音频信号时,将面对未知的噪声源和频率条件,使用以上降噪算法来降低噪声,其效果将是非常难以衡量的。当降噪质量太强,将不可避免地导致工业音频中目标故障特征信息的丢失,反之,降噪质量太弱则会导致故障特征频率极易被噪声频率所掩盖。且以往的音频特征提取方法往往针对音频的单一特征进行提取,基于此类单一特征提取的方法存在无法涵盖全部有效特征的缺陷。
[0006]综上所述,急需一种音频消噪方法以解决现有技术中存在的问题。

技术实现思路

[0007]本专利技术目的在于提供一种音频消噪方法,以解决提升音频降噪质量的问题。
[0008]为实现上述目的,本专利技术提供了一种音频消噪方法,包括以下步骤:
[0009]步骤一:对采集的含噪样本训练数据进行预处理;
[0010]步骤二:对于进行预处理后的含噪样本训练数据进行多尺度特征提取,提取其时域特征、频域特征和倒谱域特征,得到复合特征矩阵,并对复合特征矩阵中的特征数据进行降维处理,得到降维的多尺度特征数据;
[0011]步骤三:建立深度神经网络模型,通过降维的多尺度特征数据对深度神经网络模型进行训练,直至深度神经网络模型的网络自适应掩蔽能力收敛至接近理想自适应时频掩蔽阈值;
[0012]步骤四:通过训练后的深度神经网络模型对含噪音频进行去噪处理。
[0013]优选的,所述步骤二中,时域特征包括短时平均过零率和短时能量;频域特征包括短时功率谱密度;倒谱域特征包括梅尔频率倒谱系数特征和线性预测倒谱系数;所述梅尔频率倒谱系数特征包括语音参数的静态特性和动态特性,所述动态特性通过对静态特性进行差分处理获得。
[0014]优选的,所述步骤二中,通过标准的MFCC倒谱系数表征语音参数的静态特性,MFCC倒谱系数通过表达式4)确定:
[0015][0016]其中,i表示帧序号,m为离散余弦变换后的谱线,H为Mel滤波器的总数,h为Mel滤波器的序号,S(i,h)为第i帧音频通过第h个Mel滤波器的能量。
[0017]优选的,所述步骤二中,通过主成分分析法和线性判别分析法结合的方式对复合特征矩阵进行降维处理;降维的多尺度特征数据通过表达式11)确定:
[0018][0019]其中,h
j
为第j个降维的多尺度特征数据;是主成分分析法变换矩阵的转置,是线性判别分析法变换矩阵的转置,x
j
是第j个含噪样本训练数据的D维特征。
[0020]优选的,所述步骤二中,主成分分析法变换矩阵W
PCA
是大小为D
×
d的矩阵,d为降维后多尺度特征数据的维度;
[0021]在进行线性判别分析法时,通过类内散度矩阵S
w
和类间散度矩阵S
b
获取线性判别分析法变化矩阵W
LDA
,其中,类内散度矩阵S
w
和类间散度矩阵S
b
通过表达式9)确定:
[0022][0023]其中,Q为含噪样本训练数据中的噪声种类总数,Nq是第q种噪声种类中的噪声样本总数,q为噪声种类的序数,k为各个噪声种类中噪声样本的序数;s
q,k
表示第q种噪声种类中的第k个噪声样本的特征值;μ
q
是第q种噪声种类的噪声样本的特征平均值,μ是所有噪声种类的噪声样本的特征平均值,上标T代表转置;
[0024]通过选取矩阵S
w
‑1S
b
中最大的g个特征值得到大小为D
×
g的线性判别分析法变化矩阵W
LDA

[0025]优选的,所述步骤二中,通过表达式12)对降维的多尺度特征数据进行归一化处
理:
[0026][0027]其中h
min
是降维后多尺度特征数据中的最小值,h
max
是降维后多尺度特征数据中的最大值。
[0028]优选的,所述步骤三中,深度神经网络模型的框架包括输入层、隐含层和输出层;深度神经网络模型的训练采用标准反向传播算法和丢弃法相结合的方法,其中丢弃法的丢弃率为0.2;对于标准反向传播算法中网络的权值和偏置采用自适应随机梯度下降与动量项结合的算法来优化。
[0029]优选的,所述步骤三中,理想自适应时频掩蔽阈值SAM(t,fc)通过表达式19)确定:SAM(t,f
c
)=sigmoid(t,f
c
)*IBM(t,f
c
)+(1

sigmoid(t,f
c
))*IRM(t,f
c
)19);
[0030]其中,sigmoid(t,f
c
)为将每一帧音频的信噪比SNR(t,f
c
)输入sigmoid函数中所获的值,t为该帧音频对应的时间点,f
c
为该帧音频对应的频率,IBM(t,f
c
)为该帧音频的信噪比对应的理想二值掩蔽阈值;IRM(t,f
c
)为该帧音频的信噪比对应的理想比值掩蔽阈值。
[0031]优选的本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种音频消噪方法,其特征在于,包括以下步骤:步骤一:对采集的含噪样本训练数据进行预处理;步骤二:对于进行预处理后的含噪样本训练数据进行多尺度特征提取,提取其时域特征、频域特征和倒谱域特征,得到复合特征矩阵,并对复合特征矩阵中的特征数据进行降维处理,得到降维的多尺度特征数据;步骤三:建立深度神经网络模型,通过降维的多尺度特征数据对深度神经网络模型进行训练,直至深度神经网络模型的网络自适应掩蔽能力收敛至接近理想自适应时频掩蔽阈值;步骤四:通过训练后的深度神经网络模型对含噪音频进行去噪处理。2.根据权利要求1所述的一种音频消噪方法,其特征在于,所述步骤二中,时域特征包括短时平均过零率和短时能量;频域特征包括短时功率谱密度;倒谱域特征包括梅尔频率倒谱系数特征和线性预测倒谱系数;所述梅尔频率倒谱系数特征包括语音参数的静态特性和动态特性,所述动态特性通过对静态特性进行差分处理获得。3.根据权利要求2所述的一种音频消噪方法,其特征在于,所述步骤二中,通过标准的MFCC倒谱系数表征语音参数的静态特性,MFCC倒谱系数通过表达式4)确定:其中,i表示帧序号,m为离散余弦变换后的谱线,H为Mel滤波器的总数,h为Mel滤波器的序号,S(i,h)为第i帧音频通过第h个Mel滤波器的能量。4.根据权利要求2所述的一种音频消噪方法,其特征在于,所述步骤二中,通过主成分分析法和线性判别分析法结合的方式对复合特征矩阵进行降维处理;降维的多尺度特征数据通过表达式11)确定:其中,h
j
为第j个降维的多尺度特征数据;是主成分分析法变换矩阵的转置,是线性判别分析法变换矩阵的转置,x
j
是第j个含噪样本训练数据的D维特征。5.根据权利要求4所述的一种音频消噪方法,其特征在于,所述步骤二中,主成分分析法变换矩阵W
PCA
是大小为D
×
d的矩阵,d为降维后多尺度特征数据的维度;在进行线性判别分析法时,通过类内散度矩阵S
w
和类间散度矩阵S
b
获取线性判别分析法变化矩阵W
LDA
,其中,类内散度矩阵S
w
和类间散度矩阵S
b
通过表达式9)确定:其中,Q为含噪样本训练数据中的噪声种类总数,Nq是第q种噪声种类中的噪声样本总
数,q为噪声种类的序数,k为各个噪声种类中噪声样本的序...

【专利技术属性】
技术研发人员:别克扎提
申请(专利权)人:湖南联智监测科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1