主声源删除方法及系统、多声源识别方法及系统、装置制造方法及图纸

技术编号:36512697 阅读:19 留言:0更新日期:2023-02-01 15:42
本发明专利技术公开了主声源删除方法及系统、多声源识别方法及系统、装置,方法包括:设定声源聚焦面,构建真实声源在声源聚焦面上的坐标映射为聚焦点;根据传感器阵列实时同步采集的原始声源波形以及传感器阵列与每个聚焦点的位置关系计算时延,采用延时求和方法计算所有真实声源在声源聚焦面上的波束输出;定位出最大声源位置;根据最大声源在聚焦面上的时间函数中的时延反向构建最大声源在传声器阵列面上的平均时间函数,原始波形减去最大声源在传声器阵列面上的平均时间函数,完成主声源删除。以上方案简单利用减法可以将主声源及其旁瓣成分从原始信号中删除,进一步循环该方法可以识别和定位多声源。别和定位多声源。别和定位多声源。

【技术实现步骤摘要】
主声源删除方法及系统、多声源识别方法及系统、装置


[0001]本申请涉及声学测量领域,尤其涉及主声源删除方法及系统、多声源识别方法及系统、装置。

技术介绍

[0002]标准波束形成技术是声学成像领域的成熟技术之一,主要用于远场以及中高频率的声源定位以及声场可视化,具有计算速度快,测量方便等优点。但是该技术因为成像频率以及传声器阵列阵型的设计会产生高的旁瓣,导致低能量的声源很容易被高能量声源旁瓣掩盖,限制了波束形成的多声源识别与定位能力。如果简单通过增加传声器的数量或者改变阵型设计去提高空间分辨力不仅增加成本而且计算耗时会增加,且效果并不显著。另外采用高分辨率的反卷积波束形成可以显著提高分辨率但计算耗时大,主要用于后处理。

技术实现思路

[0003]本专利技术针对现有技术中的缺点,提供了一种主声源删除方法。
[0004]本专利技术提出的主声源删除方法,包括以下步骤:设定声源聚焦面,构建真实声源在声源聚焦面上的坐标映射为聚焦点;根据传感器阵列实时同步采集的原始声源波形以及传感器阵列与每个聚焦点的位置关系计算时延,采用延时求和方法计算所有真实声源在声源聚焦面上的波束输出;定位出最大声源位置;根据最大声源在聚焦面上的时间函数中的时延反向构建最大声源在传声器阵列面上的平均时间函数,原始波形减去最大声源在传声器阵列面上的平均时间函数,完成主声源删除。
[0005]作为一种可选方式,所述聚焦点的波束输出函数f(t)根据公式1计算:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(公式1)其中,M为传声器个数,为每个传声器的加权因子,为时延。
[0006]作为一种可选方式,所述获取最大声源在声源聚焦面上的波束输出的方法为:以S1为最大声源聚焦点,则根据公式2计算S1位置处的时域波束输出函数,
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(公式2)其中,M为传声器个数,为每个传声器的加权因子,为最大声源聚焦点S1的时延。
[0007]作为一种可选方式,所述根据最大声源在聚焦面上的时间函数中的时延反向构建最大声源在传声器阵列上的平均时间函数的方法,包括:根据公式3计算平均时间函数,
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(公式3)其中,M为传声器个数,为每个传声器的加权因子,为最大声源聚焦点S1相对于传声器阵列坐标的时延。
[0008]作为一种可选方式,所述原始波形减去最大声源在传声器阵列面上的平均时间函数用公式4计算:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(公式4)其中,为清除主声源后的声源波形,为声源在传声器阵列面的平均时间函数,为原始波形。
[0009]进一步提出一种多声源识别方法,采用所述主声源删除方法,包括以下方法:原始波形减去最大声源在传声器阵列面上的平均时间函数,得到清除当前主声源的新原始波形,重复主声源删除方法,定位出新原始波形中的最大声源之后清除当前最大声源,直至定位出所有声源。
[0010]其中,所述重复主声源删除方法,定位出新原始波形中的最大声源之后清除当前最大声源的方法,包括:将清除主声源的原始波形,采用延时求和方法重新执行每一个聚焦点的波束输出计算,重新得到聚焦面内聚焦点的波束输出,定位出当前最大声源。
[0011]进一步提出一种主声源删除系统,包括以下结构:主声源定位单元,用于设定声源聚焦面,构建真实声源在声源聚焦面上的坐标映射为聚焦点;根据传感器阵列实时同步采集的原始声源波形以及传感器阵列与每个聚焦点的位置关系产生的时延,采用延时求和方法计算所有真实声源在声源聚焦面上的波束输出;主声源识别单元,定位出最大声源,获取最大声源在声源聚焦面上的波束输出;反向重构单元,用于根据最大声源在聚焦面上的时间函数中的时延反向构建最大声源在传声器阵列上的平均时间函数;清除单元,用于计算原始波形减去最大声源在传声器阵列面上的平均时间函数。
[0012]进一步提出一种多声源识别系统,包括所述主声源删除系统,还包括循环清除单元,用于在删除当前最大声源之后循环执行主声源定位单元、主声源识别单元、反向重构单元和清除单元上的处理内容。
[0013]进一步提出一种多声源识别装置,包括传感器阵列和处理器,所述处理器接收传感器阵列输出的声源波形,实现所述多声源识别方法。
[0014]本专利技术提出的主声源删除方法采用延时求和扫描整个聚焦面的波束输出,从而找到主声源的位置以及声源在聚焦面的空间坐标映射。利用主声源与传声器阵列之间的空间坐标关系以及波形移位技术估计声源在聚焦面的时间函数,进一步利用声源在聚焦面的时间函数反推声源在传声器平面的平均时间函数,也就是原始信号中主声源的成分。该方法简单利用减法可以将主声源及其旁瓣成分从原始信号中删除。
[0015]本专利技术提出的一种多声源识别方法,基于上述公开的主声源删除方法,循环上述
主声源定位和删除操作,可实现多声源的识别和定位,对于被强声源掩盖的较弱声源的识别和定位提供了一种简单的方法。
[0016]本专利技术提出的以上方案是一种基于时域的处理方法,因为只涉及到波形移位和简单的加减计算,因此计算速度快,可实时地“擦除”声源并显示,为多声源实时定位与测量提供可能。与现有的基于频域的CLEAN技术相比,计算过程中不需要计算庞大的声源点传播函数与耗时的卷积运算,同时避免了频域交叉谱矩阵计算造成的时间分辨率损失和加窗引起的频谱泄露以及平均误差。
附图说明
[0017]为了更清楚地说明本专利技术实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本专利技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
[0018]图1是主声源删除方法以及多声源识别的流程图;图2是波束形成原理图;图3是声源S1在声源聚焦面上的时间函数重构示意图;图4是声源S1的清除减法示意图;图5是声源S1空间位置坐标示意图;图6是声源S1在传声器阵列面的平均时间函数示意图;图7是去除声源S1的原始波形图。
具体实施方式
[0019]下面结合实施例对本专利技术做进一步的详细说明,以下实施例是对本专利技术的解释而本专利技术并不局限于以下实施例。
[0020]其中,下文描述的步骤(1)

步骤(5)并非严格的流程顺序限制,而是为了方便描述的编号。
[0021]参考图1,公开一种主声源删除方法,在多声源的场景下,采用简单的方法找到主声源删除,突显出其他声源,对于多声源数据的各种应用场景有前置处理效果,该方法包括以下步骤:步骤(1),设定声源聚焦面,构建真实声源在声源聚焦面上的坐标映射为聚焦点;步骤(2),根据传感器阵列实时同步采集的原始声源波形以及传感器阵列与每个聚焦点的位置关系计算时延,采用延时求和方法计算所有真实声源在声源聚焦面上的时间函数;步骤(3),定位出最大声源,以及该最大声源的坐标;步骤(4),根据最大声本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.主声源删除方法,其特征在于,包括以下步骤:设定声源聚焦面,构建真实声源在声源聚焦面上的坐标映射为聚焦点;根据传感器阵列实时同步采集的原始声源波形以及传感器阵列与每个聚焦点的位置关系计算时延,采用延时求和方法计算所有真实声源在声源聚焦面上的波束输出;定位出最大声源位置;根据最大声源在聚焦面上的时间函数中的时延反向构建最大声源在传声器阵列面上的平均时间函数,原始波形减去最大声源在传声器阵列面上的平均时间函数,完成主声源删除。2.根据权利要求1所述的主声源删除方法,其特征在于,所述聚焦点的波束输出函数f(t)根据公式1计算:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(公式1)其中,M为传声器个数,为每个传声器的加权因子,为时延。3.根据权利要求1或2所述的主声源删除方法,其特征在于,所述获取最大声源在声源聚焦面上的波束输出的方法为:以S1为最大声源聚焦点,则根据公式2计算S1位置处的时域波束输出函数,
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(公式2)其中,M为传声器个数,为每个传声器的加权因子,为最大声源聚焦点S1相对于传声器阵列坐标点的时延。4.根据权利要求3所述的主声源删除方法,其特征在于,所述根据最大声源在聚焦面上的时间函数中的时延反向构建最大声源在传声器阵列上的平均时间函数的方法,包括:根据公式3计算平均时间函数,
ꢀꢀꢀꢀꢀꢀꢀꢀ
(公式3)其中,M为传声器个数,为每个传声器的加权因子,为最大声源聚焦点S1相对于传声器阵列坐标点的时延。5.根据权利要求4所述的主声源删除方法,其特征在于,所述原始波形减去最大声源在传声器阵列面上的平均时间函数用公式4计算:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
...

【专利技术属性】
技术研发人员:袁芳魏明晏敏锋李屹超陈强民季亮杜有权任俊全孙景
申请(专利权)人:杭州爱华智能科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1