System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind()
【技术实现步骤摘要】
本专利技术涉及数据处理领域,具体涉及一种助听器佩戴后助听效果分析方法、终端及其系统。
技术介绍
1、在现代社会,随着人口老龄化以及环境噪声的增加,听力损失已成为一种常见的健康问题。助听器作为一种有效的听力辅助设备,对于改善听力损失人群的生活质量具有重要意义。然而,如何评估助听器的助听效果,确保用户能获得最佳的听力辅助,是一个技术上的难题。传统上,助听器的效果评估主要依赖于用户的主观评价,如通过问卷调查、个人感受等方式来反馈使用后的听力改善情况。这种方法简便易行,但存在明显的局限性。
2、首先,个人的主观评价受多种因素影响,包括用户的心理状态、个人期望、使用环境和个人听力特性等,这些因素的复杂性和多变性使得评价结果的准确性和可靠性受到质疑。其次,不同用户的感知能力和表达能力差异较大,相同的助听效果可能会得到不同的评价结果。此外,个人主观评价往往缺乏量化标准,难以进行客观比较和分析。
3、因此,存在一个技术问题,即现有的助听器效果分析方法过于依赖用户的主观评价,受限于个人主观因素,准确率不高。这导致助听器的调整和优化缺乏精确的依据,无法确保每位用户都能获得最适合自己的助听配置。为了解决这一问题,迫切需要开发一种新的助听效果分析方法,该方法能够更加客观、准确地评估助听器的助听效果,减少对用户主观感受的依赖,从而为助听器的个性化配置和优化提供科学的依据。
技术实现思路
1、本专利技术通过对用户在执行纯音听觉测试过程中的心率变化数据、面部图像和皮层听觉诱发电位变化数据
2、一种助听器佩戴后助听效果分析方法,包括:
3、步骤s1:获取用户在佩戴助听器之后,获取听力测试的用户数据;用户数据包括心率变化数据、面部图像和皮层听觉诱发电位变化数据,听力测试为纯音听力测试;
4、步骤s2:将心率变化数据进行时域特征分析,得到心率时域特征;将心率变化数据进行频域转换,在进行频域特征提取,得到心率频域特征;将心率时域特征和心率频域特征进行特征融合操作,得到第一用户情绪特征;
5、步骤s3:将面部图像进行用户情绪分析,以构建第二用户情绪特征;
6、步骤s4:将第一用户情绪特征和第二用户情绪特征送入情绪指数分析模型进行处理,得到当前听力测试声音对应频率的情绪指数;
7、情绪指数分析模型基于bp神经网络进行建立,包括一个特征强化层和一个情绪指数分析层,其中特征强化层用于通过第二用户情绪特征对第一用户情绪特征进行特征强化,得到增强用户情绪特征;将增强用户情绪特征送入情绪指数分析层进行处理,得到当前听力测试声音对应频率的情绪指数;
8、步骤s5:将皮层听觉诱发电位变化数据与当前听力测试声音对应的标准皮层听觉诱发电位变化数据进行匹配,得到皮层听觉诱发电位差异数据;
9、步骤s6:结合情绪指数和皮层听觉诱发电位差异数据构建助听器效果分析数据,并对助听器效果分析数据进行可视化,以执行助听器佩戴后的效果分析。
10、优选地,步骤s2中将心率时域特征和心率频域特征进行特征融合操作,具体包括如下内容:
11、将心率时域特征和心率频域特征进行归一化处理;
12、将心率时域特征和心率频域特征直接进行拼接,得到心率综合特征;
13、通过序列特征选择算法对心率综合特征执行特征选择,得到置信心率综合特征;
14、将置信心率综合特征送入心率情绪特征提取模型进行处理,得到第一用户情绪特征;
15、心率情绪特征提取模型基于多层感知器进行建立,包括一个心率情绪特征提取层。
16、优选地,针对心率情绪特征提取模型的训练包括如下步骤:
17、在心率情绪特征提取模型后续增加一个全连接层和一个基于softmax函数的分类层,构建扩展心率情绪特征提取模型;
18、获取若干个标注好情绪类型的心率变化数据,基于标注好情绪类型的心率变化数据获取对应的置信心率综合特征;将所有标注好情绪类型的置信心率综合特征组成第一训练集;将第一训练集送入参数初始化的扩展心率情绪特征提取模型进行训练,训练期间以情绪类型作为目标条件,计算第一损失值,若是第一损失值位于第一预设范围内,输出训练好的扩展心率情绪特征提取模型中的心率情绪特征提取模型;否则,通过第一训练集对扩展心率情绪特征提取模型继续迭代训练。
19、优选地,步骤s3的具体内容为:通过面部情绪特征提取模型对待测面部图像进行特征提取,输出第二用户情绪特征;
20、其中面部情绪特征提取模型基于cnn模型进行建立,包括一个预处理层和一个面部情绪特征提取层,预处理层用于针对面部图像进行预处理操作,预处理操作包括调整图像大小、图像增强和滤波去噪等;特征提取层用于对待测面部图像进行特征提取。
21、优选地,针对面部情绪特征提取模型的训练包括如下步骤:
22、在面部情绪特征提取模型后续增加一个全连接层和一个基于softmax函数的分类层,构建扩展面部情绪特征提取模型;
23、获取若干个标注好情绪类型的面部图像,将所有标注好情绪类型的面部图像组成第二训练集;将第二训练集送入参数初始化的扩展面部情绪特征提取模型进行训练,训练期间以情绪类型作为目标条件,计算第二损失值,若是第二损失值位于第二预设范围内,第二预设范围人为设定,输出训练好的扩展面部情绪特征提取模型中的面部情绪特征提取模型;否则,通过第一训练集对扩展面部情绪特征提取模型继续迭代训练。
24、优选地,将第一用户情绪特征和第二用户情绪特征送入情绪指数分析模型进行处理,得到当前听力测试声音对应频率的情绪指数,具体包括如下步骤:
25、在特征强化层中,将第二用户情绪特征与情绪权重系数矩阵进行点乘,得到面部情绪权重矩阵,再将面部情绪权重矩阵与第一用户情绪特征按照通道执行相加操作和归一化操作,实现对第一用户情绪特征的特征强化,得到增强用户情绪特征;
26、在情绪指数分析层中,增强用户情绪特征依次通过情绪指数分析层内部的输入层、隐藏层和输出层进行处理,得到当前听力测试声音对应频率的情绪指数。
27、优选地,针对情绪指数分析模型的训练包括如下内容:
28、获取若干个标注好情绪指数的情绪分析数据集,情绪分析数据集中存储中同一时空域下且同一用户的心率变化数据和面部图像,需要说明的是,在执行情绪指数的标注工作的过程中,由专业人员根据助听器的实际调节和经验来对情绪指数进行标注,情绪指数用于表征针对对应频率声音的调整幅度;根据情绪分析数据集建立对应的情绪分析特征集,情绪分析特征集中存储着同一时空域下且同一用户的心率变化数本文档来自技高网...
【技术保护点】
1.一种助听器佩戴后助听效果分析方法,其特征在于,包括:
2.根据权利要求1所述的一种助听器佩戴后助听效果分析方法,其特征在于,步骤S2中将心率时域特征和心率频域特征进行特征融合操作,具体包括如下内容:
3.根据权利要求2所述的一种助听器佩戴后助听效果分析方法,其特征在于,针对心率情绪特征提取模型的训练包括如下步骤:
4.根据权利要求3所述的一种助听器佩戴后助听效果分析方法,其特征在于,步骤S3的具体内容为:通过面部情绪特征提取模型对待测面部图像进行特征提取,输出第二用户情绪特征;
5.根据权利要求4所述的一种助听器佩戴后助听效果分析方法,其特征在于,针对面部情绪特征提取模型的训练包括如下步骤:
6.根据权利要求5所述的一种助听器佩戴后助听效果分析方法,其特征在于,将第一用户情绪特征和第二用户情绪特征送入情绪指数分析模型进行处理,得到当前听力测试声音对应频率的情绪指数,具体包括如下步骤:
7.根据权利要求6所述的一种助听器佩戴后助听效果分析方法,其特征在于,针对情绪指数分析模型的训练包括如下内容:
9.一种助听器佩戴后助听效果分析终端,其特征在于,所述终端搭载上述权利要求8所述的一种助听器佩戴后助听效果分析系统。
...【技术特征摘要】
1.一种助听器佩戴后助听效果分析方法,其特征在于,包括:
2.根据权利要求1所述的一种助听器佩戴后助听效果分析方法,其特征在于,步骤s2中将心率时域特征和心率频域特征进行特征融合操作,具体包括如下内容:
3.根据权利要求2所述的一种助听器佩戴后助听效果分析方法,其特征在于,针对心率情绪特征提取模型的训练包括如下步骤:
4.根据权利要求3所述的一种助听器佩戴后助听效果分析方法,其特征在于,步骤s3的具体内容为:通过面部情绪特征提取模型对待测面部图像进行特征提取,输出第二用户情绪特征;
5.根据权利要求4所述的一种助听器佩戴后助听效果分析方法,其特征在于,针对面部情绪特征提取模型...
【专利技术属性】
技术研发人员:向阳红,邓安春,季迪,余维,任白洋,张焱,贺盼,
申请(专利权)人:中国人民解放军陆军军医大学第二附属医院,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。