基于深度学习的肠鸣音识别方法及相关装置制造方法及图纸

技术编号:20866291 阅读:32 留言:0更新日期:2019-04-17 09:18
本申请实施例公开了一种基于深度学习的肠鸣音识别方法及相关装置,该方法包括:通过可穿戴设备获取待识别对象的肠鸣音数据,对肠鸣音数据执行音频处理操作,得到肠鸣音数据对应的语音帧序列,将语音帧序列输入肠鸣音识别模型进行处理,输出语音帧序列对应的目标肠鸣音类型,肠鸣音识别模型用于确定语音帧序列对应的肠鸣音类型。采用本申请实施例可识别待识别对象的肠鸣音类型,提高了肠鸣音识别的准确性。

【技术实现步骤摘要】
基于深度学习的肠鸣音识别方法及相关装置
本申请涉及肠鸣音识别
,具体涉及一种基于深度学习的肠鸣音识别方法及相关装置。
技术介绍
肠鸣音指的是当肠管蠕动时,肠腔内空气和液体随之流动,产生一种断续的气过水声(或咕噜声)。由于正常情况和患病情况的肠鸣音是不同的,因此可以利用肠鸣音辅助医生诊断肠病患者。目前,识别肠鸣音类型通过将待识别对象的肠鸣音特征与肠鸣音类型库进行比对,进而得到待识别对象的肠鸣音类型。由于每个人的肠鸣音存在差别,因此现有的肠鸣音识别方法准确性低。
技术实现思路
本申请实施例提供一种基于深度学习的肠鸣音识别方法及相关装置,用于识别待识别对象的肠鸣音类型,提高了肠鸣音识别的准确性。第一方面,本申请实施例提供一种基于深度学习的肠鸣音识别方法,所述方法包括:通过可穿戴设备获取待识别对象的肠鸣音数据;对所述肠鸣音数据执行音频处理操作,得到所述肠鸣音数据对应的语音帧序列;将所述语音帧序列输入肠鸣音识别模型进行处理,输出所述语音帧序列对应的目标肠鸣音类型,所述肠鸣音识别模型用于确定语音帧序列对应的肠鸣音类型。第二方面,本申请实施例提供一种基于深度学习的肠鸣音识别装置,所述装置包括:获取单元,用于通过可穿戴设备获取待识别对象的肠鸣音数据;音频处理单元,用于对所述肠鸣音数据执行音频处理操作,得到所述肠鸣音数据对应的语音帧序列;确定单元,用于将所述语音帧序列输入肠鸣音识别模型进行处理,输出所述语音帧序列对应的目标肠鸣音类型,所述肠鸣音识别模型用于确定语音帧序列对应的肠鸣音类型。第三方面,本申请实施例提供一种服务器,包括处理器、存储器、通信接口,以及一个或多个程序,其中,上述一个或多个程序被存储在上述存储器中,并且被配置由上述处理器执行,上述程序包括用于执行本申请实施例第一方面所述的方法中的步骤的指令。第四方面,本申请实施例提供了一种计算机可读存储介质,上述计算机可读存储介质用于存储计算机程序,上述计算机程序被处理器执行,以实现如本申请实施例第一方面所述的方法中所描述的部分或全部步骤。第五方面,本申请实施例提供了一种计算机程序产品,上述计算机程序产品包括存储了计算机程序的非瞬时性计算机可读存储介质,上述计算机程序可操作来使计算机执行如本申请实施例第一方面所述的方法中所描述的部分或全部步骤。可以看出,在本申请实施例中,服务器首先通过可穿戴设备获取待识别对象的肠鸣音数据,然后对肠鸣音数据执行音频处理操作,得到肠鸣音数据对应的语音帧序列,最后将语音帧序列输入肠鸣音识别模型进行处理,输出语音帧序列对应的目标肠鸣音类型。这样可识别待识别对象的肠鸣音类型,提高了肠鸣音识别的准确性。本申请的这些方面或其他方面在以下实施例的描述中会更加简明易懂。附图说明为了更清楚地说明本申请实施例或
技术介绍
中的技术方案,下面将对本申请实施例或
技术介绍
中所需要使用的附图进行说明。图1是本申请实施例提供的第一种基于深度学习的肠鸣音识别方法的流程示意图;图2是本申请实施例提供的第二种基于深度学习的肠鸣音识别方法的流程示意图;图3是本申请实施例提供的第三种基于深度学习的肠鸣音识别方法的流程示意图;图4是本申请实施例提供的一种基于深度学习的肠鸣音识别装置的结构示意图;图5是本申请实施例提供的一种服务器的结构示意图。具体实现方式为了使本
的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。以下分别进行详细说明。本申请的说明书和权利要求书及所述附图中的术语“第一”、“第二”、“第三”和“第四”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。以下,对本申请中的部分用语进行解释说明,以便于本领域技术人员理解。(1)疾病诊断设备可以包括各种具有无线通信功能的手持设备、车载设备、可穿戴设备、计算设备或连接到无线调制解调器的其他处理设备,以及各种形式的用户设备(UserEquipment,UE),移动台(MobileStation,MS),终端设备(TerminalDevice,TD),等等。(2)服务器,也称伺服器,是提供计算服务的设备。服务器的构成包括处理器、硬盘、内存、系统总线等,和通用的计算机架构类似。在网络环境下,根据服务器提供的服务类型不同,分为文件服务器,数据库服务器,应用程序服务器,WEB服务器等。下面对本申请实施例进行详细介绍。请参阅图1,图1是本申请实施例提供的第一种基于深度学习的肠鸣音识别方法的流程示意图,该基于深度学习的肠鸣音识别方法包括:步骤101:服务器通过可穿戴设备获取待识别对象的肠鸣音数据。其中,可穿戴设备用于采集待识别对象的肠鸣音声音信号,可穿戴设备具有放大肠鸣音和降低环境音的功能。在一个可能的示例中,服务器通过可穿戴设备获取待识别对象的肠鸣音数据,包括:服务器向所述可穿戴设备发送请求信息,所述请求信息用于指示所述可穿戴设备反馈所述待识别对象的肠鸣音声音信号,所述肠鸣音声音信号的时长为预设时长范围;服务器接收所述可穿戴设备针对所述请求信息发送的第一肠鸣音声音信号,所述第一肠鸣音声音信号的时长为第一时长,所述第一时长处于所述预设时长范围;服务器将所述第一肠鸣音声音信号转换为第一肠鸣音数字信号,所述第一肠鸣音数字信号的时长为所述第一时长;服务器将所述第一肠鸣音数字信号作为所述肠鸣音数据。其中,服务器与可穿戴设备具有连接关系。进一步地,可穿戴设备接收请求信息之后,所述方法还包括:可穿戴设备采集待识别对象的第一肠鸣音声音信号,第一肠鸣音声音信号的采集时长为第一时长;可穿戴设备将第一肠鸣音声音信号发送至服务器。其中,预设时长范围可以为5ms~200ms,第一时长可以为20ms、25ms、30ms、35ms、40ms或者是其他值。其中,服务器将第一肠鸣音声音信号转换为第一肠鸣音数字信号的实施方式为现有技术,在此不再叙述。步骤102:服务器对所述肠鸣音数据执行音频处理操作,得到所述肠鸣音数据对应的语音帧序列。其中,音频处理操作包括语音去噪操作和音频分段操作。在一个可能的示例中,服务器对所述肠鸣音数据执行音频处理操作,得到所述肠鸣音数据对应的语音帧序列,包括:服务器调用预先存储的语音去噪算法;服务器根据所述语音去噪算法对所述肠鸣音数据进行语音去噪,得到所述肠鸣音数据对应的第一肠鸣音数据;服务器对所述第一肠鸣音数据执行音频分段操作,得到所述第一肠鸣音数据对本文档来自技高网
...

【技术保护点】
1.一种基于深度学习的肠鸣音识别方法,其特征在于,所述方法包括:通过可穿戴设备获取待识别对象的肠鸣音数据;对所述肠鸣音数据执行音频处理操作,得到所述肠鸣音数据对应的语音帧序列;将所述语音帧序列输入肠鸣音识别模型进行处理,输出所述语音帧序列对应的目标肠鸣音类型,所述肠鸣音识别模型用于确定语音帧序列对应的肠鸣音类型。

【技术特征摘要】
1.一种基于深度学习的肠鸣音识别方法,其特征在于,所述方法包括:通过可穿戴设备获取待识别对象的肠鸣音数据;对所述肠鸣音数据执行音频处理操作,得到所述肠鸣音数据对应的语音帧序列;将所述语音帧序列输入肠鸣音识别模型进行处理,输出所述语音帧序列对应的目标肠鸣音类型,所述肠鸣音识别模型用于确定语音帧序列对应的肠鸣音类型。2.根据权利要求1所述的方法,其特征在于,所述通过可穿戴设备获取待识别对象的肠鸣音数据,包括:向所述可穿戴设备发送请求信息,所述请求信息用于指示所述可穿戴设备反馈所述待识别对象的肠鸣音声音信号,所述肠鸣音声音信号的时长为预设时长范围;接收所述可穿戴设备针对所述请求信息发送的第一肠鸣音声音信号,所述第一肠鸣音声音信号的时长为第一时长,所述第一时长处于所述预设时长范围;将所述第一肠鸣音声音信号转换为第一肠鸣音数字信号,所述第一肠鸣音数字信号的时长为所述第一时长;将所述第一肠鸣音数字信号作为所述肠鸣音数据。3.根据权利要求2所述的方法,其特征在于,所述对所述肠鸣音数据执行音频处理操作,得到所述肠鸣音数据对应的语音帧序列,包括:调用预先存储的语音去噪算法;根据所述语音去噪算法对所述肠鸣音数据进行语音去噪,得到所述肠鸣音数据对应的第一肠鸣音数据;对所述第一肠鸣音数据执行音频分段操作,得到所述第一肠鸣音数据对应的至少一个语音帧,每个语音帧的时长为第二时长,所述第二时长小于所述第一时长,所述每个语音帧包括64个频率分量;将所述至少一个语音帧组成的序列作为所述语音帧序列。4.根据权利要求3所述的方法,其特征在于,所述将所述语音帧序列输入肠鸣音识别模型进行处理,输出所述语音帧序列对应的目标肠鸣音类型,包括:将所述语音帧序列输入所述肠鸣音识别模型;将所述语音帧序列转换为第一输入向量,以及将所述第一输入向量输入第一神经网络层进行处理,输出所述第一输入向量对应的第二输入向量,所述第一神经网络层包括128个神经元,所述第一神经网络层对应第一权重矩阵;将所述第二输入向量输入第二神经网络层进行处理,输出所述第二输入向量对应的第三输入向量,所述第二神经网络层包括64个神经元,所述第二神经网络层对应第二权重矩阵;将所述第三输入向量输入第三神经网络层进行处理,输出所述第三输入向量对应的第四输入向量,所述第三神经网络层包括32个神经元,所述第三神经网络层对应第三权重矩阵;将所述第四输入向量输入激活层进行处理,输出所述第四输入向量对应的第五输入向量,所述激活层包括32个神经元,所述激活层对应第四权重矩阵;将所述第五输入向量输入第四神经网络层进行处理,输出所述第五输入向量对应的第六输入向量,所述第四神经网络层包括64个长短期记忆网络单元,所述第四神经网络层对应第五权重矩阵;将所述第六输入向量输入全连接层进行处理,输出所述第六输入向量对应的输出向量,所述全连接层包括256个激活函数神经元,所述全连接层对应第六权重矩阵;将所述输出向量输入分类器进行处理,输出所述输出向量对应...

【专利技术属性】
技术研发人员:王健宗程宁肖京
申请(专利权)人:平安科技深圳有限公司
类型:发明
国别省市:广东,44

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1