当前位置: 首页 > 专利查询>郑州大学专利>正文

心电对比学习特征提取方法、系统、装置及可读存储介质制造方法及图纸

技术编号:36254318 阅读:62 留言:0更新日期:2023-01-07 09:48
本发明专利技术提出了一种心电对比学习特征提取方法、系统、装置及可读存储介质,方法包括:步骤1,将12导联心电数据进行预处理后输入到对比学习框架中,通过最小化NT

【技术实现步骤摘要】
心电对比学习特征提取方法、系统、装置及可读存储介质


[0001]本专利技术属于深度学习
,尤其涉及一种心电对比学习特征提取方法、系统、装置及可读存储介质。

技术介绍

[0002]在医疗机构中,与心脏有关的症状都需要心电图的测量,这使得日常积累了大量没有标签的心电数据集,而且,只有临床医生和相关方面的专家可以对这些数据进行标注注释。对于这些医生来说,数据的标注大大加重了医生的工作负担。
[0003]标签数据的缺乏限制了在深度学习中可用于直接训练的样本数量,以至于稀有病例数据不能被充分的训练,会产生一定的数据偏差,从而导致训练结果精度不高的问题。当前心电特征提取方法主要用于心电分类方面:一是直接使用深度学习模型进行训练以得到分类结果,而该方法容易导致严重的长尾问题;二是使用对比学习的方法对大量心电数据进行预训练,但该方法忽视了不同型号心电设备之间的标准不统一的问题,会对心电的特征提取造成影响。并且如今的心电特征提取模型效果还有待提高,训练数据一般截取长度较短,无法更充分的利用所给的数据信息。

技术实现思路

[0004]为了解决上述问题,有必要提供一种心电对比学习特征提取方法、系统、装置及可读存储介质。
[0005]本专利技术第一方面提供一种基于改进ConvNeXt的心电对比学习特征提取方法,包括以下步骤:步骤1,将12导联心电数据进行预处理后输入到对比学习框架中,通过最小化NT

Xent损失函数值进行预训练;其中,对比学习框架的主干网络采用基于ConvNeXt的改进网络,通过以下方法获得:将原始的二维卷积全部改为一维卷积Conv1d,每次维度变化数值改为12、32、64、128、256,最开始的卷积的步长与卷积核大小都改为6,在每个块中,深度卷积核DW Conv1d和层归一化Layer Norm的位置改为GELU激活函数之后,并将Layer Scale操作换为SE Net;对比学习框架的对比学习方法通过以下方式实现:将原始的12导联心电数据分为两次分别通过数据增强后输入到主干网络中提取特征,再经过全局平均池化GAP和全局最大池化GMP的组合、线性层Linear、激活函数ReLU和批归一化BN输出该心电数据的特征表示,最后将两次运行的结果经过NE

Xent损失函数对整个对比学习框架进行反向传播;步骤2,将原始的12导联心电数据输入到经过步骤1预训练好的主干网络中进行特征提取,经过全局平均池化GAP和全局最大池化GMP的组合,再两次通过依次连接的线性层Linear、激活函数ReLU和Dropout层,最后经过线性层Linear和Sigmoid函数输出该心电数
据的逻辑分类概率,即预测的结果。
[0006]本专利技术第二方面提供一种基于改进ConvNeXt的心电对比学习特征提取系统,包括:数据预处理模块,用于对12导联心电数据进行预处理;对比学习模块,与数据预处理模块连接,用于将预处理后的12导联心电数据输入到对比学习框架中,通过最小化NT

Xent损失函数值进行预训练;其中,对比学习框架的主干网络采用基于ConvNeXt的改进网络,通过以下方法获得:将原始的二维卷积全部改为一维卷积Conv1d,每次维度变化数值改为12、32、64、128、256,最开始的卷积的步长与卷积核大小都改为6,在每个块中,深度卷积核DW Conv1d和层归一化Layer Norm的位置改为GELU激活函数之后,并将Layer Scale操作换为SE Net;对比学习框架的对比学习方法通过以下方式实现:将原始的12导联心电数据分为两次分别通过数据增强后输入到主干网络中提取特征,再经过全局平均池化GAP和全局最大池化GMP的组合、线性层Linear、激活函数ReLU和批归一化BN输出该心电数据的特征表示,最后将两次运行的结果经过NE

Xent损失函数对整个对比学习框架进行反向传播;下游任务模块,与数据预处理模块和对比学习模块连接,用于将原始的12导联心电数据输入到已预训练好的主干网络中进行特征提取,经过全局平均池化GAP和全局最大池化GMP的组合,再两次通过依次连接的线性层Linear、激活函数ReLU和Dropout层,最后经过线性层Linear和Sigmoid函数输出该心电数据的逻辑分类概率,即预测的结果。
[0007]本专利技术第三方面提供一种心电对比学习特征提取装置,包括:存储器;以及耦接至所述存储器的处理器,所述处理器被配置为基于存储在所述存储器中的指令,执行所述的基于改进ConvNeXt的心电对比学习特征提取方法。
[0008]本专利技术第四方面提供一种非瞬时性计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现所述的基于改进ConvNeXt的心电对比学习特征提取方法。
[0009]本专利技术相对现有技术具有突出的实质性特点和显著进步,具体来说:1、本专利技术方法利用对比学习的方法,缓解了长尾问题对结果造成的影响,只需对本有数据进行训练,不需要大量其它数据,且剔除了不同标准心电设备所采集的数据集对提取特征的影响;2、本专利技术方法使用后30,000长度的数据,即1分钟长度的心电数据,在考虑到输入神经网络大小局限性的同时也充分利用了更完整数据信息。
[0010]3、本专利技术所使用的主干网络适应所输入数据长度,可以更充分提取心电特征。
[0011]本专利技术的附加方面和优点将在下面的描述部分中变得明显,或通过本专利技术的实践了解到。
附图说明
[0012]本专利技术的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1是本专利技术实施例1中主干网络的拓扑图。
[0013]图2是本专利技术实施例1中对比学习框架的拓扑图。
[0014]图3是本专利技术实施例1中实现步骤2的拓扑图。
[0015]图4是本专利技术实施例2中系统的原理框图。
具体实施方式
[0016]为了能够更清楚地理解本专利技术的上述目的、特征和优点,下面结合附图和具体实施方式对本专利技术进行进一步的详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
[0017]在下面的描述中阐述了很多具体细节以便于充分理解本专利技术,但是,本专利技术还可以采用其他不同于在此描述的其他方式来实施,因此,本专利技术的保护范围并不受下面公开的具体实施例的限制。
[0018]实施例1如图1、图2和图3所示,本实施例提出一种基于改进ConvNeXt的心电对比学习特征提取方法,包括以下步骤:步骤1,将12导联心电数据进行预处理后输入到对比学习框架中,通过最小化NT

Xent损失函数值进行预训练;其中,心电数据的预处理包括:心电信号的截取与填充:截取后30,000长度的数据,不足30,000的数据进行填充;数据增强:用于对比学习方法中,包括随机上下翻转、随机重采样、随机改变振幅、添加高斯噪声、添加基线漂移和掩盖一定导联的心电信号中的一种或多种组合;对比学习框架的主干网本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于改进ConvNeXt的心电对比学习特征提取方法,其特征在于,包括以下步骤:步骤1,将12导联心电数据进行预处理后输入到对比学习框架中,通过最小化NT

Xent损失函数值进行预训练;其中,对比学习框架的主干网络采用基于ConvNeXt的改进网络,通过以下方法获得:将原始的二维卷积全部改为一维卷积Conv1d,每次维度变化数值改为12、32、64、128、256,最开始的卷积的步长与卷积核大小都改为6,在每个块中,深度卷积核DW Conv1d和层归一化Layer Norm的位置改为GELU激活函数之后,并将Layer Scale操作换为SE Net;对比学习框架的对比学习方法通过以下方式实现:将原始的12导联心电数据分为两次分别通过数据增强后输入到主干网络中提取特征,再经过全局平均池化GAP和全局最大池化GMP的组合、线性层Linear、激活函数ReLU和批归一化BN输出该心电数据的特征表示,最后将两次运行的结果经过NE

Xent损失函数对整个对比学习框架进行反向传播;步骤2,将原始的12导联心电数据输入到经过步骤1预训练好的主干网络中进行特征提取,经过全局平均池化GAP和全局最大池化GMP的组合,再两次通过依次连接的线性层Linear、激活函数ReLU和Dropout层,最后经过线性层Linear和Sigmoid函数输出该心电数据的逻辑分类概率,即预测的结果。2.根据权利要求1所述的基于改进ConvNeXt的心电对比学习特征提取方法,其特征在于,心电数据的预处理包括:心电信号的截取与填充:截取后30,000长度的数据,不足30,000的数据进行填充;数据增强:用于对比学习方法中,包括随机上下翻转、随机重采样、随机改变振幅、添加高斯噪声、添加基线漂移和掩盖一定导联的心电信号中的一种或多种组合。3.一种基于改进ConvNeXt的心电对比学习特征提取系统,其特征在于,包括:数据预处理模块,用于对12导联心电数据进行预处理;对比学习模块,与数据预处理模块连接,用于将预处理后的12导联心电数据输入到对比学习框架中,通过最小化NT

Xent损失函数值进...

【专利技术属性】
技术研发人员:杨聪李子良
申请(专利权)人:郑州大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1