一种心电图数据压缩方法、终端设备及存储介质技术

技术编号:32128504 阅读:29 留言:0更新日期:2022-01-29 19:22
本发明专利技术涉及一种心电图数据压缩方法、终端设备及存储介质,该方法中包括压缩流程和解压流程。在压缩流程中,针对心电图数据切分后的每个原始片段,均对卷积自编码器模型进行训练,提取训练后的模型中解码器的可学习参数和编码器生成的隐变量并结合后,作为该原始片段的压缩数据;按顺序将所有压缩数据连接并打包为压缩文件。在解压流程中,根据压缩文件提取的可学习参数和隐变量,将隐变量输入加载了可学习参数的解码器中,输出解压片段;按顺序将解压片段连接为解压后的心电图数据。本发明专利技术不依赖神经网络的泛化性能,相比通用的卷积自编码器,具有更高的数据还原质量,码率的妥协也有限。有限。有限。

【技术实现步骤摘要】
一种心电图数据压缩方法、终端设备及存储介质


[0001]本专利技术涉及数据压缩领域,尤其涉及一种心电图数据压缩方法、终端设备及存储介质。

技术介绍

[0002]动态和实时监测等长程心电数据采集系统对于检查机构的本地存储或者远程协同诊断的网络带宽都提出了挑战。以12导动态心电图为例,记录佩戴者24小时的心电数据,在采样率为200HZ,采样精度12bit时,需要350兆字节来保存数据。基于7z等压缩算法的无损压缩,至多可以把数据压缩到原来的三分之一大小。如果采用有损压缩,如经典的基于变换和预测编码的技术,则没有充分考虑到心电图QRS伪周期模式和对诊断无用信息的冗余,仍然具有很大的提升空间。

技术实现思路

[0003]为了解决上述问题,本专利技术提出了一种心电图数据压缩方法、终端设备及存储介质。
[0004]具体方案如下:
[0005]一种心电图数据压缩方法,包括压缩流程和解压流程,其中:
[0006]压缩流程:
[0007]S101:将待压缩心电图数据切分为额定长度的原始片段;
[0008]S102:构建卷积自编码器模型,针对每个原始片段,使用该原始片段对卷积自编码器模型进行训练,以使模型的损失函数满足要求,提取训练后的模型中解码器的可学习参数和编码器生成的隐变量并结合后,作为该原始片段的压缩数据;
[0009]S103:按顺序将所有原始片段的压缩数据连接并打包为待压缩心电图数据的压缩文件;
[0010]解压流程:
[0011]S201:按照各原始片段对应的压缩数据的长度将压缩文件的内容切分为多个压缩数据;
[0012]S202:根据各压缩数据提取对应的解码器的可学习参数和编码器生成的隐变量;
[0013]S203:构建与步骤S102相同的卷积自编码器模型,将解码器的可学习参数加载到卷积自编码器模型的解码器中后,将编码器生成的隐变量输入解码器中,输出压缩数据对应的解压片段;
[0014]S204:按顺序将各解压片段连接起来,生成解压后的心电图数据。
[0015]进一步的,步骤S101中切分之前还包括:按照固定的采样率对待压缩心电图数据进行重采样。
[0016]进一步的,重采样的采样率为200HZ。
[0017]进一步的,步骤S102之前还包括:对各原始片段对应的波形类型进行识别,并根据
不同波形类型为原始片段设定不同的掩码;设定卷积自编码器模型停止训练的条件为损失函数小于损失函数阈值与掩码的乘积。
[0018]进一步的,卷积自编码器模型的损失函数采用L1损失。
[0019]进一步的,解码器的可学习参数和编码器生成的隐变量均采用半精度浮点数格式。
[0020]进一步的,原始片段对应的波形类型包括:p波、QRS波、伪差和采集质量差。
[0021]进一步的,掩码设置的方法包括:在P波的前后30毫秒和QRS波的前后60毫秒设置为0.5,在伪差和采集质量差的位置设置为5,其余位置设置为1。
[0022]一种心电图数据压缩终端设备,包括处理器、存储器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现本专利技术实施例上述的方法的步骤。
[0023]一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现本专利技术实施例上述的方法的步骤。
[0024]本专利技术采用如上技术方案,不依赖神经网络的泛化性能,相比通用的卷积自编码器,具有更高的数据还原质量,码率的妥协也有限。
附图说明
[0025]图1所示为本专利技术实施例一的流程图。
具体实施方式
[0026]为进一步说明各实施例,本专利技术提供有附图。这些附图为本专利技术揭露内容的一部分,其主要用以说明实施例,并可配合说明书的相关描述来解释实施例的运作原理。配合参考这些内容,本领域普通技术人员应能理解其他可能的实施方式以及本专利技术的优点。
[0027]现结合附图和具体实施方式对本专利技术进一步说明。
[0028]实施例一:
[0029]本专利技术实施例提供了一种心电图数据压缩方法,如图1所示,所述方法包括压缩流程和解压流程。
[0030](1)压缩流程
[0031]S101:将待压缩心电图数据切分为额定长度的原始片段。
[0032]该实施例中为了确保所有心电图数据切分后的原始片段的长度一致,优选设定按照固定的采样率对待压缩心电图数据进行重采样,具体设置重采样的采样率为200HZ,即如果待压缩心电图数据本身的采样率不是200HZ,则使用200HZ进行重新采样。
[0033]额定长度本领域技术人员可以根据需求预先进行设定,在此不做限制,该实施例中将待压缩心电图数据按顺序切分为时长为60秒(12000点)的原始片段序列。
[0034]S102:构建卷积自编码器模型,针对每个原始片段,使用该原始片段对卷积自编码器模型进行训练,以使模型的损失函数满足要求,提取训练后的模型中解码器的可学习参数和编码器生成的隐变量并结合后,作为该原始片段的压缩数据。
[0035]卷积自编码器(AE)模型的网络架构中包括编码器(Encoder)和解码器(Decoder)两部分。其中,编码器利用卷积神经网络对图像进行特征提取和组合,以生成一个维度较原
始图像低很多的隐变量,这个过程可以描述为f(x)

z,其中,x表示原始图像,f表示编码器,z表示隐变量。解码器通过反卷积操作将隐变量还原成一幅图像,这个过程可以描述为g(z)

x

,其中,g表示解码器,x

表示还原图像。上述卷积和反卷积操作由神经网络结构的超参数和可学习参数共同控制,其中超参数是固定的,而可学习参数是可以通过训练进行学习的。
[0036]传统算法中,卷积自编码器经过大数据训练后其可学习参数就固定了,并希望在这组固定后的变参数上对于未见过的原始图像x进行编码、解码操作后,使得还原的还原图像x

能够与原始图像x非常接近。其优点为传输信息只需要使用隐变量,压缩率非常高。但是泛化性能对于网络的训练过程有很高的要求,尤其是训练数据的规模要很大,要能覆盖样本的总体分布,这对于心电图领域来说是不现实的。
[0037]该实施例中并不使用卷积自编码器的泛化性能,相反,对于每一个输入的原始片段图像均训练一个对应的卷积自编码器模型且使其过拟合。具体的,数据x在压缩端进行梯度下降训练,当卷积自编码器模型的输出x

与x差距小到目标范围(即损失函数满足要求),压缩过程即完成。然后把卷积自编码器模型中解码器g的可学习参数p和编码器f生成的隐变量z结合在一起作为该原始片段对应的压缩数据z

。将压缩数据z

传递给解压端,解压端是和压缩流程构建的卷积自编码器模型结构完全一样的模型,既两者超参数相同,但编码器f和解码本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种心电图数据压缩方法,包括压缩流程和解压流程,其特征在于,其中:压缩流程:S101:将待压缩心电图数据切分为额定长度的原始片段;S102:构建卷积自编码器模型,针对每个原始片段,使用该原始片段对卷积自编码器模型进行训练,以使模型的损失函数满足要求,提取训练后的模型中解码器的可学习参数和编码器生成的隐变量并结合后,作为该原始片段的压缩数据;S103:按顺序将所有原始片段的压缩数据连接并打包为待压缩心电图数据的压缩文件;解压流程:S201:按照各原始片段对应的压缩数据的长度将压缩文件的内容切分为多个压缩数据;S202:根据各压缩数据提取对应的解码器的可学习参数和编码器生成的隐变量;S203:构建与步骤S102相同的卷积自编码器模型,将解码器的可学习参数加载到卷积自编码器模型的解码器中后,将编码器生成的隐变量输入解码器中,输出压缩数据对应的解压片段;S204:按顺序将各解压片段连接起来,生成解压后的心电图数据。2.根据权利要求1所述的心电图数据压缩方法,其特征在于:步骤S101中切分之前还包括:按照固定的采样率对待压缩心电图数据进行重采样。3.根据权利要求2所述的心电图数据压缩方法,其特征在于:重采样的采样率为200HZ。4.根据权利要求1所述的心电图数据...

【专利技术属性】
技术研发人员:李熙
申请(专利权)人:厦门纳龙健康科技股份有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1