一种眼底图像病灶分割方法技术

技术编号:39517332 阅读:11 留言:0更新日期:2023-11-25 18:55
本发明专利技术公开了一种眼底图像病灶分割方法

【技术实现步骤摘要】
一种眼底图像病灶分割方法、系统、设备及存储介质


[0001]本专利技术涉及眼底图像病灶分割相关
,尤其是涉及一种眼底图像病灶分割方法

系统

设备及存储介质


技术介绍

[0002]近年来,人工智能技术开始广泛应用于日常生活中各个领域,如智慧城市

智能零售和智能家居等方面,为日常生活提供各种服务和便利

除此之外,人工智能也逐渐在医疗领域进行发展

目前的人工智能技术高度依赖数据的数量和质量,训练数据越多,其训练得到的算法模型的效果就越好

由于医疗数据相较于自然数据涉及病人的隐私信息,医学数据的获取受到严格的把控,医学数据获取难度大

且人工智能技术进行模型训练时需要已标注的图像或者文本信息,但医学数据的标注专业性太强,数据标注难度大

而医学数据标注难度最大的是分割数据的标注

目前,开源可获取的眼底图像病灶分割数据量非常有限,眼底图像病灶分割准确度较低


技术实现思路

[0003]本专利技术旨在至少解决现有技术中存在的技术问题

为此,本专利技术提出一种眼底图像病灶分割方法

系统

设备及存储介质,能够提升眼底图像病灶分割准确度

[0004]本专利技术的第一方面,提供了一种眼底图像病灶分割方法,包括如下步骤:
[0005]获取历史眼底图像数据集和待预测眼底图像,其中,所述历史眼底图像数据集包括历史眼底图像

所述历史眼底图像对应的真实分类标签和所述历史眼底图像对应的分割掩码图;
[0006]构建第一分类网络模型,将所述历史眼底图像和所述真实分类标签输入所述第一分类网络模型进行训练,得到第二分类网络模型;
[0007]构建第一病灶分割网络模型,根据所述第二分类网络模型

所述历史眼底图像和所述历史眼底图像对应的分割掩码图对所述第一病灶分割网络模型进行训练,得到第二病灶分割网络模型;
[0008]将所述待预测眼底图像输入所述第二病灶分割网络模型进行预测,得到所述待预测眼底图像的病灶分割信息

[0009]根据本专利技术实施例的控制方法,至少具有如下有益效果:
[0010]本方法通过获取历史眼底图像数据集和待预测眼底图像,其中,历史眼底图像数据集包括历史眼底图像

历史眼底图像对应的真实分类标签和历史眼底图像对应的分割掩码图,构建第一分类网络模型,将历史眼底图像和真实分类标签输入第一分类网络模型进行训练,得到第二分类网络模型;构建第一病灶分割网络模型,根据第二分类网络模型

历史眼底图像和历史眼底图像对应的分割掩码图对第一病灶分割网络模型进行训练,得到第二病灶分割网络模型;将待预测眼底图像输入第二病灶分割网络模型进行预测,得到待预测眼底图像的病灶分割信息,通过关联分类任务上的分割信息特征,并通过分类网络模型
为分割模型的训练提供监督信号和先验知识,从而提升眼底图像病灶分割准确度

[0011]根据本专利技术的一些实施例,所述第一病灶分割网络模型包括
VGG

19
编码器,所述构建第一病灶分割网络模型,根据所述第二分类网络模型

所述历史眼底图像和所述历史眼底图像对应的分割掩码图对所述第一病灶分割网络模型进行训练,得到第二病灶分割网络模型,包括:
[0012]将所述历史眼底图像和所述分割掩码图输入所述第一病灶分割网络模型进行训练,得到第一分割模型及其输出的第一分割预测值;
[0013]根据所述第一分割预测值与所述分割掩码图通过所述
VGG

19
编码器进行高维特征提取,得到高维特征信息;
[0014]根据所述高维特征信息与所述分割掩码图通过分割特征感知损失函数进行损失值计算,得到第一分割特征损失值;
[0015]根据所述第一分割预测值与所述分割掩码图进行损失值计算,得到第二分割特征损失值;
[0016]根据所述第一分割特征损失值与所述第二分割特征损失值进行总损失计算,得到第一总损失值;
[0017]当所述第一总损失值小于预设总损失值,则所述第一分割模型为所述第二病灶分割网络模型;
[0018]当所述第一总损失值大于所述预设总损失值,则根据所述第一总损失值

所述第二分类网络模型

所述历史眼底图像和所述分割掩码图更新所述第一分割模型,得到第二分割模型及其输出的第二分割预测值,根据所述第二分割预测值与所述分割掩码图进行损失值计算,得到第二总损失值;当所述第二总损失值小于所述预设总损失值,则所述第二分割模型为所述第二病灶分割网络模型;当所述第二总损失值大于所述预设总损失值,则根据所述第二总损失值

所述第二分类网络模型

所述历史眼底图像和所述分割掩码图更新所述第二分割模型,得到第三分割模型及其输出的第三分割预测值,依此类推,直至第
q
总损失值小于所述预设总损失值,得到所述第二病灶分割网络模型,其中,
q
为迭代次数

[0019]根据本专利技术的一些实施例,所述根据所述高维特征信息与所述分割掩码图通过分割特征感知损失函数进行损失值计算,得到第一分割特征损失值的计算公式为:
[0020][0021]其中,
L
sp
为第一分割特征损失值,
W

VGG

19
的特征提取层输出的特征图的维度,
H
为为
VGG

19
的特征提取层输出的特征图的维度,
φ
i

VGG

19
的第
i
层特征提取层,
n
为高维特征图中的第
n
个点,
x
n
为分割掩码图的真实标签,
p
n
为第
n
个像素点的分割预测值

[0022]根据本专利技术的一些实施例,所述根据所述第一分割预测值与所述分割掩码图进行损失值计算,得到第二分割特征损失值的计算公式为:
[0023][0024][0025]L2=
λ2L
MAE
+
λ3L
dice
[0026]其中,
L
MAE

MAELoss
损失值,
L
dice

DiceLoss
损失值,
L2为分割特征损失值,
N
为眼底图像视杯视盘分割图的像素点总个数,
r<本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.
一种眼底图像病灶分割方法,其特征在于,所述眼底图像病灶分割方法包括:获取历史眼底图像数据集和待预测眼底图像,其中,所述历史眼底图像数据集包括历史眼底图像

所述历史眼底图像对应的真实分类标签和所述历史眼底图像对应的分割掩码图;构建第一分类网络模型,将所述历史眼底图像和所述真实分类标签输入所述第一分类网络模型进行训练,得到第二分类网络模型;构建第一病灶分割网络模型,根据所述第二分类网络模型

所述历史眼底图像和所述历史眼底图像对应的分割掩码图对所述第一病灶分割网络模型进行训练,得到第二病灶分割网络模型;将所述待预测眼底图像输入所述第二病灶分割网络模型进行预测,得到所述待预测眼底图像的病灶分割信息
。2.
根据权利要求1所述的一种眼底图像病灶分割方法,其特征在于,所述第一病灶分割网络模型包括
VGG

19
编码器,所述构建第一病灶分割网络模型,根据所述第二分类网络模型

所述历史眼底图像和所述历史眼底图像对应的分割掩码图对所述第一病灶分割网络模型进行训练,得到第二病灶分割网络模型,包括:将所述历史眼底图像和所述分割掩码图输入所述第一病灶分割网络模型进行训练,得到第一分割模型及其输出的第一分割预测值;根据所述第一分割预测值与所述分割掩码图通过所述
VGG

19
编码器进行高维特征提取,得到高维特征信息;根据所述高维特征信息与所述分割掩码图通过分割特征感知损失函数进行损失值计算,得到第一分割特征损失值;根据所述第一分割预测值与所述分割掩码图进行损失值计算,得到第二分割特征损失值;根据所述第一分割特征损失值与所述第二分割特征损失值进行总损失计算,得到第一总损失值;当所述第一总损失值小于预设总损失值,则所述第一分割模型为所述第二病灶分割网络模型;当所述第一总损失值大于所述预设总损失值,则根据所述第一总损失值

所述第二分类网络模型

所述历史眼底图像和所述分割掩码图更新所述第一分割模型,得到第二分割模型及其输出的第二分割预测值,根据所述第二分割预测值与所述分割掩码图进行损失值计算,得到第二总损失值;当所述第二总损失值小于所述预设总损失值,则所述第二分割模型为所述第二病灶分割网络模型;当所述第二总损失值大于所述预设总损失值,则根据所述第二总损失值

所述第二分类网络模型

所述历史眼底图像和所述分割掩码图更新所述第二分割模型,得到第三分割模型及其输出的第三分割预测值,依此类推,直至第
q
总损失值小于所述预设总损失值,得到所述第二病灶分割网络模型,其中,
q
为迭代次数
。3.
根据权利要求2所述的一种眼底图像病灶分割方法,其特征在于,所述根据所述高维特征信息与所述分割掩码图通过分割特征感知损失函数进行损失值计算,得到第一分割特征损失值的计算公式为:
其中,
L
sp
为第一分割特征损失值,
W

VGG

19
的特征提取层输出的特征图的维度,
H
为为
VGG

19
的特征提取层输出的特征图的维度,
φ
i

VGG

19
的第
i
层特征提取层,
n
为高维特征图中的第
n
个点,
x
n
为分割掩码图的真实标签,
p
n
为第
n
个像素点的分割预测值
。4.
根据权利要求3所述的一种眼底图像病灶分割方法,其特征在于,所述根据所述第一分割预测值与所述分割掩码图进行损失值计算,得到第二分割特征损失值的计算公式为:分割预测值与所述分割掩码图进行损失值计算,得到第二分割特征损失值的计算公式为:
L2=
λ2L
MAE
+
λ3L
dice
其中,
L
MAE

MAELoss
损失值,
L
dice

...

【专利技术属性】
技术研发人员:马岚邓卓宋家兴高伟豪牛志远李方
申请(专利权)人:清华大学深圳国际研究生院
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1