一种基于卷积神经网络的眼底图像分类方法技术

技术编号:34564508 阅读:20 留言:0更新日期:2022-08-17 12:53
本发明专利技术涉及一种基于卷积神经网络的眼底图像分类方法,属于医学图像处理技术领域。该方法包括:S1:以眼底图像为输入,获取每个像素对应的组织图像;S2:组织图像通过预训练卷积神经网络进行特征提取;其中预训练卷积神经网络即特征提取网络是利用公开的纹理图像集和少量组织图像集,经迁移学习得到的卷积神经网络;S3:特征提取后,采用基于GAN的孪生网络中的解码器-编码器网络在重构正则化的共享空间中匹配源域和目标域的分布,并利用判别器将目标域和源域区分;S4:采用对抗损失和交叉熵损失函数训练网络参数,获取最优分类网络模型。本发明专利技术能增强特征信息提取能力,更加准确地对眼底图像进行分类,提高最终分类结果的准确率。确率。确率。

【技术实现步骤摘要】
一种基于卷积神经网络的眼底图像分类方法


[0001]本专利技术属于医学图像处理
,涉及一种基于卷积神经网络的眼底图像分类方法。

技术介绍

[0002]当前由于医疗资源分配不平衡、眼底检测设备昂贵、缺乏有经验专科医师等因素,导致眼底疾病筛查不足,严重影响疾病早诊早治。目前,卷积神经网络(CNN)在图像处理方面有着很好的表现,因此被应用广泛。利用卷积神经网络模型可以对眼底图片进行处理,迅速准确识别眼底疾病,推动眼底疾病的筛查工作,促进眼健康的发展。
[0003]Liu等人(2019)提出利用卷积神经网络自动提取深度特征构建白内障分级模型;Xun等人(2021)提出基于R

VGGNet网络模型的识别方法提高了判别青光眼患者的准确率;Li等人(2018)提出基于CNN的白内障自动分类器在四分类任务中取得了81.86%的平均准确率。上述模型大多只针对单一病种的识别,如青光眼、白内障和糖尿病视网膜病变等,导致其在日常生活中的适用范围较窄,多用于中后期辅助诊断工作。
[0004]因此,亟需一种能够提高眼底图像分类准确率的方法。

技术实现思路

[0005]有鉴于此,本专利技术的目的在于提供一种基于卷积神经网络的眼底图像分类方法,增强特征信息提取能力,更加准确地对眼底图像进行分类,提高最终分类结果的准确率。
[0006]为达到上述目的,本专利技术提供如下技术方案:
[0007]一种基于卷积神经网络的眼底图像分类方法,包括以下步骤:
[0008]S1:以眼底图像为输入,获取每个像素对应的组织图像;
[0009]S2:组织图像通过预训练卷积神经网络进行特征提取;其中,预训练卷积神经网络即特征提取网络是根据组织图像特点设计的,利用公开的纹理图像集和少量组织图像集,经迁移学习得到的卷积神经网络;
[0010]S3:特征提取后,采用基于GAN的孪生网络中的解码器-编码器网络在重构正则化的共享空间中匹配源域和目标域的分布,并利用判别器将目标域和源域区分;
[0011]S4:采用对抗损失和交叉熵损失函数训练网络参数,获取最优分类网络模型。
[0012]进一步,步骤S1中,组织图像是通过眼底图像自动生成的32
×
32图像块;所述图像块包括白内障、近视、老年黄斑变性、青光眼、糖网病和正常6个征象类中某一类;对于带病灶标注的眼底图像,组织图像是从标注区域自动抽取的非重叠图像块,它归属于6个征象类中的某一类;对于测试眼底图像,组织图像是对每一个眼底像素点自动生成的。
[0013]进一步,步骤S2中,所述预训练卷积神经网络考虑到眼底组织具有特定规律的复杂高层纹理结构,针对纹理的特征局部结构、纹理细颗粒度低层次特征以及纹理图像块在翻转或旋转后仍是同一类的有效样本等特点,采用以下网络结构进行眼底组织分类:网络输入为32
×
32图像块,共由5个卷积层卷积而成;每一层采用2
×
2核尺寸;采用2
×
2核尺寸
可以包含更多的非线性激活,同时保持总的感受野足够小仅捕获纹理的局部结构。最后一个卷积层后是平均池化层,其尺寸与最后一个卷积层的输出相同;它输出的特征与最后一个卷积层的特征映射的数量相同,即f=36k;然后,将这些特征输入3个稠密层;同时在每个稠密层之前添加一个dropout层防止过拟合问题。
[0014]进一步,步骤S3中,基于GAN的孪生网络包括编码器、解码器、判别器和分类器;所述编码器将源域和目标域数据样本匹配到一个空间;所述解码器约束映射空间以保证源域和目标域图像重建效果;所述判别器试图将来自两个域图像进行区分;所述分类器通过源域数据学习后实现对目标域数据分类。
[0015]进一步,步骤S3中,所述编码器接收特征提取网络输出的特征向量并将其映射到更小维度特征;所述解码器接收来自编码器的小维度的特征向量,并重构原始特征向量;所述判别器从编码器接受输出的特征向量作为输入,并输出域预测。
[0016]进一步,步骤S3中,编码器由三个密集层组成,每个后面是批归一化和LeakyReLU激活函数;最后一个稠密层后面是sigmoid激活函数;类似编码器,解码器除最后一层使用sigmoid激活函数,其它层采用批归一化和LeakyReLU激活函数。
[0017]进一步,步骤S4中,对于判别器d的参数w
d
和解码器g的参数w
g
训练,分别定义对抗损失为:
[0018]L
d
(d(x
s
,x
t
,w
d
))=E[logd(g(x
s
))]+E[log(1

d(g(x
t
)))]ꢀꢀ
(1)
[0019][0020]其中,判别器的损失函数L
d
(d(x
s
,x
t
,w
d
))是标准二元交叉熵;解码器的损失函数L
g
(g(x
s
,x
t
,w
g
,w
de
))后两项分别表示源域和目标域的重建损失,x
s
表示源域,x
t
表示目标域,表示预估的源域,表示预估的目标域,w
de
表示目标域的重建损失,λ
t
是引入的系数,g(
·
)表示生成的对应图像,E[
·
]表示重建误差,是两组数据差的平方和;分类器CL通过带标签的源域数据G(x
s
)进行参数学习,并通过最小化多类交叉熵损失函数L
cl
(G(x
s
),W
cl
)实现类判别;
[0021][0022]其中,P(y
i
=k|G(x
is
),W
cl
)表示分类器网络顶部的softmax回归层提供的概率输出向量,n
s
表示批大小,K表示类数量,G(x
s
)表示编码的具有标签的源数据,W
cl
表示子网络cl的参数。
[0023]本专利技术的有益效果在于:本专利技术提出的眼底图像分类模型通过预训练,可以增强特征信息提取能力,更加准确地对眼底图像进行分类,提高最终分类结果的准确率。
[0024]本专利技术的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本专利技术的实践中得到教导。本专利技术的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
[0025]为了使本专利技术的目的、技术方案和优点更加清楚,下面将结合附图对本专利技术作优
选的详细描述,其中:
[0026]图1为眼底组织图像分类网络结构图;
[0本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于卷积神经网络的眼底图像分类方法,其特征在于,该方法包括以下步骤:S1:以眼底图像为输入,获取每个像素对应的组织图像;S2:组织图像通过预训练卷积神经网络进行特征提取;其中,预训练卷积神经网络即特征提取网络是利用公开的纹理图像集和少量组织图像集,经迁移学习得到的卷积神经网络;S3:特征提取后,采用基于GAN的孪生网络中的解码器-编码器网络在重构正则化的共享空间中匹配源域和目标域的分布,并利用判别器将目标域和源域区分;S4:采用对抗损失和交叉熵损失函数训练网络参数,获取最优分类网络模型。2.根据权利要求1所述的眼底图像分类方法,其特征在于,步骤S1中,组织图像是通过眼底图像自动生成的图像块;所述图像块包括白内障、近视、老年黄斑变性、青光眼、糖网病和正常6个征象类中某一类;对于带病灶标注的眼底图像,组织图像是从标注区域自动抽取的非重叠图像块,它归属于6个征象类中的某一类;对于测试眼底图像,组织图像是对每一个眼底像素点自动生成的。3.根据权利要求1所述的眼底图像分类方法,其特征在于,步骤S2中,所述预训练卷积神经网络采用以下网络结构进行眼底组织分类:网络输入为图像块,共由5个卷积层卷积而成;每一层采用2
×
2核尺寸;最后一个卷积层后是平均池化层,其尺寸与最后一个卷积层的输出相同;它输出的特征与最后一个卷积层的特征映射的数量相同;然后,将这些特征输入3个稠密层;同时在每个稠密层之前添加一个dropout层。4.根据权利要求1所述的眼底图像分类方法,其特征在于,步骤S3中,基于GAN的孪生网络包括编码器、解码器、判别器和分类器;所述编码器将源域和目标域数据样本匹配到一个空间;所述解码器约束映射空间以保证源域和目标域图像重建效果;所述判别器试图将来自两个域图像进行区分;所述分类器通过源域数据学习后实现对目标域数据分类。5.根据权利要求4所述的眼底图像分类方法,其特征在于,步骤S3中,所述编码器接收特征提取网络输出的特征向量并将其映射到更小维度特征;所述解码器接收来自编码器的小维度的特征向量,并重构原始特征向量;所述判别器从编码器接受输出的特征向量作为输入,并输出域预测。6.根据权利要求4或5所述的眼底图像分类方法,其特征在于,步骤S3中,编码器由三个密集层组成,每个后面是批归一化和LeakyReLU激活函数;最后一个稠密层后面是sigmoid...

【专利技术属性】
技术研发人员:周雨周贺凯余天袁慧刘姝杭曹恩苓
申请(专利权)人:重庆邮电大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1