一种基于深度学习的彩色眼底图像视杯分割方法技术

技术编号:25891184 阅读:31 留言:0更新日期:2020-10-09 23:33
本发明专利技术涉及一种基于深度学习的彩色眼底图像视杯分割方法。该方法包括:1)输入眼底图像;2)利用Seg‑ResNet网络先对视盘进行分割,分割之后的视盘区作为视杯分割的感兴趣区域,再利用Seg‑ResNet网络对视盘区进行视杯分割,该网络基于残差基础结构,考虑特征通道之间的关系进行通道加权,对通道间的依赖关系建模,自适应地调整各通道的特征响应值,并对多个层进行特征融合,实现在捕获图像语义信息的同时定位像素点的位置信息;3)输出利用Seg‑ResNet网络的视杯分割结果。本发明专利技术在公开数据集GlaucomaRepo和Drishti‑GS上进行视杯分割的测试,结果表明测试结果提高了分割准确率及算法鲁棒性。

【技术实现步骤摘要】
一种基于深度学习的彩色眼底图像视杯分割方法
本专利技术涉及一种基于深度学习的彩色眼底图像视杯分割方法,该方法涉及图像处理、深度学习以及残差网络,能够对彩色眼底图像视杯进行分割。
技术介绍
青光眼是由于眼内压升高而导致的视神经纤维受损的视神经性疾病,具有不可逆转性,致盲率非常高,仅次于白内障。临床上,青光眼可以通过杯盘比等参数的测量来进行初步诊断,而且检测视杯有助于建立一个视网膜坐标系统,以此为依据可进一步判断玻璃膜疣、渗出物、出血点等视网膜异常情况及其位置。彩色眼底图像视杯的自动检测技术为眼科疾病的智能化诊断提供了一个稳定、准确、效率高的解决方式。因此,近年来在诊断研究视网膜视神经疾病方面越来越重视眼底图像视杯分割的准确性。虽然医学图像处理技术的发展使得眼底图像处理技术得到很大突破,在诊断眼底疾病领域也取得一些研究成果,然而在复杂问题和非线性条件较多的情况下,传统医学图像处理算法的准确性和稳定性都不能得到保障。眼底图像中视杯面积小、与视盘对比度不高、边缘不明显且血管遮挡严重等因素,导致使用传统算法分割眼底图像中视杯难以满足医学图像辅助诊断系统的要求,仍有很大提升空间。基于深度学习的特征提取是在大量来自不同拍摄环境下的数据集上进行的,自适应地学习图像的抽象特征,对不同的数据集分割表现稳定,弥补了传统方法操作复杂、鲁棒性低的问题。深度学习分割框架解决了语义级别图像分割的问题,使得图像中的每个像素都可进行目标与背景的二分类,端到端地对每个像素的预测结果。基于深度学习的视杯分割方法较传统技术已经取得了较大突破,但是由于医学图像的特殊性,很难满足深度网络训练需要的大规模数据集的要求,导致目前基于深度学习的视杯分割精度不高。
技术实现思路
本专利技术的目的是提高彩色眼底图像中视杯的分割精度,针对目前已有的小规模数据集,结合迁移学习策略,提出了基于深度学习技术的视杯分割方法,为此,本专利技术采用如下的技术方案:1.输入眼底图像,提取感兴趣区域视盘区作为视杯分割的区域;2.对视盘区进行视杯分割;3.优化残差结构;4.采用通道加权结构调整各特征通道的响应值;5.将高层特征与底层特征融合;6.输出利用Seg-ResNet网络的视杯分割结果。步骤1中:由于视杯面积小,与视盘亮度特征相近,为了避免视盘对视杯分割的干扰,在分割视杯之前需要先分割视盘并把视盘区域作为视杯分割的感兴趣区域。步骤2中:把分割得到的视盘区作为感兴趣区域进行视杯分割。步骤3中:优化残差块计算,使用1×1+3×3+1×1的三层卷积替换3×3的两层卷积,首先在一个1×1卷积滤波下降低维度减少了计算,优化结构中的中间3×3的卷积层,最后通过另一个1×1的卷积滤波还原维度。步骤4中:压缩阶段使用全局平均池化把各层输出的二维特征图压缩至一维,通过压缩得到的一维特征可以反映输入特征通道的全局感受野信息;激励阶段为压缩后的特征通道生成可学习的权重,通过激励可以显式地对各特征通道之间的相关性进行非线性建模;经过步骤压缩和激励,得到的输出权重表示了每个特征通道的重要程度,在加权阶段经网络卷积后,有一组特征被直接输出,然后将激励得到的权重通过乘法逐通道的加权到被直接输出的特征上,完成对原始特征通道的重新加权。步骤5中:使用1×1的卷积把编码阶段高维度的特征图进行降维,将维度降低到与解码阶段的特征图相同的维度以便融合操作,融合之后紧接着再使用一个1×1的卷积核降低特征图的维度,之后底层相同尺寸的特征图采用上述相同的方式进行特征融合。步骤6中:利用Seg-ResNet网络对数据集GlaucomaRepo和Drishti-GS进行检测,输出分割结果。与现有技术相比,本专利技术的有益效果是:1.避免梯度爆炸或梯度消失。恒等映射将输入叠加到卷积输出上,跳过了多个层的连接。2.优化计算。使用1×1+3×3+1×1的三层卷积替换3×3的两层卷积。3.结构简便,易于实现。通过考察卷积后特征图各通道之间的关系,显式地对通道之间的相关性进行非线性建模。4.提高了视杯的分割精度和鲁棒性。附图说明图1为深度学习网络结构Seg-ResNet图;图2为优化残差结构图;图3为SE模块的示意图;图4为高层特征与底层特征融合图;图5(a1)-(a3)为GlaucomaRepo数据库中受血管遮挡严重的分割结果图;图5(b1)-(b3)为GlaucomaRepo数据库中杯盘对比度低的分割结果图;图5(c1)-(c3)为GlaucomaRepo数据库中视杯面积大小不一的分割结果图;图5(d1)-(d3)为Drishti-GS数据库中受血管遮挡严重的分割结果图;图5(e1)-(e3)为Drishti-GS数据库中杯盘对比度低的分割结果图;图5(d1)-(d3)为Drishti-GS数据库中视杯面积大小不一的分割结果图;具体实施方式本专利技术的深度学习网络结构如图1所示,Seg-ResNet一共包括10个SERes模块,5个最大池化层,4个上采样层和一个损失函数层。网络中的卷积核有两种尺寸,分别为1×1和3×3,步长均为1,并且在每层卷积后紧跟着使用ReLU函数进行激活增加网络的非线性能力。最大池化层的卷积尺寸为2×2,步长为2。网络结构中的SERes是残差结构与通道加权结构相结合模块,每个SERes模块包括三个卷积层,卷积中使用了BatchNorm层对数据做批归一化处理。首先,使用ResNet为基础网络,采用通道加权结构调整各特征通道的响应值,将高层特征与底层特征融合,形成了一种新的网络Seg-ResNet。下面结合附图,对本专利技术技术方案的具体实施过程加以说明。1.输入眼底图像,提取感兴趣区域视盘区作为视杯分割的区域利用公开数据集GlaucomaRepo和Drishti-GS里的数据做为输入的眼底图像,提取兴趣区域视盘区。2.对视盘区进行视杯分割,将得到的视盘区作为感兴趣区域进行视杯分割。3.优化残差结构残差结构模型可以利用恒等映射将深层网络退化为一个浅层网络。优化残差结构如图2所示。4.采用通道加权结构调整各特征通道的响应值通道加权就是从特征图的维度考虑,寻找各通道的依赖关系,通过学习的方式建模不同特征通道的重要程度,并有选择地增强主要特征,对不重要的特征进行抑制。以往的神经网络的输出忽略了各通道间依赖关系,而Seg-ResNet基于通道加权单元模块设计,使得该网络卷积得到的特征图中有用特征得到更充分的利用,无用特征被抑制。压缩阶段使用全局平均池化把各层输出的二维特征图压缩至一维,通过压缩得到的一维特征可以反映输入特征通道的全局感受野信息;激励阶段为压缩后的特征通道生成可学习的权重,类似循环神经网络中的门的机制。通过激励可以显式地对各特征通道之间的相关性进行非线性建模;加权阶段经过压缩阶段和激励阶段,得到的输出权重表示了每个特征通道的重要程度,经本文档来自技高网
...

【技术保护点】
1.基于深度学习的彩色眼底图像视杯分割方法,所述方法包括下列步骤:/n(1)输入眼底图像,提取感兴趣区域视盘区作为视杯分割的区域;/n(2)对视盘区进行视杯分割;/n(3)优化残差结构;/n(4)采用通道加权结构调整各特征通道的响应值;/n(5)将高层特征与底层特征融合;/n(6)输出利用Seg-ResNet网络的视杯分割结果。/n

【技术特征摘要】
1.基于深度学习的彩色眼底图像视杯分割方法,所述方法包括下列步骤:
(1)输入眼底图像,提取感兴趣区域视盘区作为视杯分割的区域;
(2)对视盘区进行视杯分割;
(3)优化残差结构;
(4)采用通道加权结构调整各特征通道的响应值;
(5)将高层特征与底层特征融合;
(6)输出利用Seg-ResNet网络的视杯分割结果。


2.根据权利要求1所述的方法,其特征在于,步骤(3)中,使用ResNet为基础网络,优化残差块计算,使用1×1+3×3+1×1的三层卷积替换3×3的两层卷积,首先在一个1×1卷积滤波下降低维度减少了计算,优化结构中的中间3×3的卷积层,最后通过另一个1×1的卷积滤波还原维度。


3.根据权利要求1所述的方法,其特征在于,步骤(4)中,采用通道加权结构调整...

【专利技术属性】
技术研发人员:肖志涛耿磊张新新吴骏张芳刘彦北王雯王曼迪
申请(专利权)人:天津工业大学
类型:发明
国别省市:天津;12

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1