基于距离调制损失的迭代式眼底图像血管分割方法技术

技术编号:18139444 阅读:26 留言:0更新日期:2018-06-06 12:28
本发明专利技术公开一种基于距离调制损失的迭代式眼底图像血管分割方法,其采用以下步骤:(0)采集彩色眼底图像形成原始图像;(1)原始图像的规范化处理;(2)迭代训练基于距离调制损失的稠密卷积神经网络;(3)利用训练好的稠密卷积神经网络迭代式分割血管。本方法能处理不同采集情况下的彩色眼底图像,能够为眼科医生提供交互式的血管分割体验,对血管检测更具鲁棒性,为后续的辅助诊断提供可靠保障。

【技术实现步骤摘要】
基于距离调制损失的迭代式眼底图像血管分割方法
本专利技术属于图像处理领域,具体涉及的是一种基于距离调制损失的迭代式眼底图像血管分割方法。
技术介绍
带有交互方式的自动化眼底图像血管分割技术能够为眼科医生后续测量视网膜内血管情况提供快捷的服务,帮助医生高效地评估潜在的糖尿病、高血压、动脉血管硬化等疾病情况。目前国内外有大量针对眼底图像血管分割的算法和技术,主要包括两大类技术:无监督训练的分割方法和有监督训练的分割方法。无监督训练的分割方法中最具有代表性的是基于匹配滤波器的(MatchedFilters)方法,该方法通过统计分析得到眼底图像血管横截面的灰度特征近似一个倒置的高斯函数,因此通过设计具有方向性的倒置高斯函数,再与眼底灰度图像卷积得到最大响应的分布图,最终对该分布图进行阈值分割得到血管分割图像。此方法依赖于血管横截面的统计信息,无法对血管中心带有反射的情况进行表征,并且对尺度敏感,无法获得较好的血管分割效果。随着近年来深度学习技术的快速发展,利用深度神经网络来对眼底图像血管进行分割成为有监督训练的分割方法中最普遍的方式。该方法利用不同层次的卷积单元来替代原先复杂的特征工程,统一了特征学习和模型学习过程,提升了血管分割的效果。但是现有的深度学习方法只是单纯地把眼底图像血管分割问题转化为了一个二分类问题,并没有针对血管结构进行进一步的约束,同时如果网络输出的结果不理想时,也无法进一步利用学习的模型改进分割结果。
技术实现思路
本专利技术针对彩色眼底图像中的视网膜血管分割问题,结合血管像素点和非血管像素点的分布特性以及深度神经网络对血管结构的建模能力,提出一种基于距离调制损失的迭代式眼底图像血管分割方法,提高了眼底图像血管分割的精度和鲁棒性,为后续眼底图像的处理提供了帮助。本专利技术是通过以下技术方案来实现的。一种基于距离调制损失的迭代式眼底图像血管分割方法,采取以下步骤:步骤S0,采集彩色眼底图像形成原始图像;步骤S1,对原始图像进行规范化处理,得到标准化后的原始图像,作为训练图像和测试图像;步骤S2,针对训练图像,迭代训练基于距离调制损失的稠密卷积神经网络,得到最终的稠密卷积神经网络模型;步骤S3,针对测试图像,利用稠密卷积神经网络模型迭代式分割血管,生成最终的血管分割结果。优选地,步骤S0中,采集彩色眼底图像形成原始图像是指利用彩色数码眼底相机拍摄眼底进行眼底图像采集。优选地,所述步骤S1对原始图像进行规范化处理包括:步骤S1.1,统一视场的直径大小,即取原始图像中间(1/2)高度的位置估计原始图像视场直径的大小,对沿着原始图像宽度方向上每个像素点的RGB通道的数值求和,再对每个像素点进行二值化处理:Bp=Ip>ThFOV其中,Ip为每个像素点RGB通道的数值之和,ThFOV为视场定位的阈值,取值为所有Ip均值的0.1倍,接着统计所有Bp取值为1的个数,得到的数值即是对原始图像视场直径的估计,然后依据估计的视场直径对原始图像进行等比例的缩放,缩放比例的计算为:其中,Dst=540为设定的标准视场直径大小,D为估计的视场直径大小。当r<1时表示需要缩小原始图像,当r>1时表示需要放大原始图像;步骤S1.2,对缩放后的原始图像进行亮度和对比度规范化,即先对缩放后的原始图像进行高斯滤波,得到滤波后的背景图像:Imgback=Gσ*Img其中,Img为缩放后的原始图像,Gσ为高斯滤波器模板,σ取值为Dst/60,操作符*表示卷积操作,Imgback为高斯滤波后的背景图像;再依据得到的背景图像对缩放后的原始图像进行亮度和对比度处理:Imgnorm=α(Img-Imgback)+γ其中,α=4为对比度调节因子,γ=128为亮度调节因子,Imgnorm为标准化后的原始图像,其RGB三个通道的取值均限制在[0,255]整数范围内,对取值小于0的值截止为0,大于255的值截止为255。优选地,所述步骤S2迭代训练基于距离调制损失的稠密卷积神经网络包括:步骤S2.1,针对训练图像的血管标记图构造血管标记距离图,即先对血管标记图进行二值图像的距离变换,得到非血管像素点到血管像素点的欧式距离图Mnonves,再对血管标记图取反并进行二值图像的距离变化,得到血管像素点到非血管像素点的欧式距离图Mves,合并两个距离图得到最终的血管标记距离图Mdist:Mdist=Mves-Mnonves其中,Mdist中的正值表示血管像素点,并且值越大表示像素点越靠近血管中心线,Mdist中的负值表示非血管像素点,并且值越小表示像素点越远离血管;步骤S2.2,对训练图像进行随机采样,每张训练图像上随机选取9500个像素大小为48×48的图像块,并选取它们对应的血管标记图和血管标记距离图Mdist中的位置区域组成训练样本集;步骤S2.3,对训练样本集中的图像块增加1个血管概率通道,该血管概率通道用于存放对应像素点的血管概率值,初始的概率值为0.5,表示迭代训练前对每个像素点是否属于血管的无偏差估计;步骤S2.4,利用OlafRonneberger于2015年提出的U型网络和GaoHuang于2016年提出的稠密卷积模块,构造稠密卷积神经网络用于生成图像块的血管概率图,每个稠密卷积模块包含5个卷积层,每个卷积层包含12个3×3的卷积核,填充和步长均为1,该稠密卷积神经网络的输入为48×48像素大小的包含RGB和血管概率的4通道图像块,输出为48×48像素大小的包含血管和非血管两类概率的2通道图像块,具体的参数如下:层名称层类型输入层核大小输出形状(高×宽×通道数)Conv0卷积层Input3×348×48×32Db1稠密卷积模块Conv03×348×48×92Conv1卷积层Db11×148×48×92Mp1MaxpoolingConv12×224×24×92Db2稠密卷积模块Mp13×324×24×152Conv2卷积层Db21×124×24×152Mp2MaxpoolingConv22×212×12×152Db3稠密卷积模块Mp23×312×12×212Conv3卷积层Db31×112×12×212Mp3MaxpoolingConv32×26×6×212Db4稠密卷积模块Mp33×36×6×272Up1上采样层Db42×212×12×60Db5稠密卷积模块[Up1,Db3]3×312×12×332Up2上采样层Db52×224×24×60Db6稠密卷积模块[Up2,Db2]3×324×24×272Up3上采样层Db62×248×48×60Db7稠密卷积模块[Up3,Db1]3×348×48×212Conv4卷积层Db71×148×48×2OutputSoftmaxConv4无48×48×2其中,Softmax层使得每个图像块中同一像素点的血管和非血管两类概率之和为1,选取血管类别的通道即是图像块的血管概率图;步骤S2.5,对训练样本集中每个图像块的像素点定义距离调制损失,根据对应血管标记图中的标记:-若该像素点标记为血管像素点,则距离调制损失定义为:Lossves=-Mdist(q)AlogP其中,q为该像素点在训练图像中的位置,P为该像素点的血管概率值,A为血管像素点的距离调制因子,取值为0.5,从而对于靠近血管中心线的血管像素点给予更本文档来自技高网...
基于距离调制损失的迭代式眼底图像血管分割方法

【技术保护点】
一种基于距离调制损失的迭代式眼底图像血管分割方法,其特征在于,包括以下步骤:步骤S0,采集彩色眼底图像形成原始图像;步骤S1,对原始图像进行规范化处理,得到标准化后的原始图像,作为训练图像和测试图像;步骤S2,针对训练图像,迭代训练基于距离调制损失的稠密卷积神经网络,得到稠密卷积神经网络模型;步骤S3,针对测试图像,利用稠密卷积神经网络模型迭代式分割血管,生成血管分割结果。

【技术特征摘要】
1.一种基于距离调制损失的迭代式眼底图像血管分割方法,其特征在于,包括以下步骤:步骤S0,采集彩色眼底图像形成原始图像;步骤S1,对原始图像进行规范化处理,得到标准化后的原始图像,作为训练图像和测试图像;步骤S2,针对训练图像,迭代训练基于距离调制损失的稠密卷积神经网络,得到稠密卷积神经网络模型;步骤S3,针对测试图像,利用稠密卷积神经网络模型迭代式分割血管,生成血管分割结果。2.根据权利要求1所述基于距离调制损失的迭代式眼底图像血管分割方法,其特征在于,所述步骤S0中采集彩色眼底图像形成原始图像是指利用彩色数码眼底相机拍摄眼底进行眼底图像采集。3.根据权利要求1所述基于距离调制损失的迭代式眼底图像血管分割方法,其特征在于,所述步骤S1中对原始图像进行规范化处理,包括如下步骤:步骤S1.1,统一视场的直径大小,即取原始图像中间高度的位置估计原始图像视场直径的大小,对沿着原始图像宽度方向上每个像素点的RGB通道的数值求和,再对每个像素点进行二值化处理:Bp=Ip>ThFOV其中,Ip为每个像素点RGB通道的数值之和,ThFOV为视场定位的阈值,取值为所有Ip均值的0.1倍,接着统计所有Bp取值为1的个数,得到的数值即是对原始图像视场直径的估计,然后依据估计的视场直径对原始图像进行等比例的缩放,缩放比例的计算为:其中,Dst=540为设定的标准视场直径大小,D为估计的视场直径大小;当r<1时表示需要缩小原始图像,当r>1时表示需要放大原始图像;步骤S1.2,对缩放后的原始图像进行亮度和对比度规范化,即先对缩放后的原始图像进行高斯滤波,得到滤波后的背景图像:Imgback=Gσ*Img其中,Img为缩放后的原始图像,Gσ为高斯滤波器模板,σ取值为Dst/60,操作符*表示卷积操作,Imgback为高斯滤波后的背景图像;再依据得到的背景图像对缩放后的原始图像进行亮度和对比度处理:Imgnorm=α(Img-Imgback)+γ其中,α为对比度调节因子,γ为亮度调节因子,Imgnorm为标准化后的原始图像,其RGB三个通道的取值均限制在[0,255]整数范围内,对于取值小于0的值截止为0,大于255的值截止为255。4.根据权利要求3所述基于距离调制损失的迭代式眼底图像血管分割方法,其特征在于,α=4,γ=128。5.根据权利要求1所述基于距离调制损失的迭代式眼底图像血管分割方法,其特征在于,所述步骤S2中迭代训练基于距离调制损失的稠密卷积神经网络,包括如下步骤:步骤S2.1,针对训练图像的血管标记图构造血管标记距离图,即先对血管标记图进行二值图像的距离变换,得到非血管像素点到血管像素点的欧式距离图Mnonves,再对血管标记图取反并进行二值图像的距离变化,得到血管像素点到非血管像素点的欧式距离图Mves,合并两个距离图得到最终的血管标记距离图Mdist:Mdist=Mves-Mnonves其中,Mdist中的正值表示血管像素点,并且值越大表示像素点越靠近血管中心线,Mdist中的负值表示非血管像素点,并且值越小表示像素点越远离血管;步骤S2.2,对训练图像进行随机采样,每张训练图像上随机选取多个像素大小为48×48并且包含RGB三个通道的图像块,并选取它们对应的血管标记图和血管标记距离图Mdist中的位置区域组成训练样本集;步骤S2.3,对训练样本集中的图像块增加1个血管概率通道,该血管概率通道用于存放对应像素点的血管概率值,初始的概率值为0.5,表示迭代训练前对每个像素点是否属于血管的无偏差估计;步骤S2.4,利用U型网络和稠密卷积模块,构造稠密卷积神经网络用于生成图像块的血管概率图,每个稠密卷积模块包含5个卷积层,每个卷积层包含12个3×3的卷积核,填充和步长均为1,该稠密卷积神经网络的输入为48×48像素大小的包含RGB和血管概率的4通道图像块,输出为48×48像素大小的包含血管和非血管两类概率的2通道图像块;步骤S2.5,对训练样本集中每个图像块的像素点定义距离调制损失,根据对应血管标记图中的标记:-若该像素点标记为血管像素点,则距离调制损失定义为:Los...

【专利技术属性】
技术研发人员:杨杰周磊
申请(专利权)人:上海交通大学
类型:发明
国别省市:上海,31

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1