一种基于深度学习的彩色眼底图像青光眼筛查方法及系统技术方案

技术编号:27205417 阅读:29 留言:0更新日期:2021-01-31 12:26
本发明专利技术提供了一种彩色眼底图像青光眼筛查方法及系统,包括:步骤M1:采集不同来源的彩色眼底图像数据,并对部分彩色眼底图像数据进行标注;步骤M2:对采集到的彩色眼底图像数据进行预处理;步骤M3:利用预处理后的标注的图像数据训练卷积神经网络,直至损失函数收敛,得到训练后的卷积神经网络,利用预处理后的未标注的彩色眼底图像数据对训练后的卷积神经网络进行半监督方法训练,得到半监督方法训练后的卷积神经网络;步骤M4:利用半监督方法训练后的卷积神经网络分割眼底图像中的视盘视杯区域,根据分割结果判断青光眼。本发明专利技术采用了数据增强和半监督方法学习,提高模型的稳定性,降低算法对标注数据的需求。降低算法对标注数据的需求。降低算法对标注数据的需求。

【技术实现步骤摘要】
一种基于深度学习的彩色眼底图像青光眼筛查方法及系统


[0001]本专利技术涉及医学影像领域,具体地,涉及一种基于深度学习的彩色眼底图像青光眼筛查方法及系统,更为具体地,涉及一种基于空间转换和半监督学习的彩色眼底图像青光眼筛查方法及系统。尤其涉及基于空间转换的彩色眼底视盘视杯分割网络和基于低标注数据的半监督训练方式,以提高视盘视杯分割精度和模型的稳定性。

技术介绍

[0002]青光眼是一种导致视神经进行性、特征性损伤的疾病,具有高患病率及高致盲率的特点,是我国乃至全球第一位的不可逆致盲性眼病。早期的诊断和治疗对于提高青光眼患者生活质量至关重要,早期确诊的患者通过合理治疗,绝大部分可以终生保有视功能。然而目前青光眼筛查中存在缺乏早期发现的有效手段、不典型及复杂性青光眼诊断难度大、随诊困难等问题;传统意义上的医疗资源配置调整、病因学研究投入增加等策略难以改变现状;而且青光眼诊断仍然存在医生主观因素影响,特别是在早期青光眼检测中;同时我国医疗资源分布差距明显,基层医院对青光眼诊疗水平不理想且诊治水平差异较大。近年来很多高质量的AI算法已成功应用于辅助医学诊断,在基层医院推广普及AI辅助诊断技术可以很好的解决医疗资源分布不均、医师水平差异较大及效率低的问题,尽可能的避免因早期漏诊导致青光眼视功能损害及青光眼致盲的发生。
[0003]临床上,检验青光眼的方法主要包括:眼压检测,基于功能的视野检测,视神经头评估等。病理性高眼压是青光眼的普遍症状,而然也有少部分青光眼患者眼压是正常的,而有高眼压患者也不一定患有青光眼,因此眼压检测并不能用来作为诊断青光眼的唯一依据;功能性视野检测需要特定的设备,并且有些青光眼患者在早期并没有视觉上的明显症状;视神经头是一种比较流行的基于临床指标度量的评估方式,如杯盘比等,杯盘比越大,青光眼的风险越高。为了自动筛查青光眼,人们研究了一些基于度量的方法,首先分割出主要的眼底图像结构如视盘和视杯区域,再根据分割结果计算一些度量参数来预测青光眼。然而这些方法依赖于分割精度,而分割精度又容易收到一些因素的干扰。
[0004]现有技术中,由于深度学习十分依赖大量的标注数据,相比自然图像,利用深度学习进行医学图像分割任务的一大障碍源于分割标注难以获得,且标注质量难以控制。在眼底图像视盘视杯分割任务中,眼底病变复杂,种类繁多,视盘区域病变严重影响视盘视杯的标注,尤其是视杯的标注,依赖标注医生主观性经验性地判断。
[0005]Fu等人[1]提出了一种青光眼筛查神经网络,首先对全局级眼底图像进行视盘分割,根据视盘分割结果剪裁视盘区域,将剪裁后的视盘区域和极坐标转换后的视盘区域分别输入到青光眼的分类网络中,从而进行青光眼筛查。然而,分类网络的可解释性相对较差,不能满足临床上提供杯盘比等量化参数的需求。
[0006]Fu等人[2]提出的基于极坐标转换的视杯视盘分割方法,该方法主要研究的是剪裁后的视盘区域经过极坐标转换后的分割模型,然而该方法对于数据质量和视盘区域定位的准确性的要求比较高,对于视盘区域有严重病变的数据,视盘区域的精准定位和剪裁比
较困难,并且单一的视盘区域极坐标转换后的分割模型,极坐标转换分割后,在θ为0度和360度位置附近经过极坐标反变换后可能出现不连续的问题。针对这些问题,本专利采用了multi stream联合训练的方法融合了全局特征和局部特征/极坐标空间特征和笛卡尔空间特征,提高分割准确性。
[0007][1]Fu,Huazhu,et al."Joint Optic Disc and Cup Segmentation Based on Multi-label Deep Network and Polar Transformat ion."IEEE Transactions on Medical Imaging(2018)
[0008][2]Fu,Huazhu,et al."Disc-aware Ensemble Network for Glaucoma Screening from Fundus Image."IEEE Transactions on Medical Imaging(2018):1-1
[0009]专利文献CN106214120A(申请号:201610689336.2)公开了一种青光眼的早期筛查方法,利用计算机对眼底照片进行全自动分析,快速实时计算出视杯与视盘的杯盘比C/D比值,其特征在于,将杯盘比与设定的青光眼风险值对比判断是否存在青光眼的可能性。本专利技术的优点:以青光眼病变中视神经进行性损伤产生杯盘比变化为基础,实现计算机辅助下全自动眼底照片阅片分析。

技术实现思路

[0010]针对现有技术中的缺陷,本专利技术的目的是提供一种彩色眼底图像青光眼筛查方法及系统。
[0011]根据本专利技术提供的一种彩色眼底图像青光眼筛查方法,包括:如图1至图5所示,步骤M1:采集不同来源的彩色眼底图像数据,并对部分彩色眼底图像数据进行标注;
[0012]步骤M2:对采集到的彩色眼底图像数据进行预处理;
[0013]步骤M3:利用预处理后的标注的图像数据训练卷积神经网络,直至损失函数收敛,得到训练后的卷积神经网络,利用预处理后的未标注的彩色眼底图像数据对训练后的卷积神经网络进行半监督方法训练,得到半监督方法训练后的卷积神经网络;
[0014]步骤M4:利用半监督方法训练后的卷积神经网络分割眼底图像中的视盘视杯区域,根据分割结果判断青光眼。
[0015]优选地,所述步骤M1包括:
[0016]步骤M1.1:采集不同年龄段的青光眼和非青光眼的眼底病变图像;
[0017]步骤M1.2:将采集到的眼底病变图像进行部分标注,标注为训练数据和测试数据;未标注的眼底病变图像大于等于标注的眼底病变图像。
[0018]优选地,所述步骤M2包括:
[0019]步骤M2.1:对采集到的彩色眼底图像数据进行掩膜处理,得到掩膜处理后的图像数据;
[0020]步骤M2.2:对掩膜处理后的图像数据进行数据增强处理,得到数据增强后的图像数据;
[0021]步骤M2.3:对数据增强后的图像数据进行归一化处理。
[0022]优选地,所述步骤M3中卷积神经网络如图2所示包括:分割网络;所述分割网络包括分割网络S1、分割网络S2和分割网络S3;
[0023]所述分割网络获取眼底病变图像内容,提取眼底病变图像中的视盘视杯结构特征
并进行分割;
[0024]所述分割网络S1获取整个眼底病变图像的全局信息,并对视盘视杯进行定位,根据视盘视杯定位结果裁剪视盘视杯区域;
[0025]所述分割网络S2和分割网络S3根据视盘视杯区域获得局部视盘视杯区域。
[0026]经过预处理后的彩色眼底图像数据流resize到512*512全局输入到分割网络S1中,生成视盘视杯概率图定位视盘视杯区域,剪裁原始分辨率的数据流和标签Mask以获得更高分辨率的局部细节信息;剪裁后的局部数据流分为两种,一种r本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种彩色眼底图像青光眼筛查方法,其特征在于,包括:步骤M1:采集不同来源的彩色眼底图像数据,并对部分彩色眼底图像数据进行标注;步骤M2:对采集到的彩色眼底图像数据进行预处理;步骤M3:利用预处理后的标注的图像数据训练卷积神经网络,直至损失函数收敛,得到训练后的卷积神经网络,利用预处理后的未标注的彩色眼底图像数据对训练后的卷积神经网络进行半监督方法训练,得到半监督方法训练后的卷积神经网络;步骤M4:利用半监督方法训练后的卷积神经网络分割眼底图像中的视盘视杯区域,根据分割结果判断青光眼。2.根据权利要求1所述的彩色眼底图像青光眼筛查方法,其特征在于,所述步骤M1包括:步骤M1.1:采集不同年龄段的青光眼和非青光眼的眼底病变图像;步骤M1.2:将采集到的眼底病变图像进行部分标注,标注为训练数据和测试数据;未标注的眼底病变图像大于等于标注的眼底病变图像。3.根据权利要求1所述的彩色眼底图像青光眼筛查方法,其特征在于,所述步骤M2包括:步骤M2.1:对采集到的彩色眼底图像数据进行掩膜处理,得到掩膜处理后的图像数据;步骤M2.2:对掩膜处理后的图像数据进行数据增强处理,得到数据增强后的图像数据;步骤M2.3:对数据增强后的图像数据进行归一化处理。4.根据权利要求1所述的彩色眼底图像青光眼筛查方法,其特征在于,所述步骤M3中卷积神经网络包括:分割网络;所述分割网络包括分割网络S1、分割网络S2和分割网络S3;所述分割网络获取眼底病变图像内容,提取眼底病变图像中的视盘视杯结构特征并进行分割;所述分割网络S1获取整个眼底病变图像的全局信息,并对视盘视杯进行定位,根据视盘视杯定位结果裁剪视盘视杯区域;所述分割网络S2和分割网络S3根据视盘视杯区域获得局部视盘视杯区域。5.根据权利要求4所述的彩色眼底图像青光眼筛查方法,其特征在于,所述步骤M3包括:步骤M3.1:使用带有标签的训练数据训练分割网络S1,直至Dice损失函数收敛,得到训练后的分割网络S1;步骤M3.2:冻结训练后的分割网络S1权重参数,训练分割网络S2和分割网络S3,直至相应的交叉熵损失函数Loss1收敛,得到训练后的分割网络S2和分割网络S3;步骤M3.3:解冻训练后的分割网络S1权重参数,根据Dice损失函数和分割网络S2和分割网络S3相应的交叉熵损失函数计算得到卷积神经网络损失函数Loss2;训练卷积神经网络,直至卷积神经网络损失函数收敛,得到训练后的卷积神经网络;步骤M3.4:使用训练后的卷积神经网络预测无标签的数据,加权融合分割网络S2的局部视盘视杯概率图和分割网络S3反变换坐标系下的局部视盘视杯概率图,生成标注作为无标注数据的伪标注;步骤M3.5:根据预设规则过滤置信度不符合预设要求的图像;步骤M3.6:使用带有标签的训练数据和生成伪标注的数据训练卷积神经网络,重复执
行步骤M3.4至步骤M3.6,直至卷积神经网络损失函数收敛。6.根据权利要求1所述的彩色眼底图像青光眼筛查方法,其特征在于,所述步骤M4包括:步骤M4.1:眼底病变图像通过训练后的分割网络S1得到初步分割结果;步骤M4.2:利用初步分割结果定位和裁剪眼底病变图像中的视盘视杯区域;步骤M4.3:将视盘视杯区域输入分割网络S2,生成局部视盘视杯概率图;步骤M4.4:将视盘视杯区域经过空间变换得到变换后坐标系下的图像,将变换后坐标系下的图像输入分割网络S3,生成变化后坐标系下的局部视盘视杯概率图;将变换后坐标系下的局部视盘视杯概率图再进行空间变换的反变换,得到反变换坐标系下的局部视盘视杯概率图;步骤M4.5:将分割网络S2生成的局部视盘视杯概率图与分割网络S3生成的反变换坐标系下的局部视盘视杯概率图进行融合,得到融合后的局部视盘视杯概率图;步骤M4.6:根据融合后的局部视盘视杯概率图计算垂直杯盘比、面积的开方之比、颞侧盘沿宽度与鼻侧盘沿宽度之比。7.根据权利要求6所述的彩色眼底图像青光眼筛查方法,其特征在于,所述步骤M4.4包括:将视盘视杯区域经过极坐标变换得到极坐标变化后的图像,将极坐标变换后的图像输入分割网络S3生成极坐标空间的局部视盘视杯概率图,将极坐标空间的局部视盘视杯概率图再转换为笛卡尔坐标系的局部视盘视杯概率图。8.根据权利要求5所述的彩色眼底图像青光眼筛查方法,其特征在于,所述Dice损失函数包括:其中,K表示视盘视杯标签类别数,i表示像素第i个像素;N表示像素数;所述相应的交叉熵损失函数Loss1包括:Loss1=αL
s2
+βL
s3
其中,α,β表示权重系数,且α+...

【专利技术属性】
技术研发人员:石文秀党康丁晓伟张政
申请(专利权)人:苏州体素信息科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1