一种基于深度学习的干眼FBUT检测方法、系统及存储介质技术方案

技术编号:34334655 阅读:99 留言:0更新日期:2022-07-31 02:44
本申请涉及一种基于深度学习的干眼FBUT检测方法、系统及存储介质,其方法包括:实时获取荧光素染色眼表图像;基于多任务预测模型从荧光素染色眼表图像提取出睁眼图像数据和眼表区;根据眼表区对睁眼图像数据进行裁剪,输出识别样本集;基于快速分割模型从识别样本集中分割出泪膜破裂区与瞳孔区;从瞳孔区提取出瞳孔中心以及光学区;根据光学区中出现泪膜破裂区的时间记录输出光学泪膜破裂时间;根据眼表区中出现泪膜破裂区的时间记录输出眼表泪膜破裂时刻;在计算的过程中识别出瞳孔区域,瞳孔连续动作后的图片都能参与计算并进行学习训练,能够稳定地识别出光学区,得到更准确的结果。的结果。的结果。

【技术实现步骤摘要】
一种基于深度学习的干眼FBUT检测方法、系统及存储介质


[0001]本申请涉及眼科的领域,尤其是涉及一种基于深度学习的干眼FBUT检测方法、系统及存储介质。

技术介绍

[0002]荧光素染色泪膜破裂时间是一种泪膜稳定性检测方法,须在常温、湿度适宜、避光室内环境下进行。标准检查方法:灭菌滴管吸取约2μl的1%荧光素钠溶液滴于结膜囊,或使用抗生素滴眼液湿润但无多余残留药液的荧光素试纸接触下眼睑睑缘,患者瞬目3

4次使荧光素涂布于眼表,双眼平视前方,从末次瞬目至角膜出现首个黑斑的时间为泪膜破裂时间。
[0003]而在现有的仪器检测技术中,通常于自然状态下直接获取拍摄后的眼表图像,然后通过传统数字图像处理技术分析出泪膜破裂位置,检测过程包括自适应滤波和闭运算去除睫毛图像,以睁眼后第一帧图像为模板,将后面的每一帧与之分别进行匹配,最后将匹配的图像与第一帧图像做减法运算找到泪膜破裂位置,利用发生破裂图像的帧数计算泪膜破裂时间,并依据此时间对干眼进行诊断。
[0004]但是,上述现有的方法不能很好地处理睫毛遮挡、变形、眨眼、眼表光线弥散等问题,因此其处理结果的精准度还有待提升。

技术实现思路

[0005]为了提高检测泪膜破裂的精准度,本申请提供一种基于深度学习的干眼FBUT检测方法、系统及存储介质。
[0006]第一方面,本申请提供一种基于深度学习的干眼FBUT检测方法,采用如下的技术方案:一种基于深度学习的干眼FBUT检测方法,包括如下步骤:步骤S1:实时获取荧光素染色眼表图像;步骤S2:基于深度卷积网络的多任务预测模型,从所述荧光素染色眼表图像提取出睁眼图像数据和眼表区;根据所述眼表区对所述睁眼图像数据进行裁剪,输出识别样本集;步骤S3:基于深度卷积网络的快速分割模型,从所述识别样本集中分割出泪膜破裂区与瞳孔区;从所述瞳孔区提取出瞳孔中心以及瞳孔中心周围设定距离范围的光学区;步骤S4:根据所述光学区中出现所述泪膜破裂区的时间记录输出光学泪膜破裂时间;根据所述眼表区中出现所述泪膜破裂区的时间记录输出眼表泪膜破裂时刻。
[0007]通过采用上述技术方案,将使用荧光素染色测试方法与多任务预测模型以及快速分割模型的计算方法相结合,相比于人工查看与现有仪器,经过训练后本方法能够很好地处理睫毛遮挡、变形、眨眼、眼表荧光素弥散等问题,而且在计算的过程中识别出瞳孔区域,虽然瞳孔始终在动,环境光的变化使瞳孔收缩或放大而改变,但是瞳孔连续动作后的图片
都能参与计算并进行学习训练,能够稳定地识别出瞳孔区域,得到稳定地泪膜破裂区与光学区,最终得到更准确的泪膜破裂时间及其分布,提高了识别准确率,得到泪膜破裂时间及其分布更具有医学重要意义,利于医生对眼科问题的诊断。
[0008]作为优选,所述步骤S4中还包括如下步骤:步骤S41:基于所述泪膜破裂区与所述光学区以及所述光学区外的区域的重叠数据,输出泪膜破裂区域分布表;步骤S42:获取泪膜破裂标准数据;步骤S43:根据所述泪膜破裂标准数据将所述泪膜破裂区域分布表中出现的重叠数据分类后输出如下分类结果:所述光学区是否存在重叠与所述光学区外的区域是否存在重叠的结果;步骤S44:根据所述分类结果输出光学泪膜破裂时间与眼表泪膜破裂时刻。
[0009]通过采用上述技术方案,根据重叠区域的情况得到泪膜破裂区域分布表,再对泪膜破裂区域分布表中的内容进行分类,根据分类结果得到不同区域的泪膜破裂情况即光学泪膜破裂时间与眼表泪膜破裂时刻,使用重叠算法无需对其它区域的边缘进行碰撞计算或者范围计算,降低计算量,提高计算效率。
[0010]作为优选,所述泪膜破裂标准数据包括所述光学区中所述泪膜破裂区的面积占比与所述光学区外的区域中所述泪膜破裂区的面积占比。
[0011]通过采用上述技术方案,将面积占比作为标准,设定好作为筛选数据的面积占比数值后能够滤去计算后可忽略的情况,进一步提高检测结果的准确度。
[0012]作为优选,所述光学区为所述瞳孔周围3.5mm

4.5mm内的区域。
[0013]通过采用上述技术方案,选取该区域作为光学区能够降低瞳孔区域不稳定性对数据准确度的干扰,同时还能体现泪膜破裂区域在眼睛不同区域的分布情况,具有医学重要意义。
[0014]作为优选,所述步骤S3中还包括:步骤S31:基于深度卷积网络的快速分割模型对所述识别样本集中的眼睛图像进行分割得到瞳孔分割结果图像;步骤S32:从瞳孔分割结果图像中提取出瞳孔区域包围框;步骤S33:计算出所述瞳孔区域包围框的中心得到瞳孔中心;步骤S34:根据所述瞳孔中心计算得到所述光学区。
[0015]通过采用上述技术方案,利用快速分割模型进行分割,然后将分割后的图像进行识别,提取出瞳孔区域包围框,再根据包围框得到瞳孔中心,进而得到光学区,相比于只使用深度卷积网络计算得到光学区的计算法方法具有更低的计算量,同时还能够释放部分深度卷积网络的计算资源用来计算后面的数据。
[0016]作为优选,所述步骤S3中还包括:步骤S35:提取所述泪膜破裂区、所述光学区以及所述光学区外的区域的边缘;步骤S36:根据提取的边缘在所述识别样本集中标记出所述泪膜破裂区、所述光学区以及所述光学区外的区域,所述泪膜破裂区、所述光学区以及所述光学区外的区域具有不同标记的特征。
[0017]通过采用上述技术方案,提取边缘后继续标记,能够让医生看到图像结果同时能
够根据图像结果反过来估算计算的结果是否大致准确,利于保证结果的准确度。
[0018]作为优选,使用位置与大小均不同的多个瞳孔图像训练所述多任务预测模型与所述快速分割模型;或者,使用基于不同光源的多个瞳孔图像训练所述多任务预测模型与所述快速分割模型。
[0019]通过采用上述技术方案,使用与实况接近甚至就是实况的瞳孔图像进行训练,医生看到结果可以继续修正,从而能让深度学习网络输出的结果更加准确。
[0020]作为优选,所述步骤S2中所述睁眼图像数据为相邻的眨眼图像数据之间时间段中处于连续睁眼状态的图像集;校验所述睁眼图像数据,若所述睁眼图像数据中含有闭眼的图像信息则重新获取所述荧光素染色眼表图像。
[0021]通过采用上述技术方案,获取持续睁眼的数据并经过校验能够得到更准确的泪膜破裂数据。
[0022]第二方面,本申请提供一种基于深度学习的干眼FBUT检测系统,采用如下的技术方案:一种基于深度学习的干眼FBUT检测系统,所述系统中运行有上述记载的任意一种所述的基于深度学习的干眼FBUT检测方法的可执行程序。
[0023]第三方面,本申请提供一种存储介质,采用如下的技术方案:一种存储介质,存储有上述记载的任意一种所述的基于深度学习的干眼FBUT检测方法的可执行程序。
附图说明
[0024]图1是本申请实施例中基于深度学习的干眼FBUT检测方法的方法流程示意图;图2是本申请实施例中的荧光素染色眼表图像;图3是本申请实施例中裁剪光学区外的区域图像的点定本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于深度学习的干眼FBUT检测方法,其特征在于:包括如下步骤:步骤S1:实时获取荧光素染色眼表图像;步骤S2:基于深度卷积网络的多任务预测模型,从所述荧光素染色眼表图像提取出睁眼图像数据和眼表区;根据所述眼表区对所述睁眼图像数据进行裁剪,输出识别样本集;步骤S3:基于深度卷积网络的快速分割模型,从所述识别样本集中分割出泪膜破裂区与瞳孔区;从所述瞳孔区提取出瞳孔中心以及瞳孔中心周围设定距离范围的光学区;步骤S4:根据所述光学区中出现所述泪膜破裂区的时间记录输出光学泪膜破裂时间;根据所述眼表区中出现所述泪膜破裂区的时间记录输出眼表泪膜破裂时刻。2.根据权利要求1所述的基于深度学习的干眼FBUT检测方法,其特征在于:所述步骤S4中还包括如下步骤:步骤S41:基于所述泪膜破裂区与所述光学区以及所述光学区外的区域的重叠数据,输出泪膜破裂区域分布表;步骤S42:获取泪膜破裂标准数据;步骤S43:根据所述泪膜破裂标准数据将所述泪膜破裂区域分布表中出现的重叠数据分类后输出如下分类结果:所述光学区是否存在重叠与所述光学区外的区域是否存在重叠的结果;步骤S44:根据所述分类结果输出光学泪膜破裂时间与眼表泪膜破裂时刻。3.根据权利要求2所述的基于深度学习的干眼FBUT检测方法,其特征在于:所述泪膜破裂标准数据包括所述光学区中所述泪膜破裂区的面积占比与所述光学区外的区域中所述泪膜破裂区的面积占比。4.根据权利要求1所述的基于深度学习的干眼FBUT检测方法,其特征在于:所述光学区为所述瞳孔周围3.5mm

4.5mm内的区域。5.根据权利要求1所述的基于深度学习的干眼FBUT检测方法,其特征在于:所述步骤S...

【专利技术属性】
技术研发人员:李锦阳王崇阳陈蔚
申请(专利权)人:上海美沃精密仪器股份有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1