System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 一种基于对抗性域适应的低质量眼底彩照智能分割方法技术_技高网

一种基于对抗性域适应的低质量眼底彩照智能分割方法技术

技术编号:41288514 阅读:6 留言:0更新日期:2024-05-11 09:37
本发明专利技术公开了一种基于对抗性域适应的低质量眼底彩照智能分割方法,首先进行数据采集和预处理;然后构建生成对抗网络,包括生成器和判别器,用于样本间的映射和真实性判别,对抗训练包括多种损失函数的优化;然后构造UNet分割模型,并进行预训练和微调,最终实现高精度的眼底图像分割。本基于对抗性域适应的低质量眼底彩照智能分割方法结合对抗性域适应和深度学习分割技术,不仅可提高模型在处理不同质量图像上的适应性和鲁棒性,而且可提升分割的准确性和效率,在实际应用中,即使是来自质量较低的成像设备的图像,也能被准确分割,从而可以为眼科医生提供更可靠的诊断信息。

【技术实现步骤摘要】

本专利技术涉及一种眼底彩照分割方法,具体是一种基于对抗性域适应的低质量眼底彩照智能分割方法,属于医学图像处理和计算机视觉。


技术介绍

1、近年来,医学人工智能取得了显著的进展,深度神经网络在各种应用中已经匹配或超过了临床专家的准确性。尤其是卷积神经网络的广泛应用,卷积神经网络在图像分类、目标检测和分割等任务上取得了令人印象深刻的结果,也在眼底图像分析领域表现出了强大的潜力。其中医学图像分割已被广泛认为是临床诊断、分析和治疗计划的关键程序。

2、随着医学影像数据的爆炸性增长,传统的手动分割方法变得越来越不切实际。手动分割不仅耗时、劳力密集,而且在一定程度上主观性强,易受操作者技能和经验的影响。自动化的图像分割方法不仅可以节省大量时间,还能提供更一致、客观的结果。神经网络在眼底彩照分割识别中扮演着关键的角色,分割任务的本质是像素级分类。但是一般在采集训练集时需要专业医师在高质量图片上进行标注,且标注人力成本大。

3、眼底彩照是一种重要的医学影像,用于诊断和监测各种眼底病变。然而,由于成像设备和技术的不同,所得图像在质量和特征上常常存在显著差异。这种差异对于自动化的图像处理和病变识别构成了巨大挑战。特别是在自动化分割眼底图像的过程中,需要处理不同分辨率、对比度、亮度和颜色饱和度的图像,这些因素直接影响分割算法的效果,进而影响病变的检测和分类。另一方面,实际医学实践中,高质量的眼底彩照往往是难以获取采集的,数量有限,采集成本大,而且医生常常需要在这样的图片上进行标注,因此如果需要将网络模型直接从高质量图片迁移到低质量图片上进行分割,往往效果不尽人意。例如,在采集眼底彩照图片时,图片来源于专业眼底彩照设备和便携式眼底彩照设备。专业眼底彩照设备成本高昂,常用于三甲医院,可供研究的样本多,且采集到的图片质量较高。便携式眼底彩照常常用于社区医院,由于采集的图片质量较低,直接使用这些图片训练人工智能模型往往比较困难。一般情况下,分割网络模型只能在专业眼底彩照设备上进行训练,如果直接将其训练好的模型应用到低质量图片上进行分割,则效果很差。


技术实现思路

1、针对上述现有技术存在的问题,本专利技术提供一种基于对抗性域适应的低质量眼底彩照智能分割方法,能够实现提高眼底彩照分割的效率和准确度。

2、为实现上述目的,本基于对抗性域适应的低质量眼底彩照智能分割方法具体包括以下步骤:

3、step1,通过图像预处理模块对输入的眼底图像进行预处理;

4、step2,将来自于数据源x的数据分布表示为x~pdata(x),用表示数据源x的训练样本,将来自于数据源y的数据分布表示为y~pdata(y),用表示数据源y的训练样本,构建生成对抗网络;

5、step3,进行对抗训练,获得最终对抗训练的损失函数;

6、step4,构建unet分割模型、并进行分割训练;

7、step5,联合微调,获得最终分割损失函数;

8、step6,投入使用,医生首先对来自于便携式眼底彩照设备进行整体识别,可以获得整个眼底图像识别的结果,然后医生可以对识别的结果有问题的小区域进行手动标识和重绘,修正后的图片直接送入unet部分进行重新学习微调。

9、进一步的,step2具体过程如下:

10、step2具体过程如下:

11、s2-1:构建生成器g和f,生成器g的目标是将域x的图片经过映射到域y,生成器f的目标是将域y的图片经过映射到域x;

12、s2-2:构建判别器dx和dy,其中dx用于判别图像{x}和域生成图像{f(y)},区分图片来自于生成器f生成的图片还是来自于原始域x的图片;dy用于判别图像{y}和域生成图像{g(x)},区分图片来自于生成器g生成的图片还是来自于原始域y的图片。

13、进一步的,step3具体过程如下:

14、s3-1,对于映射生成器g,及其判别器dy,构造损失如下:

15、lg(g,dy,x,y)=ey~pdata(y)[logdy(y)]+ex~pdata(x)[log(1-dy(g(x))]

16、其中,g用以生成与y域相似的图像g(x);dy用于区分生成样本g(x)和真实样本y;x表示来源于域x的样本;y表示来源于域y的样本;

17、s3-2,对于映射生成器f,及其判别器dx,构造损失如下:

18、lg(f,dx,y,x)=ex~pdata(x)[logdx(x)]+ey~pdata(y)[log(1-dx(f(y))]

19、其中,f用以生成与x域相似的图像f(y);dx用于区分生成样本f(y)和真实样本x;x表示来源于域x的样本;y表示来源于域y的样本;

20、s3-3,构造联合一致损失:

21、lc(g,f)=ex~pdata(x)[||f(g(x))-x||1]+ey~pdata(y)[||g(f(y))-y||1]

22、其中,g,f表示两个生成器;x表示来源于域x的样本;y表示来源于域y的样本;||·||1表示l1范数;

23、s3-4,最终对抗训练的损失函数为:

24、l(g,f,dx,dy)=lg(g,dy,x,y)+lg(f,dx,y,x)+λlc(g,f)

25、其中,λ为用来控制联合一致损失重要性的超参数;

26、则,对抗训练最终目标为:

27、

28、其中,g,f表示初始的两个生成器;dx用于判别图像{x}和域生成图像{f(y)};dy用于判别图像{y}和域生成图像{g(x)},g*,f*表示最终得到的两个生成器。

29、进一步的,step4具体过程如下:

30、s4-1,构建unet分割模型,分割模型记为h(·,ω),其中ω为分割模型的权重;

31、s4-2,构建交叉熵损失函数:lh(x,y)=-ylog(h(x,ω))

32、其中,x表示源自于域x的原始图片;y表示x对应的分割真值图片;

33、s4-3,分割训练:将源自于域x的图片送入unet进行预训练。

34、进一步的,step5具体过程如下:

35、s5-1,将源自于域x送入生成器g,得到g(x),将g(x)送入unet进行分割,最终得到分割结果h(g(x),ω);

36、s5-2,定义交叉熵损失:lh(g(x),y)=-ylog(h(g(x),ω))

37、其中,x表示源自于域x的原始图片;g用以生成与y域相似的图像g(x);y表示x对应的分割真值图片;

38、s5-3,定义组合损失函数

39、ltotal=l(g,f,dx,dy)+αlh(g(x),y)

40、=lg(g,dy,x,y)+lg(f,dx,y,x)+λlc(g,f)-αylog(h(g(x),ω))

本文档来自技高网...

【技术保护点】

1.一种基于对抗性域适应的低质量眼底彩照智能分割方法,其特征在于,具体包括以下步骤:

2.根据权利要求1所述的基于对抗性域适应的低质量眼底彩照智能分割方法,其特征在于,Step2具体过程如下:

3.根据权利要求2所述的基于对抗性域适应的低质量眼底彩照智能分割方法,其特征在于,Step3具体过程如下:

4.根据权利要求3所述的基于对抗性域适应的低质量眼底彩照智能分割方法,其特征在于,Step4具体过程如下:

5.根据权利要求4所述的基于对抗性域适应的低质量眼底彩照智能分割方法,其特征在于,Step5具体过程如下:

【技术特征摘要】

1.一种基于对抗性域适应的低质量眼底彩照智能分割方法,其特征在于,具体包括以下步骤:

2.根据权利要求1所述的基于对抗性域适应的低质量眼底彩照智能分割方法,其特征在于,step2具体过程如下:

3.根据权利要求2所述的基于对抗性域适应的低质量眼底彩照智能分割...

【专利技术属性】
技术研发人员:徐晓李甦雁吴亮杨旭尹雨晴牛亮王奥运牛强余颖廖弘
申请(专利权)人:中国矿业大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1