一种视盘视杯分割方法及装置制造方法及图纸

技术编号:39491269 阅读:8 留言:0更新日期:2023-11-24 11:13
本发明专利技术公开了一种视盘视杯分割方法及装置

【技术实现步骤摘要】
一种视盘视杯分割方法及装置、电子设备、介质


[0001]本专利技术属于医学图像分割
,尤其涉及一种视盘视杯分割方法及装置

电子设备

介质


技术介绍

[0002]青光眼
(Glaucoma)
是一种逐渐损害视神经并威胁不可逆转的视力丧失的眼部疾病

由于青光眼最初是无症状的,直到出现明显的视力丧失,因此早期诊断和治疗对于避免视力丧失至关重要

视神经乳头
(Optic Nerve Head

ONH)
评估是青光眼初级筛查的主要实践技术

然而,人工
ONH
评估需要熟练的临床医生,耗时长,因此不适合大规模筛查

因此,可复制和自动评估方法是非常可取的

临床采用的测量值的典型例子是视盘直径

垂直杯盘比
(cup to disc ratio

CDR)
和边缘与视盘面积比
(rim to disk area ratio

RDAR)。
其中,
CDR
是临床医生最常用的,它是通过垂直杯直径与垂直椎间盘直径的比值计算的

一般来说,较高的
CDR(
大于
0.7)
表示较高的风险青光眼,反之亦然

因此,准确分割视盘
(Optic Disc

OD)
和视杯
(Optic Cup

OC)
对于
CDR
计算至关重要

[0003]随着深度神经网络
(Deep Neural Networks

DNN)
的发展,基于卷积的深度学习方法在自然图像分割和医学图像分割方面取得了很大的成就,其具有精度高与泛化性强的优点

但上述方法都会受到感受野的限制,无法充分考虑到全局信息

而且这些方法假设训练和测试样本是从相同的分布中采样的

然而,不同视网膜眼底图像数据集之间的域偏移确实很常见

这种分布漂移会导致模型的分割性能下降


技术实现思路

[0004]本申请实施例的目的是为了解决上述现有技术中存在的精度低

数据集分布漂移导致模型的分割性能下降的问题,提供一种视盘视杯分割方法及装置

电子设备

介质

[0005]根据本申请实施例的第一方面,提供一种基于域自适应与
Transformer
结合的视盘视杯分割方法,包括:
[0006]步骤
S11
:获取源域眼底图像和目标域眼底图像,其中所述源域眼底图像带有分割标签和第一分类标签,所述目标域眼底图像带有第二分类标签;
[0007]步骤
S12
:获取预训练的
ROI
提取网络,利用所述
ROI
提取网络从所述源域眼底图像和目标域眼底图像提取
ROI
区域,得到源域
ROI
区域图像和目标域
ROI
区域图像;
[0008]步骤
S13
:将所述源域
ROI
区域图像和目标域
ROI
区域图像输入分割网络,得到源域分割图像和目标域分割图像,根据所述分割标签得到所述源域分割图像的预测分割损失;
[0009]步骤
S14
:将所述源域分割图像和目标域分割图像输入分类网络,得到源域分类结果

目标域分类结果,根据所述第一分类标签和第二分类标签得到所述源域分割图像和所述目标域分割图像的预测分类损失;
[0010]步骤
S15
:根据所述预测分割损失和所述预测分类损失,进行所述分割网络的参数更新,根据所述预测分类损失进行所述分类网络的参数更新;
[0011]步骤
S16
:重复步骤
S13

S15
,直至所述预测分割损失和所述预测分类损失趋于稳定;
[0012]步骤
S17
:获取待分割眼底图像,将所述待分割眼底图像输入
ROI
提取网络中,得到视盘粗提取结果,将所述视盘粗提取结果输入所述分割网络,得到视盘分割结果,将所述视盘分割结果输入所述分类网络,得到所述待分割眼底图像为青光眼眼底图像的概率

[0013]进一步地,所述
ROI
提取网络遵循
U

Net
结构,包括
19
个卷积层,使用
Sigmoid
激活函数来生成视盘的概率图,用于视盘区域的粗预测并将预测得到的视盘分割结果映射到原始图像

[0014]进一步地,构建
TUNet
作为所述分割网络,所述
TUNet
包括编码器和解码器,所述编码器和解码器共同形成
U
形架构,且通过跳跃连接在不同分辨率级别进行特征聚合,所述解码器的输出通过
softmax
激活函数进行分类

[0015]进一步地,所述编码器包括线性嵌入层
、Swin Transformer
块和
Patch
合并层,所述线性嵌入层用于将所述编码器的输入的特征维度投影到任意维度,转换后的图像块序列通过若干
Swin Transformer
块和
Patch
合并层来生成分层特征表示,其中,
Swin Transformer
块用于特征表示学习,
Patch
合并层用于降采样和增加维度

[0016]进一步地,所述
swin transformer
块基于移位窗口构建的,每个
swin transformer
块包括
LayerNorm


多头自注意力模块

残差连接和具有
GELU
非线性的2层
MLP
,在两个连续的
swin transformer
块中,所述多头自注意力模块分别为基于窗口的多头自注意模块和基于移位窗口的多头自注意模块,则连续的
swin Transformer
块表示为:
[0017][0018][0019][0020][0021]其中
z
l
‑1表示
Swin Transformer
块的输入特征,和
z
l
本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.
一种基于域自适应与
Transformer
结合的视盘视杯分割方法,其特征在于,包括:步骤
S11
:获取源域眼底图像和目标域眼底图像,其中所述源域眼底图像带有分割标签和第一分类标签,所述目标域眼底图像带有第二分类标签;步骤
S12
:获取预训练的
ROI
提取网络,利用所述
ROI
提取网络从所述源域眼底图像和目标域眼底图像提取
ROI
区域,得到源域
ROI
区域图像和目标域
ROI
区域图像;步骤
S13
:将所述源域
ROI
区域图像和目标域
ROI
区域图像输入分割网络,得到源域分割图像和目标域分割图像,根据所述分割标签得到所述源域分割图像的预测分割损失;步骤
S14
:将所述源域分割图像和目标域分割图像输入分类网络,得到源域分类结果

目标域分类结果,根据所述第一分类标签和第二分类标签得到所述源域分割图像和所述目标域分割图像的预测分类损失;步骤
S15
:根据所述预测分割损失和所述预测分类损失,进行所述分割网络的参数更新,根据所述预测分类损失进行所述分类网络的参数更新;步骤
S16
:重复步骤
S13

S15
,直至所述预测分割损失和所述预测分类损失趋于稳定;步骤
S17
:获取待分割眼底图像,将所述待分割眼底图像输入
ROI
提取网络中,得到视盘粗提取结果,将所述视盘粗提取结果输入所述分割网络,得到视盘分割结果,将所述视盘分割结果输入所述分类网络,得到所述待分割眼底图像为青光眼眼底图像的概率
。2.
根据权利要求1所述的方法,其特征在于,所述
ROI
提取网络遵循
U

Net
结构,包括
19
个卷积层,使用
Sigmoid
激活函数来生成视盘的概率图,用于视盘区域的粗预测并将预测得到的视盘分割结果映射到原始图像
。3.
根据权利要求1所述的方法,其特征在于,构建
TUNet
作为所述分割网络,所述
TUNet
包括编码器和解码器,所述编码器和解码器共同形成
U
形架构,且通过跳跃连接在不同分辨率级别进行特征聚合,所述解码器的输出通过
softmax
激活函数进行分类
。4.
根据权利要求3所述的方法,其特征在于,所述编码器包括线性嵌入层
、Swin Transformer
块和
Patch
合并层,所述线性嵌入层用于将所述编码器的输入的特征维度投影到任意维度,转换后的图像块序列通过若干
Swin Transformer
块和
Patch
合并层来生成分层特征表示,其中,
Swin Transformer
块用于特征表示学习,
Patch
合并层用于降采样和增加维度
。5.
根据权利要求4所述的方法,其特征在于,所述
swin transformer
块基于移位窗口构建的,每个
swin transformer
块包括
LayerNorm


多头自注意力模块

残差连接和具有
GELU
非线性的2层
MLP
,在两个连续的
swin transformer
块中,所述多头自注意力模块分别为基于窗口的多头自注意模块和基于移位窗口的多头自注...

【专利技术属性】
技术研发人员:赵琛王硕苹李卓蓉韩志科
申请(专利权)人:浙大城市学院
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1