当前位置: 首页 > 专利查询>武汉大学专利>正文

基于LBP算子和双U型网络的视网膜眼底血管分割方法技术

技术编号:38213854 阅读:9 留言:0更新日期:2023-07-25 11:22
本发明专利技术提供一种基于LBP算子和双U型网络的视网膜眼底血管分割方法,包括以下步骤:获取公开的经专家标注的彩色眼底血管分割数据集,划分为训练集、验证集、测试集用于网络训练和测试;对原始彩色眼底图像做数据预处理,利用LBP算子在灰度图上计算LBP码图像,通过随机切片的方式进行数据增广;构建带双支残差解码块的双U型眼底血管分割网络,包括一个以预处理后的眼底图像为输入的高层语义网络,一个以LBP码图像为输入的浅层纹理网络,和一个融合高层语义网络提取的高级语义特征、浅层纹理网络提取的细粒度纹理特征的特征融合模块;多轮迭代获取最优分割模型;验证模型分割效果和泛化性能。本发明专利技术改善了语义分割模型的预测能力,同时提高了模型的泛化性能。同时提高了模型的泛化性能。同时提高了模型的泛化性能。

【技术实现步骤摘要】
基于LBP算子和双U型网络的视网膜眼底血管分割方法


[0001]本专利技术属于医学图像分析处理
,尤其涉及一种基于LBP算子和双U型网络的视网膜眼底血管分割方法。

技术介绍

[0002]在医学临床诊断中,视网膜血管分布、形态的变化与许多眼部疾病和综合性疾病有紧密联系,如糖尿病视网膜病变、老年性黄斑变性、青光眼、高血压、冠心病等。视网膜血管分割对这些疾病的预防、早期诊断和后期治疗方案的制定大有裨益,具有极大的临床意义。随着深度学习的快速发展,基于卷积神经网络的眼底血管分割方法取得了出色的表现。然而,由于用于眼底血管分割的像素级标注数据集通常规模较小,眼底血管形态结构高度复杂,粗血管和细血管像素数量极度不平衡,细血管尤其是毛细血管与背景的对比度非常低,再加上深度网络倾向于平滑和模糊局部细节信息,容易导致血管边界模糊、细小血管丢失等问题。此外,在跨数据集表现上,现有方法的性能通常会下降很多,不能很好地泛化到具有不同外观的眼底血管图像上,难以应用到真实环境。

技术实现思路

[0003]为了解决上述技术问题,本专利技术提供了一种基于LBP算子和双U型网络的视网膜眼底血管分割方法,该方法利用眼底灰度图像经过LBP变换后的LBP码图像,捕获细粒度特征,恢复边界和细节,提高模型泛化性,同时利用带残差的双支解码块减少误检率,进一步提升模型性能。
[0004]LBP(Local Binary Pattern,局部二值模式)是一种经典的传统手工特征,由Ojala等人在1994年提出。LBP算子定义在3

3邻域内,以邻域中心像素为阈值,将相邻的8个像素的灰度值与其进行比较,若周围像素值大于中心像素值,则该像素点的位置被标记为1,否则为0。这样,邻域内的8个点经比较可产生8位二进制数(通常转换为十进制数即LBP码,共256种),即得到该邻域中心像素点的LBP值,并用这个值来反映该区域的纹理信息。LBP算子计算简单且有效,聚合了邻域内的像素点间的关系,对光照变化较为鲁棒;同时也能较好地描述细粒度的纹理信息,所以早期被广泛应用于人脸识别、目标检测等领域。
[0005]本专利技术提供一种基于LBP算子和双U型网络的视网膜眼底血管分割方法,引入传统的LBP算子,弥补深度网络提取的像素级特征的缺陷,改善语义分割模型的预测能力,同时提高模型的泛化性能。
[0006]本专利技术所采用的技术方案提供一种基于LBP算子和双U型网络的视网膜血管分割方法,包括以下步骤:
[0007]步骤1,获取公开的经专家标注的彩色眼底血管分割数据集,划分为训练集、验证集、测试集用于网络训练和测试;
[0008]步骤2,对原始彩色眼底图像做数据预处理,利用LBP算子在灰度图上计算LBP码图像;
[0009]步骤3,对预处理后的眼底图像和对应的血管标注、LBP码图像通过随机切片的方式进行数据增广;
[0010]步骤4,构建双U型网络,该网络包含两个子U型网络和一个特征融合模块,子网络分别为高层语义网络和浅层纹理网络,将预处理后的眼底图像、LBP码图像分别输入高层语义网络、浅层纹理网络,将高层语义网络提取的像素级高级语义特征与浅层纹理网络提取的细粒度纹理特征一起输入特征融合模块,生成像素级预测概率图,计算分割损失函数;
[0011]步骤5,依据步骤4完成网络训练的多轮迭代,得到最优分割模型;
[0012]步骤6,在测试集上验证模型分割效果;
[0013]步骤7,在多个其他公开眼底数据集上验证模型泛化性能。
[0014]而且,步骤2中,所述LBP变换函数如下,
[0015][0016]其中,(x
c
,y
c
)表示3
×
3邻域内的中心元素,它的像素值为i
c
,i
p
代表邻域内其它像素的值,p为邻域中像素的个数,s为符号函数,
[0017][0018]而且,步骤4中,所述特征融合模块对应于加权加法运算,在这里将其扩展为一种可学习且更灵活的方式,即,
[0019]F=Conv([F
S
,F
L
])
[0020]其中F
S
为高层语义网络提取的像素级高级语义特征,F
L
为浅层纹理网络提取的细粒度纹理特征,[
·
,
·
]表示通道级拼接,Conv为1
×
1卷积。首先将高级语义特征与细粒度纹理特征拼接,接着使用简单有效的1
×
1卷积实现通道级特征融合,得到细节增强的特征F。注意,F
s
与F
L
应该有相同的形状。否则,需要对较小的一个进行双线性插值上采样操作,以对齐形状。
[0021]而且,步骤4中,所述高层语义网络为带DropBlock的原始U

Net;所述浅层纹理网络为一个小型的带DropBlock的U

Net;
[0022]原始U

Net是一个五层的带跳跃连接的编码器

解码器结构,编码器包括五个卷积块,每个卷积块包含两个3
×
3卷积层、BN层、ReLU层,卷积块之间是下采样层,解码器中包括4个卷积块,卷积块的结构与编码器相同,卷积块之间是上采样层,编码器中卷积块的特征通过跳跃连接和解码器对应卷积块上采样到同分辨率的特征图拼接并输入解码器下一层卷积块;
[0023]带DropBlock的原始U

Net是在每个3
×
3卷积层后面添加了DropBlock进一步防止过拟合,小型的带DropBlock的U

Net是将带DropBlock的原始U

Net的每层通道数减少8倍。
[0024]而且,带DropBlock的U

Net的解码器是将4个卷积块换为4个带残差的双支解码块,具体地,带残差的双支解码块包含1个残差和2个分支,残差分支包含一个1
×
1卷积层和一个BN层,第一个分支包含一个3
×
3卷积层和一个BN层,第二个分支包含两个3
×
3卷积层和BN层,第一个BN层和第二个3
×
3卷积层之间是一个LeaklyReLU层,将第一个分支和第二个分支的输出拼接后与残差分支的输出相加,再通过一层LeaklyReLU得到最终输出,即,
[0025][0026]其中f(
·
)、g(
·
)、σ(
·
)、[
·
,
·
]分别为残差分支、第一分支、第二分支、LeaklyReLU、拼接。
[0027]而且,步骤4中,所述分割损失函数为BCE(Binary Cross Entropy)损失函数,即,
[0028][0029]其中,y为真实标签,为预测本文档来自技高网...

【技术保护点】

【技术特征摘要】
1.一种基于LBP算子和双U型网络的视网膜眼底血管分割方法,其特征在于,包括以下步骤:步骤1,获取公开的经专家标注的彩色眼底血管分割数据集,划分为训练集、验证集、测试集用于网络训练和测试;步骤2,对原始彩色眼底图像做数据预处理,利用LBP算子在灰度图上计算LBP码图像;步骤3,对预处理后的眼底图像和对应的血管标注、LBP码图像通过随机切片的方式进行数据增广;步骤4,构建双U型网络,所述双U型网络包含两个子U型网络和一个特征融合模块,子网络分别为高层语义网络和浅层纹理网络,将预处理后的眼底图像、LBP码图像分别输入高层语义网络、浅层纹理网络,将高层语义网络提取的像素级高级语义特征与浅层纹理网络提取的细粒度纹理特征一起输入特征融合模块,生成像素级预测概率图,并与真实标签计算分割损失函数;步骤5,依据步骤4完成网络训练的多轮迭代,得到最优分割模型;步骤6,在测试集上验证模型分割效果;步骤7,在多个其他公开眼底数据集上验证模型泛化性能。2.根据权利要求1所述的基于LBP算子和双U型网络的视网膜眼底血管分割方法,其特征在于:步骤2中,所述LBP变换函数如下,其中,(x
c
,y
c
)表示3
×
3邻域内的中心元素,它的像素值为i
c
,i
p
代表邻域内其它像素的值,p为邻域中像素的个数,s为符号函数,3.根据权利要求1所述的基于LBP算子和双U型网络的视网膜眼底血管分割方法,其特征在于:所述高层语义网络为带DropBlock的原始U

Net;所述浅层纹理网络为一个小型的带DropBlock的U

Net;原始U

Net是一个五层的带跳跃连接的编码器

解码器结构,编码器包括五个卷积块,每个卷积块包含两个3
×
3卷积层、BN层、ReLU层,卷积块之间是下采样层,解码器中包括4个卷积块,卷积块的结构与编码器相同,卷积块之间是上采样层,编码器中卷积块的特征通过跳跃连接和解码器对应卷积块上采样到同分辨率的特征图拼接并输入解码器下一层卷积块;带DropBlock的原始U

Net是在每个3
×
3卷积层后面添加了DropBlock进一步防止过拟合,小型的带DropBlock的U

Net是将带DropBlock的原始U

Net的每层通道数减少8倍。4.根据权利要求3所述的基于LBP算子和双U型网络的视网膜眼底血管分...

【专利技术属性】
技术研发人员:许永超娄淼
申请(专利权)人:武汉大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1