当前位置: 首页 > 专利查询>中山大学专利>正文

一种基于深度学习的大肠空腔区及肠内容物标注方法技术

技术编号:28841903 阅读:19 留言:0更新日期:2021-06-11 23:41
本发明专利技术公开了一种基于深度学习的大肠空腔区及肠内容物标注方法,该方法包括:获取CT腹腔图像并对图像中的相关区域进行区域合并,得到区域合并后图像;将区域合并后图像进行图像拆分,得到拆分后图像;基于预训练的分割网络对拆分后图像进行分割,得到大肠区域图;根据大肠区域图对大肠区域进行标注,得到标注图;将标注图与输入的CT腹腔图像进行图像拼接,得到带标注的CT腹腔图像。本发明专利技术方法能够自动对输入的CT腹腔图像的大肠空腔区及肠内容物区域进行标注。本发明专利技术作为一种基于深度学习的大肠空腔区及肠内容物标注方法,可广泛应用于图像处理领域。

【技术实现步骤摘要】
一种基于深度学习的大肠空腔区及肠内容物标注方法
本专利技术涉及图像处理领域,尤其涉及一种基于深度学习的大肠空腔区及肠内容物标注方法。
技术介绍
现阶段对于肠内容物以及大肠区的标记,以及大肠区的标记,只能通过专业人员进行手动标注,这样费时费力,并且长时间工作之后有标记失误的风险。近年来人工智能技术得到快速发展,尤其是深度学习方法在医学图像处理领域中得到广泛应用,但是目前常用于医学图像处理的网络因为没有顾及到上下文信息导致分割效果并不好,极容易出现错判和漏判的情况。
技术实现思路
为了解决上述技术问题,本专利技术的目的是提供一种基于深度学习的大肠空腔区及肠内容物标注方法,自动对输入的CT腹腔图像的大肠空腔区及肠内容物区域进行标注。本专利技术所采用的第一技术方案是:一种基于深度学习的大肠空腔区及肠内容物标注方法,包括以下步骤:获取CT腹腔图像并对图像中的相关区域进行区域合并,得到区域合并后图像;将区域合并后图像进行图像拆分,得到拆分后图像;基于预训练的分割网络对拆分后图像进行分割,得到大肠区域图;根据大肠区域图和输入的CT腹腔图,分别对大肠空腔区及肠内容物进行标注,得到标注图;将标注图与输入的CT腹腔图像进行图像拼接,得到带标注的CT腹腔图像。进一步,所述获取CT腹腔图像并对图像中的相关区域进行区域合并,得到区域合并后图像这一步骤,其具体包括:获取CT腹腔图像;将CT腹腔图像内与肠内容物颜色接近的像素点进行去除;将去除部分像素点后的CT腹腔图像中的肠内容物区域和大肠空腔区域进行合并,得到区域合并后图像。进一步,所述将区域合并后图像进行图像拆分,得到拆分后图像这一步骤,其具体包括:将区域合并后图像等比率分割成3*3的图像块,并将相邻图层的同一对应位置的图像块组成一个五张图片形成的图像组,得到拆分后图像。进一步,所述预训练的分割网络的训练步骤包括:获取训练用CT腹腔图像并对训练用CT腹腔图像进行数据增强,得到增强训练图像;将增强训练图像结合图像对应的真实标签,构建训练集;基于训练集中的CT腹腔图像对预构建的分割网络进行训练,得到预测标签;基于预测标签与对应的真实标签计算误差损失;根据误差损失对预构建的分割网络进行参数更新,得到训练完成的分割网络。进一步,所述预构建的分割网络包括编码器、带注意力机制的解码器、ConvLSTM模块、和分类模块。进一步,所述数据增强包括对图像平移、图像旋转和对图像进行gamma变换。进一步,所述基于预训练的分割网络对拆分后图像进行分割,得到大肠区域图这一步骤,其具体包括:基于编码器对输入的拆分后图像进行特征提取,得到特征信息;基于ConvLSTM模块连接各层编码器的特征信息并进行特征拼接,得到拼接后的特征信息;基于带注意力机制的解码器将拼接后的特征信息还原;基于分类模块输出属于大肠区域的像素点的概率值并将像素点整合,得到大肠区域图。进一步,所述根据大肠区域图和输入的CT腹腔图,对大肠空腔区及肠内容物分别标注,得到标注图这一步骤,其具体包括:根据大肠区域图在输入的CT腹腔图上确定大肠区域,并根据输入的CT腹腔图上大肠区域中的颜色差异分别对大肠空腔区和肠内容物进行标注,得到标注图。本专利技术方法的有益效果是:本专利技术能够自动对输入的CT腹腔成像图像中的大肠区域及肠内容物区域进行标注,由于不需要手工标注,避免了人为失误,同时具有计算速度快,所占参数少的优点。附图说明图1是本专利技术一种基于深度学习的大肠空腔区及肠内容物标注方法的步骤流程图;图2是本专利技术一种基于深度学习的大肠空腔区及肠内容物标注系统的结构框图;图3是本专利技术具体实施例分割网络的示意图;图4是本专利技术具体实施例CT腹腔图像原图;图5是本专利技术具体实施例经过前处理模块后输出的图像;图6是本专利技术具体实施例经过分割模块后输出的图像;图7是本专利技术具体实施例拆分模块的数据处理示意图。具体实施方式下面结合附图和具体实施例对本专利技术做进一步的详细说明。对于以下实施例中的步骤编号,其仅为了便于阐述说明而设置,对步骤之间的顺序不做任何限定,实施例中的各步骤的执行顺序均可根据本领域技术人员的理解来进行适应性调整。参照图1,本专利技术提供了一种基于深度学习的大肠空腔区及肠内容物标注方法,该方法包括以下步骤:获取CT腹腔图像并对图像中的相关区域进行区域合并,得到区域合并后图像;将区域合并后图像进行图像拆分,得到拆分后图像;基于预训练的分割网络对拆分后图像进行分割,得到大肠区域图;根据大肠区域图和输入的CT腹腔图,分别对大肠空腔区及肠内容物进行标注,得到标注图;具体地,标注阶段中,根据原图像的颜色差异进一步分辨出大肠空腔区域及肠内容物区域,即:其中S表示分割网络所得结果中,标记为1的像素区域,image表示原图像,result表示最终的标记结果。将标注图与输入的CT腹腔图像进行图像拼接,得到带标注的CT腹腔图像。具体地,由于标记模块的result还只是原图像标记的一部分,即之前步骤进行了图像分块,因此还需要进行图像拼接,即:R=concat(concat(result,axis=-1),axis=-1)其中R为最终结果,concat()为拼接函数,参数一为需要拼接的图像,axis代表需要拼接的维度-1代表最后一个维度。进一步作为本方法的优选实施例,所述获取CT腹腔图像并对图像中的相关区域进行区域合并,得到区域合并后图像这一步骤,其具体包括:获取CT腹腔图像;将CT腹腔图像内与肠内容物颜色接近的像素点进行去除;将去除部分像素点后的CT腹腔图像中的肠内容物区域和大肠空腔区域进行合并,得到区域合并后图像。具体地,CT腹腔图像原图参照图4,肠内容物形态差异极大,即各种肠内容物形状及其不规律而且没有特征,若直接以肠内容物或者大肠内空腔为分割目标,难以实现,因此这种前处理的操作可以将问题简化,即:其中,f(x,y)表示原图片(x,y)处的灰度值,p(x,y)为转变后的图片(x,y)处的灰度值,0为空气的灰度值。经过该前处理后输出的图像参照图5.另外,训练时带标签的CT腹腔图像经过前处理模块的过程如下所示:其中,new_m(x,y)表示新得到的标注(x,y)处的hsv值,m(x,y)为原标注(x,y)处的hsv值,(l_rhsv,h_rhsv)为红色的hsv值所处范围,(l_ghsv,h_ghsv)为绿色的HSV值所处范围。经该前处理后输出的训练所用真实标签参照图6。进一步作为本方法的优选实施例,所述将区域合并后图像进行图像拆分,得到拆分后图像这一步骤,其具体包括:将区域合并后图像等比率分割成3*3的图像块,并将相邻图层的同本文档来自技高网...

【技术保护点】
1.一种基于深度学习的大肠空腔区及肠内容物标注方法,其特征在于,包括以下步骤:/n获取CT腹腔图像并对图像中的相关区域进行区域合并,得到区域合并后图像;/n将区域合并后图像进行图像拆分,得到拆分后图像;/n基于预训练的分割网络对拆分后图像进行分割,得到大肠区域图;/n根据大肠区域图和输入的CT腹腔图,分别对大肠空腔区及肠内容物进行标注,得到标注图;/n将标注图与输入的CT腹腔图像进行图像拼接,得到带标注的CT腹腔图像。/n

【技术特征摘要】
1.一种基于深度学习的大肠空腔区及肠内容物标注方法,其特征在于,包括以下步骤:
获取CT腹腔图像并对图像中的相关区域进行区域合并,得到区域合并后图像;
将区域合并后图像进行图像拆分,得到拆分后图像;
基于预训练的分割网络对拆分后图像进行分割,得到大肠区域图;
根据大肠区域图和输入的CT腹腔图,分别对大肠空腔区及肠内容物进行标注,得到标注图;
将标注图与输入的CT腹腔图像进行图像拼接,得到带标注的CT腹腔图像。


2.根据权利要求1所述一种基于深度学习的大肠空腔区及肠内容物标注方法,其特征在于,所述获取CT腹腔图像并对图像中的相关区域进行区域合并,得到区域合并后图像这一步骤,其具体包括:
获取CT腹腔图像;
将CT腹腔图像内与肠内容物颜色接近的像素点进行去除;
将去除部分像素点后的CT腹腔图像中的肠内容物区域和大肠空腔区域进行合并,得到区域合并后图像。


3.根据权利要求2所述一种基于深度学习的大肠空腔区及肠内容物标注方法,其特征在于,所述将区域合并后图像进行图像拆分,得到拆分后图像这一步骤,其具体包括:
将区域合并后图像等比率分割成3*3的图像块,并将相邻图层的同一对应位置的图像块组成一个五张图片形成的图像组,得到拆分后图像。


4.根据权利要求3所述一种基于深度学习的大肠空腔区及肠内容物标注方法,其特征在于,所述预训练的分割网络的训练步骤包括:
获取训练用CT腹腔图像并对训练用CT腹腔图像进行数据增强,得到增强训练图像;
将增强训练图像结合图像对应的真实标签,构建训练...

【专利技术属性】
技术研发人员:王国利吴迪邦郭雪梅
申请(专利权)人:中山大学
类型:发明
国别省市:广东;44

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1