Compact SegUnet自学习模型、构建方法及应用技术

技术编号:21455593 阅读:28 留言:0更新日期:2019-06-26 05:18
本发明专利技术揭示了一种基于Compact SegUnet自学习模型、构建方法及应用,该模型由一条编码路径和一条解码路径构成,两条路径通过3个卷积层连接。本发明专利技术的有益效果主要体现在:通过在每个卷积层中使用更多的卷积核以及添加ReLU的激活函数,使用反池化还原图像分辨率,并与同维度下卷积核提取的图像特征相结合,以最大程度地保留降采样中的重要特征信息,使对图像中需要分割的部分的定位更加精准。

【技术实现步骤摘要】
CompactSegUnet自学习模型、构建方法及应用
本专利技术属于图像处理
,具体涉及一种用于双染色体图像切割的CompactSegUnet自学习模型、构建方法及应用。
技术介绍
随着电子计算机技术的发展,通过软件算法实现的图像自动识别和切割分离已经能够初步实现,计算机还能在一张图像中找出指定类别所在的方框区域。医学上一般使用图像分析系统用于医疗图像中物体的检测及分离,但当物体之间存在重叠现象时,像素层面上的物体分割效果均不理想。人类的基因信息是被承载在染色体上的,因而染色体核型分析是细胞遗传学研究的基本方法,是研究染色体形态和结构与其功能的联系,探究染色体异常和遗传缺陷的关联的重要手段。但染色体在图像中经常会产生重叠,人工分析耗时耗力巨大,且现有的自动化图像分割分类方法不能在有染色体重叠的图片上取得令人满意的效果。例如中国专利CN101499165B揭示了一种交叉重叠染色体的分割方法,采用计算线段的斜率进行长度测量确定切割点,进而根据切割点进行交叉重叠的染色体图像的切割。这样的方式要求染色体必须以交叉的方式进行重叠,对于部分重叠的染色体表现不佳,同时该方法的第一步要求人工划线,并没有达到完全自动化。例如,文献《基于U-net深度学习模型的双染色体切割方法》R.L.Hu,J.Karnowski,R.Fadely,J.-P.Pommier,Imagesegmenta-tiontodistinguishbetweenoverlappinghumanchromosomes,in:2017MachineLearningforHealth(NIPS),LongBeach,CA,2017中揭示,其在重叠区域、两条非重叠区域达到的准确率,通过IoU(IntersectionoverUnion)得分表示,分别为94.7%,88.2%和94.4%,且在1500幅测试图像中,通过专家鉴别,基于U-net深度学习模型的双染色体切割方法不能正确分割重叠区域和非重叠区域的图像存在225幅,远远不能达到实际的需求。
技术实现思路
本专利技术的目的是克服现有技术存在的不足,提供一种能应用于双染色体图像切割的CompactSegUnet自学习模型及其构建方法,基于深度学习算法,对染色体图像的高维度特征进行提取,对染色体重叠区域与各染色体非重叠区域的差异进行学习,从而实现双染色体重叠图像的分割。本专利技术的目的通过以下技术方案来实现:一种CompactSegUnet自学习模型,由一条编码路径和一条解码路径构成,两条路径通过3个卷积层连接,所述编码路径和解码路径各自包含13个卷积层,编码路径还包含5个最大池化层,解码路径还包含5个上采样层;所述编码路径不同层的连接方式为:卷积层-卷积层-最大池化层-卷积层-卷积层-最大池化层-卷积层-卷积层-卷积层-最大池化层-卷积层-卷积层-卷积层-最大池化层-卷积层-卷积层-卷积层-最大池化层;所述解码路径不同层的连接方式为:上采样层-卷积层-卷积层-卷积层-上采样层-卷积层-卷积层-卷积层-上采样层-卷积层-卷积层-卷积层-上采样层-卷积层-卷积层-上采样层-卷积层-卷积层;所述编码路径的最大池化层分别与解码路径的上采样层构成反向一一对应;所述编码路径和解码路径中的卷积层均采用3*3的卷积核,ReLU激活函数和批正太化,编码路径中的最大池化层采用2*2池化以及池化步幅2;所述编码路径中的每个最大池化层选取图像特征时的位置被保留作为池化索引,解码路径中每个上采样层根据其所对应的最大池化层的池化索引进行采样;所述解码路径中每个上采样层所得结果与对应的编码路径中的最大池化层的前一个卷积层所得结果拼接作为下一个卷积层的输入。本专利技术还揭示了上述CompactSegUnet自学习模型的构建方法,包括如下步骤:将原始图像输入到第一卷积层,用指定数量的与原始图像同样深度的卷积核在原始图像上逐行滑动,对每次滑动后的区域进行卷积求和,得到第一卷积层的特征映射图;将Relu激活函数应用于第一卷积层所得的特征映射图;对经过Relu激活函数非线性映射后的特征映射图进行批归一化;按照编码路径的连接方式,依次将在先步骤中批归一化后的特征映射图输入到在后卷积层依次通过卷积求和、Relu激活函数和批归一化;或输入到在后池化层以最大池化的方式对特征映射图进行下采样操作;或将在先步骤中经过最大池化下采样的特征映射图输入到在后卷积层;将经过位于编码路径最后的第五池化层最大池化下采样的特征映射图输入到连接用的卷积层后,依次通过卷积求和,Relu激活函数和批归一化;将批归一化后的特征映射图输入到解码路径的第一上采样层,根据第五池化层中最大池化操作选取的特征的位置关系对特征映射图进行上采样操作;将输入至第五池化层的批归一化后的特征映射图拼接到前述步骤经过上采样的特征映射图上;按照解码路径的连接方式,依次将在先步骤中拼接所得的或批归一化后的特征映射图输入到在后卷积层,或将在先步骤中批归一化后的特征映射图输入到上采样层,将相对应的池化层中最大池化操作选取的特征的位置关系对特征映射图进行上采样操作,并将输入到相应池化层中的批归一化后的特征映射图拼接到经过前述步骤上采样的特征映射图上;其中所述编码路径的最大池化层分别与解码路径的上采样层构成反向一一对应;在解码路径的最后卷积层后添加Sigmoid损失函数。该构建方法具体包括如下步骤:步骤一、将原始图像输入到第一卷积层,用指定数量的与原始图像同样深度的卷积核在原始图像上逐行滑动,对每次滑动后的区域进行卷积求和,得到第一卷积层的特征映射图;步骤二、将Relu激活函数应用于第一卷积层所得的特征映射图;步骤三、对经过Relu激活函数非线性映射后的特征映射图进行批归一化;步骤四、将步骤三中批归一化后的特征映射图输入到第二卷积层,依次通过卷积求和,Relu激活函数和批归一化;步骤五、将步骤四中批归一化后的特征映射图输入到第一池化层,以最大池化的方式对特征映射图进行下采样操作;步骤六、将步骤五中经过最大池化下采样的特征映射图输入到第三卷积层,依次通过卷积求和,Relu激活函数和批归一化;步骤七、将步骤六中批归一化后的特征映射图输入到第四卷积层,依次通过卷积求和,Relu激活函数和批归一化;步骤八、将步骤七中批归一化后的特征映射图输入到第二池化层,以最大池化的方式对特征映射图进行下采样操作;步骤九、将步骤八中经过最大池化下采样的特征映射图输入到第五卷积层,依次通过卷积求和,Relu激活函数和批归一化;步骤十、将步骤九中批归一化后的特征映射图输入到第六卷积层,依次通过卷积求和,Relu激活函数和批归一化;步骤十一、将步骤十中批归一化后的特征映射图输入到第七卷积层,依次通过卷积求和,Relu激活函数和批归一化;步骤十二、将步骤十一中批归一化后的特征映射图输入到第三池化层,以最大池化的方式对特征映射图进行下采样操作;步骤十三、将步骤十二中经过最大池化下采样的特征映射图输入到第八卷积层,依次通过卷积求和,Relu激活函数和批归一化;步骤十四、将步骤十三中批归一化后的特征映射图输入到第九卷积层,依次通过卷积求和,Relu激活函数和批归一化;步骤十五、将步骤十四中批归一化后的特征映射图输入到第十卷积层,依次通过卷积求和,本文档来自技高网
...

【技术保护点】
1.一种Compact SegUnet自学习模型,其特征在于:由一条编码路径和一条解码路径构成,两条路径通过3个卷积层连接,所述编码路径和解码路径各自包含13个卷积层,编码路径还包含5个最大池化层,解码路径还包含5个上采样层;所述编码路径不同层的连接方式为:卷积层‑卷积层‑最大池化层‑卷积层‑卷积层‑最大池化层‑卷积层‑卷积层‑卷积层‑最大池化层‑卷积层‑卷积层‑卷积层‑最大池化层‑卷积层‑卷积层‑卷积层‑最大池化层;所述解码路径不同层的连接方式为:上采样层‑卷积层‑卷积层‑卷积层‑上采样层‑卷积层‑卷积层‑卷积层‑上采样层‑卷积层‑卷积层‑卷积层‑上采样层‑卷积层‑卷积层‑上采样层‑卷积层‑卷积层;所述编码路径的最大池化层分别与解码路径的上采样层构成反向一一对应;所述编码路径和解码路径中的卷积层均采用3*3的卷积核,ReLU激活函数和批正太化,编码路径中的最大池化层采用2*2池化以及池化步幅2;所述编码路径中的每个最大池化层选取图像特征时的位置被保留作为池化索引,解码路径中每个上采样层根据其所对应的最大池化层的池化索引进行采样;所述解码路径中每个上采样层所得结果与对应的编码路径中的最大池化层的前一个卷积层所得结果拼接作为下一个卷积层的输入。...

【技术特征摘要】
1.一种CompactSegUnet自学习模型,其特征在于:由一条编码路径和一条解码路径构成,两条路径通过3个卷积层连接,所述编码路径和解码路径各自包含13个卷积层,编码路径还包含5个最大池化层,解码路径还包含5个上采样层;所述编码路径不同层的连接方式为:卷积层-卷积层-最大池化层-卷积层-卷积层-最大池化层-卷积层-卷积层-卷积层-最大池化层-卷积层-卷积层-卷积层-最大池化层-卷积层-卷积层-卷积层-最大池化层;所述解码路径不同层的连接方式为:上采样层-卷积层-卷积层-卷积层-上采样层-卷积层-卷积层-卷积层-上采样层-卷积层-卷积层-卷积层-上采样层-卷积层-卷积层-上采样层-卷积层-卷积层;所述编码路径的最大池化层分别与解码路径的上采样层构成反向一一对应;所述编码路径和解码路径中的卷积层均采用3*3的卷积核,ReLU激活函数和批正太化,编码路径中的最大池化层采用2*2池化以及池化步幅2;所述编码路径中的每个最大池化层选取图像特征时的位置被保留作为池化索引,解码路径中每个上采样层根据其所对应的最大池化层的池化索引进行采样;所述解码路径中每个上采样层所得结果与对应的编码路径中的最大池化层的前一个卷积层所得结果拼接作为下一个卷积层的输入。2.一种如权利要求1所述CompactSegUnet自学习模型的构建方法,其特征在于:包括如下步骤,将原始图像输入到第一卷积层,用指定数量的与原始图像同样深度的卷积核在原始图像上逐行滑动,对每次滑动后的区域进行卷积求和,得到第一卷积层的特征映射图;将Relu激活函数应用于第一卷积层所得的特征映射图;对经过Relu激活函数非线性映射后的特征映射图进行批归一化;按照编码路径的连接方式,依次将在先步骤中批归一化后的特征映射图输入到在后卷积层依次通过卷积求和、Relu激活函数和批归一化;或输入到在后池化层以最大池化的方式对特征映射图进行下采样操作;或将在先步骤中经过最大池化下采样的特征映射图输入到在后卷积层;将经过位于编码路径最后的第五池化层最大池化下采样的特征映射图输入到连接用的卷积层后,依次通过卷积求和,Relu激活函数和批归一化;将批归一化后的特征映射图输入到解码路径的第一上采样层,根据第五池化层中最大池化操作选取的特征的位置关系对特征映射图进行上采样操作;将输入至第五池化层的批归一化后的特征映射图拼接到前述步骤经过上采样的特征映射图上;按照解码路径的连接方式,依次将在先步骤中拼接所得的或批归一化后的特征映射图输入到在后卷积层,或将在先步骤中批归一化后的特征映射图输入到上采样层,将相对应的池化层中最大池化操作选取的特征的位置关系对特征映射图进行上采样操作,并将输入到相应池化层中的批归一化后的特征映射图拼接到经过前述步骤上采样的特征映射图上;其中所述编码路径的最大池化层分别与解码路径的上采样层构成反向一一对应;在解码路径的最后卷积层后添加Sigmoid损失函数。3.根据权利要求2所述的构建方法,其特征在于:包括如下步骤,步骤一、将原始图像输入到第一卷积层,用指定数量的与原始图像同样深度的卷积核在原始图像上逐行滑动,对每次滑动后的区域进行卷积求和,得到第一卷积层的特征映射图;步骤二、将Relu激活函数应用于第一卷积层所得的特征映射图;步骤三、对经过Relu激活函数非线性映射后的特征映射图进行批归一化;步骤四、将步骤三中批归一化后的特征映射图输入到第二卷积层,依次通过卷积求和,Relu激活函数和批归一化;步骤五、将步骤四中批归一化后的特征映射图输入到第一池化层,以最大池化的方式对特征映射图进行下采样操作;步骤六、将步骤五中经过最大池化下采样的特征映射图输入到第三卷积层,依次通过卷积求和,Relu激活函数和批归一化;步骤七、将步骤六中批归一化后的特征映射图输入到第四卷积层,依次通过卷积求和,Relu激活函数和批归一化;步骤八、将步骤七中批归一化后的特征映射图输入到第二池化层,以最大池化的方式对特征映射图进行下采样操作;步骤九、将步骤八中经过最大池化下采样的特征映射图输入到第五卷积层,依次通过卷积求和,Relu激活函数和批归一化;步骤十、将步骤九中批归一化后的特征映射图输入到第六卷积层,依次通过卷积求和,Relu激活函数和批归一化;步骤十一、将步骤十中批归一化后的特征映射图输入到第七卷积层,依次通过卷积求和,Relu激活函数和批归一化;步骤十二、将步骤十一中批归一化后的特征映射图输入到第三池化层,以最大池化的方式对特征映射图进行下采样操作;步骤十三、将步骤十二中经过最大池化下采样的特征映射图输入到第八卷积层,依次通过卷积求和,Relu激活函数和批归一化;步骤十四、将步骤十三中批归一化后的特征映射图输入到第九卷积层,依次通过卷积求和,Relu激活函数和批归一化;步骤十五、将步骤十四中批归一化后的特征映射图输入到第十卷积层,依次通过卷积求和,Relu激活函数和批归一化;步骤十六、将步骤十五中批归一化后的特征映射图输入到第四池化层,以最大池化的方式对特征映射图进行下采样操作;步骤十七、将步骤十六中经过最大池化下采样的特征映射图输入到第十一卷积层,依次通过卷积求和,Relu激活函数和批归一化;步骤十八、将步骤十七中批归一化后的特征映射图输入到第十二卷积层,依次通过卷积求和,Relu激活函数和批归一化;...

【专利技术属性】
技术研发人员:苏炯龙马飞孟佳宋思凡黄戴赟时长军肖晟杨春潇
申请(专利权)人:西交利物浦大学苏州精准医疗科技有限公司
类型:发明
国别省市:江苏,32

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1