一种基于等变学习和先验引导的OCT超分辨重建方法和装置制造方法及图纸

技术编号:37623126 阅读:11 留言:0更新日期:2023-05-18 12:14
本发明专利技术公开了一种基于等变学习和先验引导的OCT超分辨重建方法和装置。其中,该方法包括:构建OCT成像模型,根据所述OCT成像模型构建待训练网络的第一约束函数;基于等变学习构建待训练网络的第二约束函数;基于被测组织的解剖学先验知识构建待训练网络的第三约束函数;使用采集到的含噪低分辨图像作为训练集,基于所述第一约束函数、第二约束函数以及第三约束函数对所述待训练神经网络进行训练;基于训练后的网络对待重建的OCT图像进行高信噪比超分辨率重建,以获得目标重建图像。本发明专利技术利用等变学习实现自监督的超分辨率重建,利用被测组织的解剖学先验知识实现自监督去噪,使得一个网络可以同时实现OCT图像重建的超分辨和降噪两种功能。降噪两种功能。降噪两种功能。

【技术实现步骤摘要】
一种基于等变学习和先验引导的OCT超分辨重建方法和装置


[0001]本专利技术实施例涉及光学相干断层成像
,尤其涉及一种基于等变学习和先验引导的OCT超分辨重建方法和装置。

技术介绍

[0002]光学相干断层成像(optical coherence tomography,OCT)是一种高分辨的光学断层成像方法。因其实时、无创和在体大范围成像的特点,OCT在眼科、消化道、血管、皮肤和口腔等方面得到了广泛的研究和应用。目前,常规的商用OCT一般采用近红外光源,主流分辨率一般在5

8um,深度探测范围为几百um到1mm。具有更高分辨率(如微米OCT和可见光OCT等)和更大成像范围的OCT系统受系统复杂度和应用等方面的局限,目前仅零星存在于几所国际知名的科研院所的实验室中。
[0003]临床要求作为常规筛查的成像手段要既能看得清,又能看得深。但OCT成像原理限制了高分辨率和大范围深度成像不可兼得。高分辨要求使用短波长,但短波长在生物组织中衰减大,穿透深度有限,导致成像深度浅。目前国际上常规的做法是尽可能提高OCT系统的分辨率,再通过在深度方向上进行C扫描,通过深度方向图像拼接的形式实现大范围深度成像。C扫描一般通过移动样品或移动成像镜头完成,如果是对内部脏器进行成像还需要借助针形探头有创成像,不仅成像速度慢,应用场景也受限。因此,从硬件层面提升OCT性能空间有限且造价高昂,在系统层面同时实现高分辨和深度成像一直是OCT成像的关键难题。
[0004]近年来,计算机科学的发展日新月异,从软件层面进一步提高OCT的性能成为领域内探索的新方向。如针对OCT超分辨问题,有学者意识到避免使用傅里叶变换可以消除光源带宽对纵向分辨率的限制。但这种基于优化的方法对每一帧都有不小的运算量,图像重建速度远远不及传统的傅里叶变换,实时性较差,除了容易陷入局部最优,且作者仅在疏松样品(玻璃和洋葱)中作了验证,缺少致密组织,如动物或人体实验数据。
[0005]作为一项近年来重兴的以数据驱动的技术,深度学习已经被证明对含噪信号处理和解决不适定问题尤其有效。在OCT领域,K Liang等提出了基于cGAN的OCT分辨率增强方法,恢复了散斑中携带的信号,其本质依然属于去散斑,也即去噪。且该方法是有监督学习,需要配对的清晰数据,但在实际的OCT实验中,作为真实参考的高清图极难得到。其他将深度学习应用在OCT图像重建中的工作,基本仅是用一般超分辨方法从降采样的数据中恢复原始图像,并没能从模型出发进行系统分析来真正提高图像的分辨率。本专利技术由此而来。

技术实现思路

[0006]本专利技术提供一种基于等变学习和先验引导的OCT超分辨重建方法和装置,以实现在没有配对监督信号的前提下,从单张含噪分辨图像中重建出清晰的高分辨率图像。
[0007]第一方面,本专利技术提供一种基于等变学习和先验引导的OCT超分辨重建方法,包括:
[0008]构建OCT成像模型,根据所述OCT成像模型构建待训练网络的第一约束函数;
[0009]基于等变学习构建待训练网络的第二约束函数;
[0010]基于被测组织的解剖学先验知识构建待训练网络的第三约束函数;
[0011]使用采集到的含噪低分辨图像作为训练集输入所述待训练网络,基于所述第一约束函数、第二约束函数以及第三约束函数对所述待训练神经网络进行训练,以得到训练后的网络;
[0012]基于训练后的网络对待重建的含噪低分辨OCT图像进行高信噪比超分辨率重建,以获得目标重建图像。
[0013]可选的,构建OCT成像模型,根据所述OCT成像模型构建待训练神经网络的第一约束函数,包括:
[0014]根据成像系统函数构建OCT成像模型;
[0015]使用采集到的含噪低分辨图像作为训练集输入所述待训练网络,得到高分辨率图像将所述高分辨率图像经与成像系统函数作用,生成低分辨率图像
[0016]根据所述低分辨率图像和所述采集到的含噪低分辨图像构建第一损失函数。
[0017]可选的,基于等变学习构建待训练重建神经网络的第二约束函数,包括:
[0018]将所述高分辨率图像在快轴扫描方向进行若干次不同步长的平移操作,将平移前后的第一高分辨率图像进行拼接,以得到高分辨率图像
[0019]将所述高分辨率图像经与成像系统函数作用生成低分辨图像将所述低分辨图像输入所述待训练网络得到高分辨图像
[0020]根据所述高分辨率图像和所述高分辨图像构建待训练重建神经网络的第二约束函数。
[0021]可选的,基于被测组织的解剖学先验知识构建待训练神经网络的第三约束函数,包括:
[0022]通过掩膜生成器中的上表面识别算法从所述含噪低分辨图像识别出组织上表面,并根据上表面位置生成一个掩膜;
[0023]根据所述高分辨率图像以及所述高分辨率图像与掩膜的乘积构建第三约束函数。
[0024]第二方面,本专利技术实施例还一种基于等变学习和先验引导的OCT超分辨重建装置,包括:
[0025]第一约束函数构建模块,用于构建OCT成像模型,根据所述OCT成像模型构建待训练网络的第一约束函数;
[0026]第二约束函数构建模块,用于基于等变学习构建待训练网络的第二约束函数;
[0027]第三约束函数构建模块,用于基于被测组织的解剖学先验知识构建待训练网络的第三约束函数;
[0028]训练模块,用于使用采集到的含噪低分辨图像作为训练集输入所述待训练网络,基于所述第一约束函数、第二约束函数以及第三约束函数对所述待训练神经网络进行训
练,以得到训练后的网络;
[0029]重建模块,用于基于训练后的网络对待重建的含噪低分辨OCT图像进行高信噪比超分辨率重建,以获得目标重建图像。
[0030]可选的,第一约束函数构建模块包括:
[0031]根据成像系统函数构建OCT成像模型;
[0032]使用采集到的含噪低分辨图像作为训练集输入所述待训练网络,得到高分辨率图像将所述高分辨率图像经与成像系统函数作用,生成低分辨率图像
[0033]根据所述低分辨率图像和所述采集的含噪低分辨图像构建第一损失函数。
[0034]可选的,第二约束函数构建模块包括:
[0035]将所述高分辨率图像在快轴扫描方向进行若干次不同步长的平移操作,将平移前后的第一高分辨率图像进行拼接,以得到高分辨率图像
[0036]将所述高分辨率图像经与成像系统函数作用生成低分辨图像将所述低分辨图像输入所述待训练网络得到高分辨图像
[0037]根据所述高分辨率图像和所述高分辨图像构建待训练重建神经网络的第二约束函数。
[0038]可选的,第三约束函数构建模块包括:
[0039]通过掩膜生成器中的上表面识别算法从所述含噪低分辨图像识别出组织上表面,并根据上表面位置生成一个掩膜;
[0040]根据所述高分辨率图像以及所述高分辨率图像与掩膜的乘积构建第三约束函数。
[本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于等变学习和先验引导的OCT超分辨重建方法,其特征在于,包括:构建OCT成像模型,根据所述OCT成像模型构建待训练网络的第一约束函数;基于等变学习构建待训练网络的第二约束函数;基于被测组织的解剖学先验知识构建待训练网络的第三约束函数;使用采集到的含噪低分辨图像作为训练集输入所述待训练网络,基于所述第一约束函数、第二约束函数以及第三约束函数对所述待训练神经网络进行训练,以得到训练后的网络;基于训练后的网络对待重建的含噪低分辨OCT图像进行高信噪比超分辨率重建,以获得目标重建图像。2.根据权利要求1所述的方法,其特征在于,构建OCT成像模型,根据所述OCT成像模型构建待训练神经网络的第一约束函数,包括:根据成像系统函数构建OCT成像模型;使用采集到的含噪低分辨图像作为训练集输入所述待训练网络,得到高分辨率图像所述高分辨率图像经与与成像系统函数作用,生成低分辨率图像根据所述低分辨率图像和所述采集到的含噪低分辨图像构建第一损失函数。3.根据权利要求2所述的方法,其特征在于,基于等变学习构建待训练重建神经网络的第二约束函数,包括:将所述高分辨率图像在快轴扫描方向进行若干次不同步长的平移操作,将平移前后的高分辨率图像进行拼接,以得到高分辨率图像将所述高分辨率图像经与成像系统函数作用生成低分辨图像将所述低分辨图像输入所述待训练网络得到高分辨图像根据所述高分辨率图像和所述高分辨图像构建待训练重建神经网络的第二约束函数。4.根据权利要求2所述的方法,其特征在于,基于被测组织的解剖学先验知识构建待训练神经网络的第三约束函数,包括:通过掩膜生成器中的上表面识别算法从所述含噪低分辨图像识别出组织上表面,并根据上表面位置生成一个掩膜;根据所述高分辨率图像以及所述高分辨率图像与掩膜的乘积构建第三约束函数。...

【专利技术属性】
技术研发人员:李凯彦周少华
申请(专利权)人:中国科学技术大学苏州高等研究院
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1