卷积神经网络的训练方法和病灶分割方法技术

技术编号:27816029 阅读:14 留言:0更新日期:2021-03-30 10:11
本发明专利技术提供了一种卷积神经网络的训练方法,该卷积神经网络包括输入层、中间层和输出层;该网络训练方法包括:初始化中间层的网络参数;基于输入层接收的训练样本图片,前向传播计算卷积神经网络的期望输出;计算期望输出和所述输出层接收的训练样本图片对应的标签之间的误差;反向传播所述误差,并更新中间层的网络参数;采用交叉熵函数和Dice函数结合成的Dice

【技术实现步骤摘要】
卷积神经网络的训练方法和病灶分割方法


[0001]本专利技术涉及医学图像处理领域,尤其涉及卷积神经网络的训练方法和基于卷积神经网络的病灶分割方法。

技术介绍

[0002]病灶的精确分割对于疾病诊断、治疗方案改善、手术规划以及术后评估等至关重要。医学图像分割领域中,基于深度学习的病灶分割方法获得了广泛的关注。目前,在大多数的图像分割方法中,卷积神经网络因具有提取图像特征的优点,而被广泛应用。
[0003]基于卷积神经网络的训练是图像分割中重要的步骤。根据数据集的标注程度,医学图像分割可使用3种不同的学习方式,分别为无监督、全监督、半监督及弱监督。无监督学习指已知数据没有任何标签,按照一定的偏好,训练一个智能算法,将所有的数据映射到多个不同标签的过程。全监督学习指已知数据和其一一对应的标签,训练一个智能算法,将输入数据映射到标签的过程。弱监督和半监督学习是一种介于两者之间的学习方式。无监督学习虽然不需要标签,但其在网络训练过程中只能取用低级的底层信息,很难具备准确性。全监督学习方式的优势在于分割精度高,但过于依赖标签,标签的获取成为很多任务进行全监督学习的障碍。
[0004]另外,对于脑部的医学图像等图像数据样本较少的情形,由于缺乏足够的数据而难以支撑深度学习。并且,脑部的伪影较多,所以相关技术对上下文的语义信息和空间信息获取不足,从而导致分割精度不高。

技术实现思路

[0005]本专利技术实施例提供一种卷积神经网络的训练方法和病灶分割方法,使得卷积神经网络的训练过程中人工干预程度低,训练得到的卷积神经网络在进行病灶分割时,可以实现全自动、快速分割,并达到较高的分割精度。
[0006]本专利技术实施方式提供了一种卷积神经网络的训练方法,该卷积神经网络包括输入层、中间层和输出层;该训练方法包括:初始化中间层的网络参数;基于输入层接收的训练样本图片,前向传播计算卷积神经网络的期望输出;计算期望输出和输出层接收的训练样本图片对应的标签之间的误差;反向传播所述误差,并更新中间层的网络参数;采用交叉熵函数和Dice函数结合成的Dice

CE函数对误差进行损失评估;在误差被评估为损失最小时,对应的中间层的网络参数作为卷积神经网络的最终参数。
[0007]本专利技术实施方式还提供了一种基于卷积神经网络的病灶分割方法,包括:将待分割样本输入至卷积神经网络,得到病灶分割结果;其中,卷积神经网络采用上述提及的卷积神经网络的训练方法训练得到。
[0008]在本专利技术实施方式中,通过交叉熵损失函数和Dice函数的结合用于计算损失函数,能够降低多检率,漏检率,最终达到精确分割的效果。
附图说明
[0009]图1为本专利技术第一实施方式中的卷积神经网络的网络结构;
[0010]图2为本专利技术第三实施方式中的卷积神经网络的网络结构;
[0011]图3为本专利技术第四实施方式中的卷积神经网络的网络结构;
[0012]图4为本专利技术第四实施方式中的卷积神经网络中卷积块Conv

block的结构;
[0013]图5为本专利技术第四实施方式中的卷积神经网络中识别块Identify

block的结构;
[0014]图6为本专利技术第四实施方式中的卷积神经网络中卷积块Conv

block的空洞卷积结构;
[0015]图7为本专利技术第五实施方式中的卷积神经网络中的栈式自编码器预训练网络;
[0016]图8为本专利技术第七实施方式中的基于卷积神经网络的病灶分割方法流程图。
具体实施方式
[0017]为使本专利技术的目的、技术方案和优点更加清楚,下面将结合附图对本专利技术的各实施方式进行详细的阐述。然而,本领域的普通技术人员可以理解,在本专利技术各实施方式中,为了使读者更好地理解本申请而提出了许多技术细节。但是,即使没有这些技术细节和基于以下各实施方式的种种变化和修改,也可以实现本申请所要求保护的技术方案。
[0018]本专利技术第一实施方式提供了一种卷积神经网络的训练方法。如图1所示,卷积神经网络模型包括输入层,中间层和输出层。中间层包括一层或多层结构,如卷积层,池化层,反卷积层。该卷积神经网络的训练方法包括如下步骤:
[0019]输入层接收输入样本数据;
[0020]初始化中间层的网络参数,如中间层的权重和偏置;
[0021]基于输入层接收的样本数据,前向传播计算该卷积神经网络的期望输出;
[0022]计算上述期望输出和原样本数据对应的标签之间的损失函数;
[0023]反向传播该损失函数数值,并更新中间层的网络参数。
[0024]该卷积神经网络的训练方法中采用的损失函数是利用交叉熵函数和Dice函数结合成的Dice

CE函数。
[0025]本专利技术实施方式的卷积神经网络的训练方法适用于医学图像处理领域,那么,输入样本数据即为训练样本图片,比如MRI(核磁共振)医学图像。脑部MRI是医学常用的影像学检查方法,对于缺血性脑卒中,脑肿瘤,脑炎性病变,脑先天性异常等疾病具有良好的检查效果。与正常脑组织相比,上述脑部疾病的病灶体积非常小,会造成数据的类不平衡。
[0026]在图像分割中,交叉熵损失函数是最常见的损失函数。该函数表征的是真实样本标签和期望输出之间的距离,交叉熵损失函数的值越小,真实样本标签和期望输出越接近。经典的交叉熵损失函数表示为:
[0027][0028]其中,N为样本数据总数,ln表示自然对数;y
true
为真实样本标签,y
pred
为所述期望输出。
[0029]由公式(1)可知,交叉熵损失函数中的第一项y
true
·
lny
pred
,当y
true
为1时,y
pred
越接近真实样本标签1,漏检率越小,损失函数越小;交叉熵损失函数的第二项(1

true
)
·
(1

lny
pred
),当y
true
为0时,y
pred
越接近真实样本标签0,多检率越小,损失函数越小。
[0030]交叉熵损失函数同等对待图像数据中的每个像素点,没有考虑类间不平衡问题,因此仅用交叉熵损失函数作为网络训练的损失函数容易忽略少类。
[0031]Dice损失函数本质是衡量两个样本的重叠部分,Dice损失函数的表达式为:
[0032][0033]其中,X和Y分别为两个样本集合,|X|和|Y|分别为每个集合中的元素数,|X∩Y|为两个样本集合中的共同元素。其数值范围为0到1,其中1表示两个样本的完整重叠。
[0034]Dice损失函数没有考虑真正的负体素,其不会受类平衡问题的影响,因此Dice损失函数比较适用于样本极度不均匀的情形。但是一般情形下,适用Dice损失函数会对反向传播造成不利本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种卷积神经网络的训练方法,所述卷积神经网络包括输入层、中间层和输出层;其特征在于,所述训练方法包括:初始化所述中间层的网络参数;基于所述输入层接收的训练样本图片,前向传播计算所述卷积神经网络的期望输出;计算所述期望输出和所述输出层接收的所述训练样本图片对应的标签之间的误差;反向传播所述误差,并更新所述中间层的网络参数;采用交叉熵函数和Dice函数结合成的Dice

CE函数对所述误差进行损失评估;在所述误差被评估为损失最小时,对应的所述中间层的网络参数作为所述卷积神经网络的最终参数。2.根据权利要求1所述的卷积神经网络的训练方法,其特征在于,所述Dice

CE函数为,L
Dice

E


(αL
CE
+(1

α)
·
L
Dice
),其中0<α<1,L
CE
为所述交叉熵函数,L
Dice
为所述Dice函数。3.根据权利要求2所述的卷积神经网络的训练方法,其特征在于,所述交叉熵函数表示为:其中,0<β<1,N为所述训练样本图片的总数,In表示自然对数;y
true
为所述标签,y
pred
为所述期望输出。4.根据权利要求2所述的卷积神经网络的训练方法,其特征在于,所述Dice函数表示为:其中,N为所述训练样本图片的总数,y
true
为所述标签,y
pred
为所述期望输出。5.根据权利要求1至4任一项所述的卷积神经网络的训练方法,其特征在于,所述中间层划分为:第一块A0、第二块A1、第三块A2和第四块A3;其中,所述输入层接收到的训练样本图片经所述第一块进行第一次特征提取,得到第一特征图片;所述第一特征图片经所述第二块进行第二次特征提取,得到第二特征图片;所述第二特征图片经所述第三块进行第三次特征提取,得到第三特征图片;所述第三特征图片经所述第四块进行第四次特征提取,得到第四特征图片;所述前向传播计算所述卷积神经网络的期望输出,包括:基于所述第二特征图片、所述第三特征图片和所述第四特征图片,分别计算第一预测值、第二预测值和第三预测值;所述计算所述期望输出和所述输出层接收的所述训练样本图片对应的标签之间的误差,包括:分别计算所述第一预测值、所述第二预测值和所述第三预测值与所述标签之间的第一偏差、第二偏差和第三偏差;所述第一偏差、所...

【专利技术属性】
技术研发人员:付娆李峰苏畅程剑李坤艳
申请(专利权)人:中国移动通信集团有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1