一种基于信息熵动态赋权的多任务学习自适应平衡方法技术

技术编号:30437865 阅读:9 留言:0更新日期:2021-10-24 17:41
本发明专利技术公开了一种基于信息熵动态赋权的多任务学习方法,属于机器学习技术领域。首先搭建初始多任务学习模型M,对输入图像进行模型推断得到多种任务输出图,对其分别进行归一化处理,得到对应的归一化概率图;然后,利用各归一化概率图计算固定权重多任务损失函数,对多任务学习模型M进行初步训练;最后,在初步训练后的多任务学习模型M基础上,通过信息熵动态赋权算法构建最终的自适应多任务损失函数,对初步训练后的多任务学习模型进行迭代优化训练,直至多任务学习模型达到收敛,终止训练,获得优化后的多任务学习模型M1。本发明专利技术可以有效应对不同类型任务,自适应平衡各个任务相对重要性,算法适用性强,简洁高效。简洁高效。简洁高效。

【技术实现步骤摘要】
一种基于信息熵动态赋权的多任务学习自适应平衡方法


[0001]本专利技术属于机器学习
,具体涉及一种基于信息熵动态赋权的多任务学习自适应平衡方法。

技术介绍

[0002]机器学习通过经验知识改善计算机算法的性能以实现智能自主的学习工作,是人工智能的核心技术之一。但机器学习技术通常需要大量的学习样本,尤其是最近广为流行的深度学习模型通常需要海量标记样本来训练网络。然而,在很多应用中,训练样本的某些任务标签很难收集或者人工标注比较费时费力。在这种情况下,可以利用多任务学习来最大化地利用每个任务中有限的训练样本。
[0003]多任务学习旨在联合学习多个相关的任务来提升每个任务的泛化性能,在自然语言处理和计算机视觉等领域得到了广泛的应用。其中每个任务可以是一般的学习任务,例如有监督的任务(例如分类或回归问题)、非监督任务(例如聚类问题)、强化学习任务或者多视图学习任务等等。
[0004]近年来,深度学习极大地提升了各种计算机视觉任务的性能,而多任务学习在一个模型中联合学习多个任务从而获得较好的泛化性能和较低的内存占用,两者的结合即深度多任务学习研究取得了巨大的进展。但目前深度多任务学习仍然存在以下几个问题:(1)不同子任务之间信息交流不够充分而难以完全发挥多任务学习的优势;(2)现有大多数MTL研究的损失函数通常由子任务的损失线性加权得到,其依赖于人为经验而缺乏适应性。
[0005]当前的深度多任务学习研究主要集中在网络结构和优化策略方面的设计:
[0006]网络结构研究上,在深度神经网络中进行多任务学习机制主要有两种方式,即硬参数分享和软参数分享。其中,硬参数分享通常在所有任务之间共享隐藏层,同时保留多个特定于任务的输出层。由于同时学习的任务越多,模型越需要找到适用于所有任务的表达,所以硬参数分享大大降低了过拟合的风险。另一方面,软参数分享中,每一个任务都有自己的模型和对应参数,然后对模型参数距离进行正则化调整以增大参数的相度。
[0007]优化策略研究上,大多数多任务学习相关工作都简单地将各个任务的权重设置为固定比例,但这种方式严重依赖于人为经验,且在某些情况下,不合适的权重可能导致某些子任务无法正常工作。因此,不同于设计多任务分享模型的结构,另一部分研究着力于平衡不同任务对网络的影响,包括不确定性权重、梯度归一化算法和动态权重平均策略等研究。
[0008]综上所述,由于多任务模型包含有多种学习任务,如何自适应地平衡不同任务间的重要性具有重要的研究意义。

技术实现思路

[0009]本专利技术为了提高多任务学习模型的泛化性,通过对不同任务的特点及多任务模型应用的需求分析,在模型优化策略上设计了一种基于信息熵动态赋权的多任务学习自适应平衡方法,即在模型训练过程中动态调整各个任务损失函数的相对权重,实现多任务学习
模型的自适应训练与准确预测。
[0010]所述的基于信息熵动态赋权的多任务学习自适应平衡方法,具体步骤如下:
[0011]步骤一,搭建多任务学习模型M,通过当前多任务学习模型M对输入图像进行模型推断和归一化处理,得到不同类型的归一化概率图;
[0012]初始多任务学习模型M包含一个共享编码器和三个任务特定解码器。
[0013]多任务学习模型M对输入图像进行模型推断后生成三个像素级任务输出,分别为语义分割输出图P
s
、深度估计输出图P
d
和边缘检测输出图P
b
,对每个任务输出图分别进行归一化处理,得到不同类型的归一化概率图,具体为:
[0014]1)语义分割输出图P
s
,采用softmax函数进行处理,得到归一化后的语义分割概率图:
[0015][0016]其中,M为语义分割总类别数,i表示预测图中第i层语义类别,P
s,i
为模型输出图P
s
的第i层语义分割数值图,而P

s,i
则表示归一化后的第i层语义分割概率图P

s

[0017]2)边缘检测输出图P
b
,采用sigmoid函数进行处理,得到归一化后的边缘检测概率图P

b

[0018][0019]3)深度估计输出图P
d
,利用对数空间离散化策略将深度回归任务转化为分类任务,采用softmax函数得到归一化后的深度分类概率图;
[0020]首先,采用对数空间离散化策略将连续空间的深度值离散划分为K个子间隔对应K个类别;
[0021]具体为:将深度值区间[D1,D2]映射到[D1+1,D2+1],记为[D
′1,D
′2],并按照离散化深度阈值d
k
进行划分,得到K个子间隔{[d0,d1],[d1,d2],...,[d
K
‑1,d
K
]}。
[0022]离散化深度阈值d
k
定义为:
[0023][0024]然后,将深度估计真值按照上述策略离散化为深度分类真值;
[0025]即当深度估计真值处于[d
k
‑1,d
k
]时对其分配类别k,并以深度分类真值训练深度任务分支。
[0026]最后,在训练阶段得到深度分类预测图,并采用softmax函数进行处理,获得归一化后的深度分类概率图P

d,k

[0027]深度分类概率图为:
[0028][0029]其中,K为深度分类总类别数,k表示第k个深度类别,P
d,k
表示第k层深度分类预测图,P

d,k
表示归一化后的第k层深度分类概率图。
[0030]步骤二,利用归一化后的概率图计算多任务损失函数,对当前多任务学习模型M进行初步训练;
[0031]具体为:
[0032]首先,采用交叉熵函数计算获得的归一化各类型概率图对应的损失;
[0033]交叉熵损失函数L
t
为:
[0034][0035]其中,y
t
为各任务对应的one

hot形式有监督类别标签;t为s、d或b,即P

t
是语义分割、边缘检测或者深度估计任务的归一化概率图;C为各任务对应的总类别数,i表示预测图中第i层类别。
[0036]然后,按照每个任务的固定权重来构建等权加和多任务损失函数L
mtl
为:
[0037][0038]最后,利用多任务损失函数L
mtl
进行网络模型的梯度反传和参数更新,迭代训练得到初步训练后的多任务学习模型。
[0039]步骤三,在初步训练的多任务学习模型M的基础上,利用信息熵动态赋权算法构建最终的自适应多任务损失函数L

mtl

[0040本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于信息熵动态赋权的多任务学习自适应平衡方法,其特征在于,具体为:首先,搭建初始多任务学习模型M,并通过多任务学习模型M对输入图像进行推断,得到不同任务的不同类型输出,分别进行归一化处理,得到不同任务对应的归一化概率图;然后,利用各归一化概率图计算多任务损失函数,通过多任务损失函数对多任务学习模型M进行初步训练;最后,在初步训练后的多任务学习模型M基础上,通过信息熵动态赋权算法构建最终的自适应多任务损失函数,并利用反向传播算法获得当前多任务学习模型M的参数梯度,进行参数更新,完成一次迭代训练;迭代训练后,得到新的多任务学习模型M1,重新对输入图像进行推断和归一化,利用自适应多任务损失函数进行下一次迭代,直至多任务学习模型M1达到收敛,终止训练。2.根据权利要求1所述的一种基于信息熵动态赋权的多任务学习自适应平衡方法,其特征在于,所述的多任务学习模型包含一个共享编码器和对应于各特定任务的解码器。3.根据权利要求1所述的一种基于信息熵动态赋权的多任务学习自适应平衡方法,其特征在于,所述的三种任务输出图为:语义分割输出图P
s
、深度估计输出图P
d
和边缘检测输出图P
b
;对应的归一化概率图为:1)语义分割输出图P
s
,采用sonmax函数进行处理,得到归一化后的语义分割概率图:其中,S为语义分割总类别数,i表示预测图中第i层语义类别,P
s,i
为模型输出图P
s
的第i层语义分割数值图,而P

s,i
则表示归一化后的第i层语义分割概率图P

s
;2)分类边缘检测输出图P
b
,采用sigmoid函数进行处理,得到归一化后的边缘检测概率图P

b
:3)深度估计输出图P
d
,利用对数空间离散化策略将深度回归任务转化为分类任务,采用sonmax函数得到归一化后的深度分类概率图;首先,采用对数空间离散化策略将连续空间的深度值离散划分为K个子间隔对应K个类别,具体为:将深度值区间[D1,D2]映射到[D1+1,D2+1],记为[D
′1,D
′2],并按照离散化深度阈值d
k
进行划分,得到K个子间隔{[d0,d1],[d1,d2],...,[d
K
‑1,d
K
]};离散化深度阈值d
k

【专利技术属性】
技术研发人员:王玉峰丁文锐肖京
申请(专利权)人:北京航空航天大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1