【技术实现步骤摘要】
避免数据长尾问题的人脸识别模型的训练方法及装置
[0001]本公开涉及人脸识别
,尤其涉及一种避免数据长尾问题的人脸识别模型的训练方法及装置。
技术介绍
[0002]人脸识别在实际应用场景下,通常会存在长尾效应,长尾效应又可以称之为数据长尾问题。长尾效应是指,训练数据集中的一少部分类别(头部类别)占据了绝大多数样本量,大多数的类别(尾部类别)仅有非常少的样本量。由于数据分布的严重不均衡,导致训练后的人脸识别模型会出现模型退化或过拟合的问题。
[0003]在实现本公开构思的过程中,专利技术人发现相关技术中至少存在如下技术问题:由于数据长尾问题,训练后的人脸识别模型存在模型退化或过拟合的问题。
技术实现思路
[0004]有鉴于此,本公开实施例提供了一种避免数据长尾问题的人脸识别模型的训练方法、、装置、电子设备及计算机可读存储介质,以解决现有技术中,由于数据长尾问题,训练后的人脸识别模型存在模型退化或过拟合的问题。
[0005]本公开实施例的第一方面,提供了一种避免数据长尾问题的人脸识别模型的训练方法,包括:构建人脸识别模型,其中,人脸识别模型,包括:特征提取网络、归一化网络、分类网络和对比网络;获取训练数据集,执行如下循环以对人脸识别模型进行多轮训练:利用动态采样器从训练数据集中进行当前轮训练的采样,得到当前轮训练所用的样本集;将样本集输入特征提取网络,得到样本集对应的特征向量集,其中,样本集中的一个样本对应特征向量集中的一条特征向量;将特征向量集输入归一化网络,以对特征向量集中的特 ...
【技术保护点】
【技术特征摘要】
1.一种避免数据长尾问题的人脸识别模型的训练方法,其特征在于,包括:构建人脸识别模型,其中,所述人脸识别模型,包括:特征提取网络、归一化网络、分类网络和对比网络;获取训练数据集,执行如下循环以对所述人脸识别模型进行多轮训练:利用动态采样器从所述训练数据集中进行当前轮训练的采样,得到当前轮训练所用的样本集;将所述样本集输入所述特征提取网络,得到所述样本集对应的特征向量集,其中,所述样本集中的一个样本对应所述特征向量集中的一条特征向量;将所述特征向量集输入所述归一化网络,以对所述特征向量集中的特征向量进行归一化处理;根据经过所述归一化网络处理后的特征向量集,利用所述分类网络计算分类损失,利用所述对比网络计算对比损失;根据所述分类损失和所述对比损失更新所述人脸识别模型的模型参数,将所述当前轮训练对应的训练轮数加一,并在所述训练轮数等于预设轮数时,结束循环。2.根据权利要求1所述的方法,其特征在于,所述利用动态采样器从所述训练数据集中进行当前轮训练的采样,得到当前轮训练所用的样本集,包括:基于所述当前轮训练对应的训练轮数和所述预设轮数,计算动态调节函数的函数值;基于所述函数值,分别计算出所述训练数据集中每种类别的样本的采样概率;基于每种类别的样本的采样概率,完成当前轮训练的采样,得到当前轮训练所用的样本集。3.根据权利要求2所述的方法,其特征在于,所述动态采样器,包括:征在于,所述动态采样器,包括:其中,j和i均为样本的类别,C为所述训练数据集中样本的所有类别的数量,l为所述当前轮训练对应的训练轮数,L为所述预设轮数,π为圆周率,g(l)为所述函数值,n
j
是第j类别的所有样本的数量,n
i
是第i类别的所有样本的数量,p
j
为第j类别的样本的采样概率。4.根据权利要求1所述的方法,其特征在于,所述根据经过所述归一化网络处理后的特征向量集,利用所述分类网络计算分类损失,包括:所述特征向量集,包括:第一向量集和第二向量集,其中,所述第一向量集中的每条特征向量均在所述第二向量集中存在对应的特征向量,所述第一向量集和所述第二向量集中两条对应的特征向量为同一标识号下的两个不同的样本所对应的特征向量;根据经过所述归一化网络处理后的第一向量集,利用所述分类网络计算第一分类损失,根据经过所述归一化网络处理后的第二向量集,利用所述分类网络计算第二分类损失,其中,所述分类损失,包括:所述第一分类损失和所述第二分类损失。5.根据权利要求1所述的方法,其特征在于,所述分类网络,包括:
其中,L
cls
为当前批次的分类损失,N为当前批次中样本的数量,当前轮训练包括多个批次,h为样本的序号,y
h
为第h个样本的类别,j为当前批次中除第h个样本的类别之外的任意一种类别,n为当前批次中样本的所有类别的数量,为第h个样本与正样本类中心的夹角,θ
j
为第h个样本与负样本类中心的夹角,s与M为预设超参数,c是调节系数,Ki是类别i的所有样本的数量,min()为取最小值函数。6.根据权利要求1所述的方法,其特征在于,所述对比网络,包括:其中,L
...
【专利技术属性】
技术研发人员:请求不公布姓名,
申请(专利权)人:深圳须弥云图空间科技有限公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。