模型训练方法、装置与存储介质制造方法及图纸

技术编号:30442484 阅读:16 留言:0更新日期:2021-10-24 18:31
本申请涉及人工智能技术领域,本申请提供一种模型训练方法、装置与存储介质,模型训练方法包括:获取包括眼部区域的样本图像,并将样本图像输入眼神识别模型;通过第一分类网络对眼部区域的特征进行分类,获得预测特征分类,并根据预测特征分类和实际特征分类之间的差异,确定第一分类网络对应的损失值;通过第一分类网络对样本图像进行卷积处理得到用于表示眼部区域特征的特征图;将特征图输入第二分类网络,获得预测眼神分类,并根据预测眼神分类和实际眼神分类之间的差异,确定第二分类网络对应的损失值;基于第一分类网络对应的损失值和第二分类网络对应的损失值,调整眼神识别模型的参数。实施本申请,可以提高眼神识别的准确性。的准确性。的准确性。

【技术实现步骤摘要】
模型训练方法、装置与存储介质


[0001]本申请涉及人工智能
,尤其涉及一种模型训练方法、装置与存储介质。

技术介绍

[0002]中医望诊过程中,注重眼神的观察,通过眼神初步判断患者的精神状态并缩小病因范围,对“神”的定义标准没有特别统一的标准,受到中医流派、诊断习惯等影响,且一直主要依靠医生的直接目测进行判断,主观性较强,精确性和一致性较差。在面诊客观化中,如何通过自动化技术手段检测和提取眼神特征成为一种迫切的需求。

技术实现思路

[0003]基于此,有必要针对上述技术问题,提供一种模型训练方法、装置与存储介质,本申请通过眼部区域的特征训练用于对眼神识别的眼神识别模型,提高眼神识别的准确性和智能化程度。
[0004]第一方面,本申请提供一种模型训练方法,所述方法包括:
[0005]获取包括眼部区域的样本图像,并将所述样本图像输入眼神识别模型,所述眼神识别模型包括第一分类网络和第二分类网络;
[0006]通过所述第一分类网络对所述眼部区域的特征进行分类,获得所述样本图像的预测特征分类,并根据所述样本图像的预测特征分类和所述样本图像的实际特征分类之间的差异,确定所述第一分类网络对应的损失值;
[0007]通过所述第一分类网络对所述样本图像进行卷积处理,获得用于表示所述眼部区域的特征的特征图;
[0008]将所述特征图输入所述第二分类网络,获得所述样本图像的预测眼神分类,并根据所述样本图像的预测眼神分类和所述样本图像的实际眼神分类之间的差异,确定所述第二分类网络对应的损失值;
[0009]基于所述第一分类网络对应的损失值和所述第二分类网络对应的损失值,调整所述眼神识别模型的参数。
[0010]结合第一方面,在一些实施例中,所述基于所述第一分类网络对应的损失值和所述第二分类网络对应的损失值,调整所述眼神识别模型的参数,包括:
[0011]对所述第一分类网络对应的损失值和所述第二分类网络对应的损失值进行加权求和,获得总损失值,并根据所述总损失值调整所述眼神识别模型的参数;或者,基于所述第一分类网络对应的损失值调整所述第一分类网络的参数,以及基于所述第二分类网络对应的损失值调整所述第二分类网络的参数。
[0012]结合第一方面,在一些实施例中,所述第一分类网络包括级联的多个卷积层;
[0013]所述通过所述第一分类网络对所述样本图像进行卷积处理,获得用于表示所述眼部区域的特征的特征图,包括:
[0014]通过所述级联的所述多个卷积层依次对所述样本图像进行卷积处理,并将最后一
个卷积层输出的特征图确定为用于表示所述眼部区域的特征的特征图。
[0015]结合第一方面,在一些实施例中,所述第一分类网络包括第一分类子网络、第二分类子网络以及第三分类子网络;
[0016]所述通过所述第一分类网络对所述眼部区域的特征进行分类,获得所述样本图像的预测特征分类,并根据所述样本图像的预测特征分类和所述样本图像的实际特征分类之间的差异,确定所述第一分类网络对应的损失值,包括:
[0017]通过所述第一分类子网络对所述眼部区域的眼睑特征进行分类,获得所述样本图像的预测眼睑特征分类,根据所述样本图像的预测眼睑特征分类和所述样本图像的实际眼睑特征分类,确定所述第一分类子网络对应的损失值;
[0018]通过所述第二分类子网络对所述眼部区域的白睛颜色特征进行分类,获得所述样本图像的预测白睛颜色分类,根据所述样本图像的预测白睛颜色分类和所述样本图像的实际白睛颜色分类,确定所述第二分类子网络对应的损失值;
[0019]通过所述第三分类子网络对所述眼部区域的眼圈特征进行分类,获得所述样本图像的预测眼圈特征分类,根据所述样本图像的预测眼圈特征分类和所述样本图像的实际眼圈特征分类,确定所述第三分类子网络对应的损失值;
[0020]将所述第一分类子网络对应的损失值、所述第二分类子网络对应的损失值以及所述第三分类子网络对应的损失值确定为所述第一分类网络对应的损失值。
[0021]结合第一方面,在一些实施例中,所述从所述第一分类网络获取用于表示所述眼部区域的特征的特征图,包括:
[0022]从所述第一分类子网络获取用于表示所述眼部区域的眼睑特征的第一特征图;从所述第二分类子网络获取用于表示所述眼部区域的白睛颜色特征的第二特征图;以及,从所述第三分类子网络获取用于表示所述眼部区域的眼圈特征的第三特征图;将所述第一特征图、所述第二特征图以及所述第三特征图进行融合,获得用于表示所述眼部区域的特征的所述特征图。
[0023]结合第一方面,在一些实施例中,所述第一分类子网络包括依次级联的多个卷积层以及第一全连接层和第二全连接层;
[0024]所述通过所述第一分类子网络对所述眼部区域的眼睑特征进行分类,获得所述样本图像的预测眼睑特征分类,根据所述样本图像的预测眼睑特征分类和所述样本图像的实际眼睑特征分类,确定所述第一分类子网络对应的损失值,包括:
[0025]通过所述多个卷积层对所述样本图像的眼部区域的眼睑特征进行提取,获得用于表示所述眼部区域的眼睑特征的第一特征图;
[0026]分别将所述第一特征图输入所述第一全连接层和所述第二全连接层;
[0027]通过所述第一全连接层对所述眼部区域的上眼睑特征进行分类,获得预测上眼睑特征分类,根据所述样本图像的预测上眼睑特征分类和所述样本图像的实际上眼睑特征分类,确定第一损失值;
[0028]通过所述第二全连接层对所述眼部区域的下眼睑特征进行分类,获得预测下眼睑特征分类,根据所述样本图像的预测下眼睑特征分类和所述样本图像的实际下眼睑特征分类,确定第二损失值;
[0029]将所述第一损失值和所述第二损失值相加,获得所述第一分类子网络对应的损失
值。
[0030]结合第一方面,在一些实施例中,所述通过所述第三分类子网络对所述眼部区域的眼圈特征进行分类,获得所述样本图像的预测眼圈特征分类之前,还包括:
[0031]获取所述样本图像中针对所述眼部区域的下眼睑区域的掩膜图像;
[0032]所述通过所述第三分类子网络对所述眼部区域的眼圈特征进行分类,获得所述样本图像的预测眼圈特征分类,包括:
[0033]将所述样本图像和所述掩膜图像输入所述第三分类子网络,以对所述眼部区域的眼圈特征进行分类,获得所述样本图像的预测眼圈特征分类。
[0034]第二方面,本申请提供一种模型训练装置,该装置包括:
[0035]第一获取单元,用于获取包括眼部区域的样本图像,并将所述样本图像输入眼神识别模型,所述眼神识别模型包括第一分类网络和第二分类网络;
[0036]第一分类单元,用于通过所述第一分类网络对所述眼部区域的特征进行分类,获得所述样本图像的预测特征分类,并根据所述样本图像的预测特征分类和所述样本图像的实际特征分类之间的差异,确定所述第一分类网络对应的损失值;
[0037]第二获取单元,用于通过所述本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种模型训练方法,其特征在于,包括:获取包括眼部区域的样本图像,并将所述样本图像输入眼神识别模型,所述眼神识别模型包括第一分类网络和第二分类网络;通过所述第一分类网络对所述眼部区域的特征进行分类,获得所述样本图像的预测特征分类,并根据所述样本图像的预测特征分类和所述样本图像的实际特征分类之间的差异,确定所述第一分类网络对应的损失值;通过所述第一分类网络对所述样本图像进行卷积处理,获得用于表示所述眼部区域的特征的特征图;将所述特征图输入所述第二分类网络,获得所述样本图像的预测眼神分类,并根据所述样本图像的预测眼神分类和所述样本图像的实际眼神分类之间的差异,确定所述第二分类网络对应的损失值;基于所述第一分类网络对应的损失值和所述第二分类网络对应的损失值,调整所述眼神识别模型的参数。2.如权利要求1所述的方法,其特征在于,所述基于所述第一分类网络对应的损失值和所述第二分类网络对应的损失值,调整所述眼神识别模型的参数,包括:对所述第一分类网络对应的损失值和所述第二分类网络对应的损失值进行加权求和,获得总损失值,并根据所述总损失值调整所述眼神识别模型的参数;或者,基于所述第一分类网络对应的损失值调整所述第一分类网络的参数,以及基于所述第二分类网络对应的损失值调整所述第二分类网络的参数。3.如权利要求1所述的方法,其特征在于,所述第一分类网络包括级联的多个卷积层;所述通过所述第一分类网络对所述样本图像进行卷积处理,获得用于表示所述眼部区域的特征的特征图,包括:通过所述级联的所述多个卷积层依次对所述样本图像进行卷积处理,并将最后一个卷积层输出的特征图确定为用于表示所述眼部区域的特征的特征图。4.如权利要求1所述的方法,其特征在于,所述第一分类网络包括第一分类子网络、第二分类子网络以及第三分类子网络;所述通过所述第一分类网络对所述眼部区域的特征进行分类,获得所述样本图像的预测特征分类,并根据所述样本图像的预测特征分类和所述样本图像的实际特征分类之间的差异,确定所述第一分类网络对应的损失值,包括:通过所述第一分类子网络对所述眼部区域的眼睑特征进行分类,获得所述样本图像的预测眼睑特征分类,根据所述样本图像的预测眼睑特征分类和所述样本图像的实际眼睑特征分类,确定所述第一分类子网络对应的损失值;通过所述第二分类子网络对所述眼部区域的白睛颜色特征进行分类,获得所述样本图像的预测白睛颜色分类,根据所述样本图像的预测白睛颜色分类和所述样本图像的实际白睛颜色分类,确定所述第二分类子网络对应的损失值;通过所述第三分类子网络对所述眼部区域的眼圈特征进行分类,获得所述样本图像的预测眼圈特征分类,根据所述样本图像的预测眼圈特征分类和所述样本图像的实际眼圈特征分类,确定所述第三分类子网络对应的损失值;将所述第一分类子网络对应的损失值、所述第二分类子网络对应的损失值以及所述第
三分类子网络对应的损失值确定为所述第一分类网络对应的损失值。5.如权利要求4所述的方法,其特征在于,所述从所述第一分类网络获取用于表示所述眼部区域的特征的特征图,包括:从所述第一分类子网络获取用于表示所述眼部区域的眼睑特征的第一特征图;从所述第二分类子网络获取用于表示所述眼部区域的白睛颜色特征的第二特征图;以及,从所述第三分类子网络获取用于表示所述眼部...

【专利技术属性】
技术研发人员:吴宥萱周宸陈远旭
申请(专利权)人:平安科技深圳有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1