【技术实现步骤摘要】
基于边框注意力网络的表情识别方法、装置、设备及介质
本专利技术涉及人工智能
,尤其涉及一种基于边框注意力网络的表情识别方法、装置、设备及介质。
技术介绍
随着移动互联网与智能机器人在线交互的普及与发展,线上客户体验的反馈变得越来越重要,能够让线上机器人感知客户的情绪状态也是系统交互的重要一环。因此,相较于传统的让客户填写服务反馈信息的方式,通过线上感知客户办业务时的情绪状态来获得客户体验更加真实且直接。现有技术中,通常采用单一的图片进行表情识别,虽然一些单一的图片具有代表性,但人脸情绪的状态往往不是单一时间点能够反映出来的,而且,现有技术也很难在人脸表情视频检测上达到商业应用的精度与速度要求,也就无法满足线上作业的要求。
技术实现思路
鉴于以上内容,有必要提供一种基于边框注意力网络的表情识别方法、装置、设备及介质,能够有效解决了采用单一图片进行表情识别造成的识别不准确问题,同时,基于边框注意力机制适应性地聚合边框特征来实现模式识别,更具有稳定性,且精度更高,进而基于人工智能手段实现对
【技术保护点】
1.一种基于边框注意力网络的表情识别方法,其特征在于,所述基于边框注意力网络的表情识别方法包括:/n响应于表情识别指令,获取初始视频;/n以预设时长对所述初始视频进行拆分,得到至少一个视频段;/n对所述至少一个视频段进行特征截取,得到训练样本;/n基于边框注意力机制,以所述训练样本训练预设残差网络,得到表情识别模型;/n获取待检测视频段,并对所述待检测视频段进行预处理,得到帧图片;/n建立预设数量的进程,并在执行每个进程时,每隔预设时间间隔将对应的帧图片输入至所述表情识别模型进行处理,得到每个进程的预测表情与对应的预测概率;/n根据每个进程的预测表情与对应的预测概率确定所述 ...
【技术特征摘要】
1.一种基于边框注意力网络的表情识别方法,其特征在于,所述基于边框注意力网络的表情识别方法包括:
响应于表情识别指令,获取初始视频;
以预设时长对所述初始视频进行拆分,得到至少一个视频段;
对所述至少一个视频段进行特征截取,得到训练样本;
基于边框注意力机制,以所述训练样本训练预设残差网络,得到表情识别模型;
获取待检测视频段,并对所述待检测视频段进行预处理,得到帧图片;
建立预设数量的进程,并在执行每个进程时,每隔预设时间间隔将对应的帧图片输入至所述表情识别模型进行处理,得到每个进程的预测表情与对应的预测概率;
根据每个进程的预测表情与对应的预测概率确定所述待检测视频段的表情识别结果。
2.如权利要求1所述的基于边框注意力网络的表情识别方法,其特征在于,所述获取初始视频包括:
确定配置表情类别;
采用网络爬虫技术,基于所述配置表情类别进行数据的爬取,得到所述初始视频;及/或
采用指定工具,根据所述配置表情类别进行视频模拟,得到所述初始视频。
3.如权利要求1所述的基于边框注意力网络的表情识别方法,其特征在于,所述对所述至少一个视频段进行特征截取,得到训练样本包括:
获取所述至少一个视频段所包含的所有初始帧图片;
将所述所有初始帧图片中的每张初始帧图片输入至YOLOv3网络中进行识别,得到每张初始帧图片的面部区域;
以每张初始帧图片的面部区域截取对应的每张初始帧图片,得到每个子样本;
整合得到的子样本作为所述训练样本。
4.如权利要求1所述的基于边框注意力网络的表情识别方法,其特征在于,所述基于边框注意力机制,以所述训练样本训练预设残差网络,得到表情识别模型包括:
以所述预设残差网络对所述训练样本进行特征提取,得到初始特征;
将所述初始特征输入至每个颜色通道对应的全连接层,输出特征向量;
以第一sigmoid函数处理所述特征向量,得到第一注意力权重;
基于所述第一注意力权重对所述特征向量进行转化,得到初始全局边框特征;
并接所述特征向量与所述第一全局边框特征,得到并接特征;
以第二sigmoid函数处理所述并接特征,得到第二注意力权重;
基于所述第二注意力权重对所述并接特征进行转化,得到目标全局边框特征;
以softmax函数处理所述目标全局边框特征,输出预测结果及损失;
当检测到所述损失收敛时,停止训练,得到所述表情识别模型。
<...
【专利技术属性】
技术研发人员:喻晨曦,
申请(专利权)人:中国平安人寿保险股份有限公司,
类型:发明
国别省市:广东;44
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。