基于微表情的用户心理分析方法、装置、设备及存储介质制造方法及图纸

技术编号:33155537 阅读:11 留言:0更新日期:2022-04-22 14:12
本发明专利技术公开了一种基于微表情的用户心理分析方法,应用于人工智能技术领域,用于提高基于微表情对用户的心理进行分析的分析结果的准确性。本发明专利技术提供的方法包括:获取待识别的视频;从该视频中抽取包含有人像画面的帧图像;通过预先训练好的微表情识别模型对该帧图像进行识别,当该帧图像中包含微表情时,输出对应帧图像中包含的时序子表情;将该时序子表情中排在第一位的子表情作为根节点匹配对应的决策树;将该时序子表情中剩余的子表情按照对应子表情的时序排位在该决策树中依次进行匹配;当排在最末位的子表情与该决策树中的叶子节点匹配成功时,将对应叶子节点表示的心理状态确定为被检测人员的心理状态。状态确定为被检测人员的心理状态。状态确定为被检测人员的心理状态。

【技术实现步骤摘要】
基于微表情的用户心理分析方法、装置、设备及存储介质


[0001]本专利技术涉及人工智能
,尤其涉及基于微表情的用户心理分析方法、装置、计算机设备及存储介质。

技术介绍

[0002]微表情识别是人工智能领域的重要领域,微表情对于人类来说这是一种与生俱来的一种神态,是我们无法自控的,对于专业人士来说,微表情就是我们内心的真实写照,真实反应我们自己的内心最真实的想法,对于人工智能来说,微表情识别是人脸识别的一个新的进展,当前各大巨头都在着手研究微表情识别,人生气、高兴、惊讶、说谎都会产生微表情的变化,通过对这些细微表情的变化数据进行提前分析,能快速识别推测出人的内心的真实想法,在公安领域有着很大的应用,能够帮助公安部门更好的进行审讯,检测被监控人的心理活动。
[0003]目前对于微表情的研究,已经出现了一些微表情的识别模型,但是目前的微表情识别模型是基于无监督学习得到,在学习和识别的过程中出现错误识别时,用户无法得知,只能看到分析的结果,导致微表情识别模型的识别结果不够准确,最终导致对相应用户的心理分析结果也不准确。

技术实现思路

[0004]本专利技术实施例提供一种基于微表情的用户心理分析方法、装置、计算机设备及存储介质,以解决基于微表情对用户的心理进行分析的准确性低的技术问题。
[0005]一种基于微表情的用户心理分析方法,包括:
[0006]获取待识别的视频;
[0007]从待识别的所述视频中抽取包含有人像画面的至少一个帧图像;
[0008]通过预先训练好的微表情识别模型对所述帧图像进行识别,当所述帧图像中包含微表情时,输出对应帧图像中包含的对应微表情的时序子表情;
[0009]将所述时序子表情中排在第一位的子表情作为根节点,根据所述根节点匹配对应的决策树,所述决策树的根节点及中间节点表示表情,所述决策树的叶子节点表示心理状态;
[0010]将所述时序子表情中剩余的子表情按照对应子表情的时序排位在所述决策树中依次进行匹配;
[0011]当排在最末位的子表情与所述决策树中的叶子节点匹配成功时,将对应叶子节点表示的心理状态确定为所述视频中被检测人员的心理状态。
[0012]一种基于微表情的用户心理分析装置,包括:
[0013]视频获取模块,用于获取待识别的视频;
[0014]图像抽取模块,用于从待识别的所述视频中抽取包含有人像画面的至少一个帧图像;
[0015]识别模块,用于通过预先训练好的微表情识别模型对所述帧图像进行识别,当所述帧图像中包含微表情时,输出对应帧图像中包含的对应微表情的时序子表情;
[0016]第一匹配模块,用于将所述时序子表情中排在第一位的子表情作为根节点,根据所述根节点匹配对应的决策树,所述决策树的根节点及中间节点表示表情,所述决策树的叶子节点表示心理状态;
[0017]第二匹配模块,用于将所述时序子表情中剩余的子表情按照对应子表情的时序排位在所述决策树中依次进行匹配;
[0018]状态确定模块,用于当排在最末位的子表情与所述决策树中的叶子节点匹配成功时,将对应叶子节点表示的心理状态确定为所述视频中被检测人员的心理状态。
[0019]一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述基于微表情的用户心理分析方法的步骤。
[0020]一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述基于微表情的用户心理分析方法的步骤。
[0021]本申请提出的基于微表情的用户心理分析方法、装置、计算机设备及存储介质,首先从待识别的视频中抽取包含有人像画面的至少一个帧图像,通过预先训练好的微表情识别模型对该帧图像进行识别,当该帧图像中包含微表情时,输出对应帧图像中包含的对应微表情的时序子表情,便于在将智能识别到的微表情进行人工校验时,心理专家能够对被测人员的微表情尽快获取,以使得人工智能和专业表情分析师可以同时对被测人员的微表情及心理进行分析,一方面可以提高对被测人员依据微表情进行分析的准确性,另一方面便于根据同一待识别的视频,利用专业表情分析师对智能识别的微表情进行校验,以确定本申请通过微表情识别模型对该微表情进行识别的准确性。然后将该时序子表情中排在第一位的子表情作为根节点,根据该根节点匹配对应的决策树,再将该时序子表情中剩余的子表情按照对应子表情的时序排位在所述决策树中依次进行匹配,将对应叶子节点表示的心理状态确定为所述视频中被检测人员的心理状态,通过将该微表情识别模型和该决策树进行配合应用,能够实现基于微表情对被测人员的心理状态进行智能分析,同时便于专业表情分析师对微表情识别模型识别出的微表情进行校验,以提高通过微表情对被测人员的心理状态预测的准确性。
附图说明
[0022]为了更清楚地说明本专利技术实施例的技术方案,下面将对本专利技术实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本专利技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
[0023]图1是本专利技术一实施例中基于微表情的用户心理分析方法的一应用环境示意图;
[0024]图2是本专利技术一实施例中基于微表情的用户心理分析方法的一流程图;
[0025]图3是本专利技术一实施例中训练微表情识别模型一流程图;
[0026]图4是本专利技术一实施例中基于微表情的用户心理分析装置的结构示意图;
[0027]图5是本专利技术一实施例中计算机设备的一示意图。
具体实施方式
[0028]下面将结合本专利技术实施例中的附图,对本专利技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本专利技术一部分实施例,而不是全部的实施例。基于本专利技术中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本专利技术保护的范围。
[0029]本申请提供的基于微表情的用户心理分析方法,可应用在如图1的应用环境中,其中,该计算机设备能够通过网络与外部服务器进行通信。其中,该计算机设备可以但不限于各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备。服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
[0030]可以理解的是,该基于微表情的用户心理分析方法属于人工智能
,通过人工智能并基于微表情对用户心理进行分析,本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
[0031]人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于微表情的用户心理分析方法,其特征在于,包括:获取待识别的视频;从待识别的所述视频中抽取包含有人像画面的至少一个帧图像;通过预先训练好的微表情识别模型对所述帧图像进行识别,当所述帧图像中包含微表情时,输出对应帧图像中包含的对应微表情的时序子表情;将所述时序子表情中排在第一位的子表情作为根节点,根据所述根节点匹配对应的决策树,所述决策树的根节点及中间节点表示表情,所述决策树的叶子节点表示心理状态;将所述时序子表情中剩余的子表情按照对应子表情的时序排位在所述决策树中依次进行匹配;当排在最末位的子表情与所述决策树中的叶子节点匹配成功时,将对应叶子节点表示的心理状态确定为所述视频中被检测人员的心理状态。2.根据权利要求1所述的基于微表情的用户心理分析方法,其特征在于,所述从待识别的所述视频中抽取包含有人像画面的至少一个帧图像的步骤具体包括:识别所述视频中是否包含有人体姿态动画,若是,则截取包含有人体姿态动画的第二视频片段;获取所述第二视频片段中的至少一个所述帧图像。3.根据权利要求1所述的基于微表情的用户心理分析方法,其特征在于,所述从待识别的所述视频中抽取包含有人像画面的至少一个帧图像的步骤具体包括:识别所述帧图像中是否包含有人脸区域,若是,则抽取对应的帧图像。4.根据权利要求1所述的基于微表情的用户心理分析方法,其特征在于,在所述输出对应帧图像中包含的对应微表情的时序子表情的步骤之后,所述方法还包括:检测所述微表情是否发生在面部区域;当对应帧图像中包含的所述微表情发生在面部区域时,截取所述面部区域;对截取的所述面部区域进行放大处理;输出包括放大后的所述面部区域的对应帧图像。5.根据权利要求4所述的基于微表情的用户心理分析方法,其特征在于,在所述对截取的所述面部区域进行放大处理的步骤之后,所述方法还包括:从所述待识别的视频中截取所述面部区域发生微表情的第三视频片段;同时输出放大后的所述面部区域的对应帧图像和所述第三视频片段。6.根据权利要求1所述的基于微表情的用户心理分析方法,其特征在于,训练所述微表情识别模型的步骤包括:抽取携带有样本标签的样本图片,所述样本标签表示所述样本图片中是否包...

【专利技术属性】
技术研发人员:臧家琪
申请(专利权)人:平安普惠企业管理有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1