基于头部姿态的人格分析方法、系统和存储介质技术方案

技术编号:21004436 阅读:22 留言:0更新日期:2019-04-30 21:37
本发明专利技术提供一种基于头部姿态的人格分析方法、系统和存储介质,涉及人格分析技术领域。该方法包括:获取多段待分析用户视频;从每段待分析用户视频中获取头部姿态数据,并将该头部姿态数据作为第一头部姿态数据;计算第一头部姿态数据的统计特征,对第一头部姿态数据进行降维,得到第二头部姿态数据;将每段情感刺激视频对应的第二头部姿态数据和统计特征输入情感预测模型中,得到待分析用户在观看该情感刺激视频过程中的情感数据;将待分析用户在观看各段情感刺激视频过程中的情感数据均输入人格预测模型中,得到待分析用户的人格数据。本发明专利技术避免穿戴接触式设备给用户带来的心理干扰,提高人格分析的准确性。

Personality Analysis Method, System and Storage Media Based on Head Attitude

【技术实现步骤摘要】
基于头部姿态的人格分析方法、系统和存储介质
本专利技术涉及人格分析
,具体涉及一种基于头部姿态的人格分析方法、系统和存储介质。
技术介绍
目前,一般是根据生理特征进行人格分析,例如,皮肤电阻,因此现有的人格分析方案需要使用接触式设备来检测生理特征,由于接触式设备会对被测者产生一定给心理影响,因此会降低人格分析的准确性。
技术实现思路
(一)解决的技术问题针对现有技术的不足,本专利技术提供了一种基于头部姿态的人格分析方法、系统和存储介质,能够避免使用接触式设备对被测者造成心理影响,提高人格分析的准确性。(二)技术方案为实现以上目的,本专利技术通过以下技术方案予以实现:第一方面,本专利技术提供一种基于头部姿态的人格分析方法,包括:获取待分析用户在观看多段情感刺激视频过程中视频记录设备所记录的多段待分析用户视频;所述待分析用户视频的段数与所述情感刺激视频的段数相同;从每段待分析用户视频中获取待分析用户在观看对应情感刺激视频过程中的头部姿态数据,并将该头部姿态数据作为所述对应情感刺激视频对应的第一头部姿态数据;计算每段情感刺激视频对应的第一头部姿态数据的统计特征,并采用主成分分析法对每段情感刺激视频对应的第一头部姿态数据进行降维,得到该段情感刺激视频对应的第二头部姿态数据;将每段情感刺激视频对应的第二头部姿态数据和统计特征输入预先训练的情感预测模型中,得到所述待分析用户在观看该情感刺激视频过程中的情感数据;将所述待分析用户在观看各段情感刺激视频过程中的情感数据均输入预先训练的人格预测模型中,得到所述待分析用户的人格数据。第二方面,本专利技术提供一种基于头部姿态的人格分析系统,包括:第一获取模块,用于获取待分析用户在观看多段情感刺激视频过程中视频记录设备所记录的多段待分析用户视频;所述待分析用户视频的段数与所述情感刺激视频的段数相同;第二获取模块,用于从每段待分析用户视频中获取待分析用户在观看对应情感刺激视频过程中的头部姿态数据,并将该头部姿态数据作为所述对应情感刺激视频对应的第一头部姿态数据;数据降维模块,用于计算每段情感刺激视频对应的第一头部姿态数据的统计特征,并采用主成分分析法对每段情感刺激视频对应的第一头部姿态数据进行降维,得到该段情感刺激视频对应的第二头部姿态数据;情感预测模块,用于将每段情感刺激视频对应的第二头部姿态数据和统计特征输入预先训练的情感预测模型中,得到所述待分析用户在观看该情感刺激视频过程中的情感数据;人格预测模块,用于将所述待分析用户在观看各段情感刺激视频过程中的情感数据均输入预先训练的人格预测模型中,得到所述待分析用户的人格数据。第三方面,本专利技术提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时可实现以上人格分析方法。(三)有益效果本专利技术实施例提供了一种基于头部姿态的人格分析方法、系统和存储介质,采用视频记录设备记录待分析用户观看情感刺激视频的过程,进而分析出待分析用户的头部姿态数据,进而依据头部姿态数据分析出待分析用户的情感数据,最后依据情感数据得到待分析用户的人格数据。可见,本专利技术采用了一种非接触的方式采集用户观看情感刺激视频的过程,相对于接触式采集用户生理特征的方式,更加方便,且避免穿戴接触式设备给用户带来的心理干扰,从而提高人格分析的准确性。附图说明为了更清楚地说明本专利技术实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本专利技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。图1是本专利技术一实施例中基于头部姿态的人格分析方法的流程示意图。具体实施方式为使本专利技术实施例的目的、技术方案和优点更加清楚,下面将结合本专利技术实施例中的附图,对本专利技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本专利技术一部分实施例,而不是全部的实施例。基于本专利技术中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本专利技术保护的范围。第一方面,本专利技术提供一种基于头部姿态的人格分析方法,如图1所示,该方法包括:S100、获取待分析用户在观看多段情感刺激视频过程中视频记录设备所记录的多段待分析用户视频;所述待分析用户视频的段数与所述情感刺激视频的段数相同;在实际场景中,待分析用户端坐于电脑显示器前观看上述能够触发不同情感的情感刺激视频,同时在待分析用户的正面放置一台摄像机作为视频记录设备,以用于记录待分析用户在观看这些情感刺激视频时的头部运动变化,甚至还可记录面部信息。待分析用户观看完一段情感刺激视频后,电脑显示器暂停一段时间,再播放下一段情感刺激视频,以使待分析用户平复心情。待分析用户观看完一段情感刺激视频后,摄像机便记录了待分析用户观看这一段情感刺激视频的过程,即记录了一段待分析用户视频。例如,待分析用户观看了17段情感刺激视频,摄像机便记录了17段待分析用户视频。为了从多个角度激发待分析者的情感以用于对其人格进行预测,上述情感刺激视频可以采用五大人格的针对性视频。五大人格包括神经质、外向型、开放性、宜人性、尽责性,因此情感刺激视频可以包括神经质类视频(内容压抑、令人不安的视频)、外向型视频(充满热性和富有感染力的视频)、开放性视频(具有创新性的视频)、宜人性视频(让人感动的视频)、尽责性视频(含有大量描述尽责行为的视频)。另外,情感刺激视频的段数可以根据情况需求而定,例如,设置17段情感刺激视频,这17段情感刺激视频中包括上述五种类型的视频。可理解的是,由于待分析用户视频记录于视频记录设备中,因此是从视频记录设备中获取上述待分析用户视频。S200、从每段待分析用户视频中获取待分析用户在观看对应情感刺激视频过程中的头部姿态数据,并将该头部姿态数据作为所述对应情感刺激视频对应的第一头部姿态数据;可理解的是,在一帧图像中,可以提取出一组表示头部姿态的数据,例如,一段待分析用户视频为3分钟即3*60秒,而1秒中有30帧图像,则该段待分析用户视频包括3*60*30帧图像,因此可以从该段待分析用户视频中提取出3*60*30组头部姿态数据。具体可以采用预先训练好的深度学习模型从每一帧图像中提取头部姿态数据。其中,每一组头部姿态数据可以表示为(x,y,z),在待分析用户头部端正时,以待分析用户的视角方向为参考,前后方为X轴,前方为X正半轴,左右方为Y轴,左方为Y正半轴,上下为Z轴,上方为Z正半轴。x为待分析用户低头或抬头的角度,低头时该角度为正,抬头时该角度为负。y为待分析用户向左向右水平转动头部的角度,头水平右转时该角度为正,头水平向左转时该角度为负;z为向左向右偏头的角度,头部左偏时该角度为正,头部右偏时该角度为负。为了便于与后面降维后的头部姿态数据进行区分,这里将从待分析用户视频中提取出来的头部姿态数据作为第一头部姿态数据。进一步的,由于不同的人,动作幅度不同,因此不同的用户,其头部姿态变化差异较大。为了研究不同的用户的头部姿态变化与情感之间的关系,可以去除各个用户的头部姿态变化的基础水平差异,也就是个体间的差异性,以便研究出头部姿态的某些内在特征随着情感不同产生的变化,因此需要对待分析用户的头部姿态数据进行归一化处理。通本文档来自技高网...

【技术保护点】
1.一种基于头部姿态的人格分析方法,其特征在于,包括:获取待分析用户在观看多段情感刺激视频过程中视频记录设备所记录的多段待分析用户视频;所述待分析用户视频的段数与所述情感刺激视频的段数相同;从每段待分析用户视频中获取待分析用户在观看对应情感刺激视频过程中的头部姿态数据,并将该头部姿态数据作为所述对应情感刺激视频对应的第一头部姿态数据;计算每段情感刺激视频对应的第一头部姿态数据的统计特征,并采用主成分分析法对每段情感刺激视频对应的第一头部姿态数据进行降维,得到该段情感刺激视频对应的第二头部姿态数据;将每段情感刺激视频对应的第二头部姿态数据和统计特征输入预先训练的情感预测模型中,得到所述待分析用户在观看该情感刺激视频过程中的情感数据;将所述待分析用户在观看各段情感刺激视频过程中的情感数据均输入预先训练的人格预测模型中,得到所述待分析用户的人格数据。

【技术特征摘要】
1.一种基于头部姿态的人格分析方法,其特征在于,包括:获取待分析用户在观看多段情感刺激视频过程中视频记录设备所记录的多段待分析用户视频;所述待分析用户视频的段数与所述情感刺激视频的段数相同;从每段待分析用户视频中获取待分析用户在观看对应情感刺激视频过程中的头部姿态数据,并将该头部姿态数据作为所述对应情感刺激视频对应的第一头部姿态数据;计算每段情感刺激视频对应的第一头部姿态数据的统计特征,并采用主成分分析法对每段情感刺激视频对应的第一头部姿态数据进行降维,得到该段情感刺激视频对应的第二头部姿态数据;将每段情感刺激视频对应的第二头部姿态数据和统计特征输入预先训练的情感预测模型中,得到所述待分析用户在观看该情感刺激视频过程中的情感数据;将所述待分析用户在观看各段情感刺激视频过程中的情感数据均输入预先训练的人格预测模型中,得到所述待分析用户的人格数据。2.如权利要求1所述的方法,其特征在于,计算每段情感刺激视频对应的第一头部姿态数据的统计特征,并采用主成分分析法对每段情感刺激视频对应的第一头部姿态数据进行降维之前,所述方法还包括:将每段情感刺激视频对应的第一头部姿态数据与该段情感刺激视频对应的第一头部姿态数据的均值相减,得到第一差值数据;计算该段情感刺激视频对应的第一头部姿态数据中的最大值和最小值之间的差值;计算所述候第一差值数据与所述差值的比值,并将所述比值作为归一化后的第一头部姿态数据。3.如权利要求1所述的方法,其特征在于,每段情感刺激视频对应的第一头部姿态数据的统计特征包括:该段情感刺激视频对应的第一头部姿态数据的均值、标准差、中值、最大值、最小值、最大值和最小值的差值、最小值比率和最大值比率中的至少一项。4.如权利要求1所述的方法,其特征在于,所述情感预测模型的训练过程包括:构建第一训练数据集;其中,所述第一训练数据集中包括多个训练用户在观看多个情感刺激视频后所产生的若干条训练数据,每一条训练数据包括一个训练用户在观看一段情感刺激视...

【专利技术属性】
技术研发人员:孙晓陈维
申请(专利权)人:合肥工业大学
类型:发明
国别省市:安徽,34

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1