内容评测方法、装置、存储介质以及电子设备制造方法及图纸

技术编号:35861162 阅读:10 留言:0更新日期:2022-12-07 10:50
本发明专利技术公开了一种内容评测方法、装置、存储介质以及电子设备。该方法包括:获取待评测的目标内容;由第一识别模型识别目标内容,输出预测眼动数据与预测脑电数据,其中,预测眼动数据与预测脑电数据为预测的目标用户观看目标内容时的眼动数据与脑电数据;由第二识别模型识别预测眼动数据与预测脑电数据,输出预测评价,其中,预测评价为预测的目标用户对目标内容的评价。本发明专利技术解决了识别产出的内容的质量效率低的技术问题。质量效率低的技术问题。质量效率低的技术问题。

【技术实现步骤摘要】
内容评测方法、装置、存储介质以及电子设备


[0001]本专利技术涉及计算机领域,具体而言,涉及一种内容评测方法、装置、存储介质以及电子设备。

技术介绍

[0002]当前社会,视频、音频、图片、虚拟现实(Virtual Reality,VR)资源、增强现实(Augmented Reality,AR)资源等娱乐内容的产出量激增,每天都有无数的内容产出,发布到各个平台上。
[0003]然而,由于内容的产出环境不同,因此,产出的内容难免良莠不齐。如何快速识别内容的质量,成为亟待解决的问题。

技术实现思路

[0004]本专利技术实施例提供了一种内容评测方法、装置、存储介质以及电子设备,以至少解决识别产出的内容的质量效率低的技术问题。
[0005]根据本专利技术实施例的一个方面,提供了一种内容评测方法,包括:获取待评测的目标内容;由第一识别模型识别上述目标内容,输出预测眼动数据与预测脑电数据,其中,上述预测眼动数据与预测脑电数据为预测的目标用户观看上述目标内容时的眼动数据与脑电数据;由第二识别模型识别上述预测眼动数据与上述预测脑电数据,输出预测评价,其中,上述预测评价为预测的上述目标用户对上述目标内容的评价。
[0006]根据本专利技术实施例的另一方面,提供了一种内容评测装置,包括:获取模块,用于获取待评测的目标内容;第一识别模块,用于由第一识别模型识别上述目标内容,输出预测眼动数据与预测脑电数据,其中,上述预测眼动数据与预测脑电数据为预测的目标用户观看上述目标内容时的眼动数据与脑电数据;第二识别模块,用于由第二识别模型识别上述预测眼动数据与上述预测脑电数据,输出预测评价,其中,上述预测评价为预测的上述目标用户对上述目标内容的评价。
[0007]作为一种可选的示例,上述装置还包括:生成模块,用于在得到上述预测评价之后,根据上述预测评价,生成对上述目标内容的调整建议;或者评分模块,用于根据上述预测评价,对上述目标内容进行评分;或者筛选模块,用于根据包含上述目标内容在内的多个第一内容中,每一个上述第一内容的预测评价,从多个上述第一内容中,选择出第二内容。
[0008]作为一种可选的示例,上述第一识别模块包括:获取单元,用于获取上述目标内容的音频数据的音频类型、上述目标内容的文本数据、上述文本数据的情感类型、上述目标内容的场景类型以及上述目标内容中的目标对象;第一识别单元,用于由上述第一识别模型识别上述音频类型、上述文本数据、上述情感类型、上述场景类型以及上述目标对象,输出上述预测眼动数据与上述预测脑电数据。
[0009]作为一种可选的示例,上述获取单元包括:第一识别子单元,用于识别上述音频数据的每一帧的音量、音调、音色,以及相邻两帧之间的音量、音调、音色的变化幅度;确定子
单元,用于根据上述音量、音调、音色和上述变化幅度,确定上述音频数据的上述音频类型。
[0010]作为一种可选的示例,上述获取单元包括:第二识别子单元,用于对上述目标内容的每一帧目标视频帧进行识别,识别每一帧上述目标视频帧中的第一对象,在连续多帧上述目标视频帧中均包括上述第一对象的情况下,将上述第一对象确定为上述目标对象;或者在上述目标内容为图像的情况下,将上述图像中包含的第一对象确定为上述目标对象。
[0011]作为一种可选的示例,上述第一识别模块包括:第一处理单元,用于由上述第一识别模型识别上述音频类型,提取出上述音频类型的音频特征,识别上述文本数据,提取出上述文本数据的文本特征,识别上述情感类型,提取出情感特征,识别上述场景类型,提取出场景特征,识别上述目标对象,提取出对象特征;将上述音频特征、上述文本数据、上述情感特征、上述场景特征,与上述对象特征融合为第一融合特征;由上述第一识别模型对上述第一融合特征进行预测,得到上述预测眼动数据与预测脑电数据。
[0012]作为一种可选的示例,上述第二识别模块包括:第二处理单元,用于由上述第二识别模型识别上述预测眼动数据,提取出眼动数据特征,识别上述预测脑电数据,提取出脑电数据特征;将上述眼动数据特征与上述脑电数据特征融合为第二融合特征;由上述第二识别模型对上述第二融合特征进行预测,得到上述预测评价。
[0013]作为一种可选的示例,上述装置还包括:训练模块,用于在由第一识别模型识别上述目标内容之前,获取样本内容、用户观看上述样本内容的样本眼动数据与样本脑电数据以及用户对上述样本内容的样本评价;将上述样本内容、上述样本眼动数据与上述样本脑电数据作为第一样本输入到上述第一识别模型中,对上述第一识别模型进行训练,直到上述第一识别模型的识别准确度大于第一阈值;将上述样本眼动数据与样本脑电数据以及上述样本评价输入到上述第二识别模型中,对上述第二识别模型进行训练,直到上述第二识别模型的识别准确度大于第二阈值。
[0014]根据本专利技术实施例的又一方面,还提供了一种存储介质,该存储介质中存储有计算机程序,其中,该计算机程序被处理器运行时执行上述内容评测方法。
[0015]根据本专利技术实施例的又一方面,还提供了一种电子设备,包括存储器和处理器,上述存储器中存储有计算机程序,上述处理器被设置为通过上述计算机程序执行上述的内容评测方法。
[0016]本专利技术可以应用在使用深度学习技术的自然语言处理技术来识别内容的过程中。在本专利技术实施例中,采用了获取待评测的目标内容;由第一识别模型识别上述目标内容,输出预测眼动数据与预测脑电数据,其中,上述预测眼动数据与预测脑电数据为预测的目标用户观看上述目标内容时的眼动数据与脑电数据;由第二识别模型识别上述预测眼动数据与上述预测脑电数据,输出预测评价,其中,上述预测评价为预测的上述目标用户对上述目标内容的评价的方法,由于在上述方法中,在获取到待评测的目标内容之后,可以先使用第一识别模型识别目标内容预测该目标内容的预测眼动数据与预测脑电数据,然后使用第二识别模型识别预测眼动数据与预测脑电数据从而预测出目标内容的预测评价,根据预测评价,可以知道目标内容的质量好坏,从而实现了高效识别目标内容的效率的目的,进而解决了识别产出的内容的质量效率低的技术问题。
附图说明
[0017]此处所说明的附图用来提供对本专利技术的进一步理解,构成本申请的一部分,本专利技术的示意性实施例及其说明用于解释本专利技术,并不构成对本专利技术的不当限定。在附图中:
[0018]图1是根据本专利技术实施例的一种可选的内容评测方法的流程图;
[0019]图2是根据本专利技术实施例的一种可选的内容评测方法的音频数据图;
[0020]图3是根据本专利技术实施例的一种可选的内容评测方法的第一识别模型的结构图;
[0021]图4是根据本专利技术实施例的一种可选的内容评测方法的用户眼动数据示意图;
[0022]图5是根据本专利技术实施例的一种可选的内容评测方法的用户脑电数据示意图;
[0023]图6是根据本专利技术实施例的一种可选的内容评测方法的第二识别模型的结构图;
[0024]图7是根据本专利技术实施例的一种可选的内容评测方法的评价信息示意图;...

【技术保护点】

【技术特征摘要】
1.一种内容评测方法,其特征在于,包括:获取待评测的目标内容;由第一识别模型识别所述目标内容,输出预测眼动数据与预测脑电数据,其中,所述预测眼动数据与预测脑电数据为预测的目标用户观看所述目标内容时的眼动数据与脑电数据;由第二识别模型识别所述预测眼动数据与所述预测脑电数据,输出预测评价,其中,所述预测评价为预测的所述目标用户对所述目标内容的评价。2.根据权利要求1所述的方法,其特征在于,在得到所述预测评价之后,所述方法还包括:根据所述预测评价,生成对所述目标内容的调整建议;或者根据所述预测评价,对所述目标内容进行评分;或者根据包含所述目标内容在内的多个第一内容中,每一个所述第一内容的预测评价,从多个所述第一内容中,选择出第二内容。3.根据权利要求1所述的方法,其特征在于,所述由第一识别模型识别所述目标内容,输出预测眼动数据与预测脑电数据包括:获取所述目标内容的音频数据的音频类型、所述目标内容的文本数据、所述文本数据的情感类型、所述目标内容的场景类型以及所述目标内容中的目标对象;由所述第一识别模型识别所述音频类型、所述文本数据、所述情感类型、所述场景类型以及所述目标对象,输出所述预测眼动数据与所述预测脑电数据。4.根据权利要求3所述的方法,其特征在于,获取所述音频类型包括:识别所述音频数据的每一帧的音量、音调、音色,以及相邻两帧之间的音量、音调、音色的变化幅度;根据所述音量、音调、音色和所述变化幅度,确定所述音频数据的所述音频类型。5.根据权利要求3所述的方法,其特征在于,获取所述目标对象包括:对所述目标内容的每一帧目标视频帧进行识别,识别每一帧所述目标视频帧中的第一对象,在连续多帧所述目标视频帧中均包括所述第一对象的情况下,将所述第一对象确定为所述目标对象;或者在所述目标内容为图像的情况下,将所述图像中包含的第一对象确定为所述目标对象。6.根据权利要求3所述的方法,其特征在于,所述由所述第一识别模型识别所述音频类型、所述文本数据、所述情感类型、所述场景类型以及所述目标对象,输出所述预测眼动数据与所述预测脑电数据包括:由所述第一识别模型识别所述音频类型,提取出所述音频类型的音频特征,识别所述文本数据,提取出所述文本数据的文本特征,...

【专利技术属性】
技术研发人员:周云朱佩宇张轩苏安炀赵奇梁志婷
申请(专利权)人:上海秒针网络科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1