一种视频分析方法、装置、设备和存储介质制造方法及图纸

技术编号:21309812 阅读:21 留言:0更新日期:2019-06-12 11:15
本发明专利技术实施例公开了一种视频分析方法、装置、设备和存储介质。该方法通过获取观众用户观看视频时发送的弹幕信息;识别每一所述弹幕信息所属的情绪标签;确定归属于每一所述情绪标签的所述弹幕信息的比例;根据所述比例计算所述观众用户对所述视频的质量评估值,解决因仅通过弹幕信息评估视频质量所带来的评估不准确和片面的问题,以实现根据观众用户对视频的情绪来进一步分析视频内容的质量,从而提高对视频内容的分析准确度,且有利于间接发现与观众用户产生情感共鸣的视频。

A Video Analysis Method, Device, Equipment and Storage Media

The embodiment of the present invention discloses a video analysis method, device, device and storage medium. The method solves the problem of inaccuracy in evaluating video quality only by acquiring the bullet screen information sent by the viewer when viewing the video, identifying the emotional tag to which each of the bullet screen information belongs, determining the proportion of the bullet screen information to which each of the emotional tags belongs, and calculating the quality evaluation value of the video by the viewer according to the proportion. In order to further analyze the quality of video content according to the emotions of audience users, we can improve the accuracy of video content analysis, and help to indirectly find the video that has emotional resonance with audience users.

【技术实现步骤摘要】
一种视频分析方法、装置、设备和存储介质
本专利技术实施例涉及数据处理的
,尤其涉及一种视频分析方法、装置、设备和存储介质。
技术介绍
在直播环境中观众用户和主播用户的交互主要是主播用户以语音的形式和观众用户进行交互,弹幕则是观众用户唯一和主播用户进行交流的方式了。一般的,采用弹幕的数量对主播用户的直播内容进行评价,但是仅通过数量的分析,不足以表示直播内容的质量。
技术实现思路
本专利技术提供一种视频分析方法、装置、设备和存储介质,以实现根据观众用户对视频的情绪分析视频内容的质量,从而提高对视频内容的分析准确度,有利于间接发现与观众用户产生共鸣的视频。第一方面,本专利技术实施例提供了一种视频分析方法,该方法包括:获取观众用户观看视频时发送的弹幕信息;识别每一所述弹幕信息所属的情绪标签;确定归属于每一所述情绪标签的所述弹幕信息的比例;根据所述比例计算所述观众用户对所述视频的质量评估值。进一步的,识别每一所述弹幕信息所属的情绪标签,包括:将每一所述弹幕信息转换成基于词向量表达的句子矩阵;将所述句子矩阵转换为所述弹幕信息所属的情绪标签。进一步的,将每一所述弹幕信息转换成基于词向量表达的句子矩阵,包括:提取所述弹幕信息中预设数量的关键词;将所述关键词通过预设的词向量模型进行转换,得到词向量;基于所述关键词的词向量组合得到所述弹幕信息的句子矩阵。进一步的,将所述句子矩阵转换为所述弹幕信息所属的情绪标签,包括:将所述句子矩阵输入预先训练的情绪识别模型进行处理,得到所述弹幕信息所属的情绪标签。进一步的,所述情绪识别模型为文本卷积神经网络;在将所述句子矩阵输入预先训练的情绪识别模型进行处理,得到所述弹幕信息所属的情绪标签之前,还包括:获取训练样本集,所述训练样本集包括标记有样本情绪标签的样本弹幕信息;使用所述训练样本集对情绪识别模型进行训练;当满足预设的停止条件时,得到用于识别情绪标签的情绪识别模型。进一步的,根据所述比例计算所述观众用户对所述视频的质量评估值,包括:确定情绪标签中与质量评估相关的预设标签;将所述预设标签的比例作为所述观众用户对所述视频的质量评估值。进一步的,在根据所述比例计算所述观众用户对所述视频的质量评估值之后,包括:若所述质量评估值超过预设阈值,则对所述视频或上传所述视频的主播用户进行推送。第二方面,本专利技术实施例提供了一种视频分析装置,该装置包括:弹幕信息获取模块,用于获取观众用户观看视频时发送的弹幕信息;情绪标签识别模块,用于识别每一所述弹幕信息所属的情绪标签;标签比例确定模块,用于确定归属于每一所述情绪标签的所述弹幕信息的比例;质量评估模块,用于根据所述比例计算所述观众用户对所述视频的质量评估值。第三方面,本专利技术实施例提供了一种视频分析设备,该设备包括:存储器、具有触摸功能的显示屏以及一个或多个处理器;所述存储器,用于存储一个或多个程序;当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如第一方面中任一所述的视频分析方法。第四方面,本专利技术实施例提供了一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如第一方面中任一所述的视频分析方法。本专利技术实施例通过获取观众用户观看视频时发送的弹幕信息;识别每一所述弹幕信息所属的情绪标签;确定归属于每一所述情绪标签的所述弹幕信息的比例;根据所述比例计算所述观众用户对所述视频的质量评估值,解决因仅通过弹幕信息评估视频质量所带来的评估不准确和片面的问题,以实现根据观众用户对视频的情绪来进一步分析视频内容的质量,从而提高对视频内容的分析准确度,且有利于间接发现与观众用户产生情感共鸣的视频。附图说明图1为本专利技术实施例一提供的一种视频分析方法的流程图;图2A为本专利技术实施例二提供的一种视频分析方法的流程图;图2B为本专利技术实施例二提供的一种情绪识别模型的结构示意图。图3为本专利技术实施例三提供的一种视频分析装置的结构示意图;图4为本专利技术实施例四提供的一种视频分析设备的结构示意图。具体实施方式下面结合附图和实施例对本专利技术作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本专利技术,而非对本专利技术的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本专利技术相关的部分而非全部结构。实施例一图1为本专利技术实施例一提供的一种视频分析方法的流程图。本实施例可适用于对视频的内容进行质量评估的情况,具体的,本实施例对视频分析方法的应用场景不作限定,凡是涉及到通过对视频的弹幕信息进行情绪分析,进而对视频的内容进行质量评估的应用场景均可适用。该方法可以由视频分析设备来执行,本实施例对视频分析不作限定,该视频分析设备可以是电脑和服务器等。本实施例以视频分析设备为服务器进行详细说明,该服务器可以是独立服务器或集群服务器。进一步的,为了说明清楚,本实施例以该视频分析方法应用于视频分享平台的服务器中为例进行说明。其中,视频分享平台是指可以进行视频的观看和上传的网站平台。进一步的,视频分享平台可以是直播平台。直播平台中的用户包括主播用户和观众用户两种,其中,主播用户可以向直播平台上传录制有直播内容的视频,观众用户可以通过直播平台实时观看该直播内容的视频。参照图1,该视频分析方法具体包括如下步骤:S110、获取观众用户观看视频时发送的弹幕信息。本实施例对视频的具体形式不作限定,该视频可以是存储在服务器中的视频,也可以是实时上传至服务器的视频流。进一步的,弹幕信息是观众用户针对对视频中的内容的评论,弹幕信息至少包括文本信息。需要注意的是,弹幕信息还可以包括表情信息,表情信息也可以通过编码或采用编码或文字标签的形式表示为文本信息。本实施例对弹幕信息的应用场景不作限定,以直播平台为例进行说明,观众用户可以通过直播平台提供的客户端观看视频,进一步的,观众用户可以针对观看的视频中的直播内容,向直播平台的服务器发送弹幕信息。直播平台将接收到的弹幕信息分发至关注该直播内容对应的客户端进行显示。进一步的,本实施例对如何获取弹幕信息不作限定,可以通过将视频和弹幕信息关联存储于服务器中,在使用时进行获取。S120、识别每一所述弹幕信息所属的情绪标签。本实施例中,以情绪标签的形式对弹幕信息进行标记,可以进一步确定发送该弹幕信息的观众用户对观看的视频的情感认同度。情绪标签可以包括有情绪和无情绪两种;有情绪的情绪标签也可以进一步细化为包括:高兴、悲伤、愤怒、惊讶、恐惧和厌恶等。本实施例对如何识别弹幕信息所属的情绪标签不作限定,本实施例将通过举例的方式进行说明。在一实施例中,建立情绪字典,该情绪字典中存储有归属于情绪标签的情绪关键词;对弹幕信息使用情绪字典进行情绪关键词的匹配;根据匹配的结果确定弹幕信息所述的情绪标签。进一步的,在针对一弹幕信息的匹配过程中,将与该弹幕信息匹配的情绪关键词超过预设数量的情绪标签作为该弹幕信息所属的情绪标签。示例性的,“高兴”的情绪标签下的情绪关键词可以包括:“666”“开心”“喜欢”等等。“厌恶”的情绪标签下的情绪关键词可以包括:“垃圾”“差评”“讨厌”等等。进一步的,当弹幕信息与“高兴”的情绪标签下的情绪关键词匹配数量最多时,可以确定该弹幕信息归属于“高兴”的情绪标签。在又一实施例中,提取弹幕信息中的文本特征,将该文本特征输本文档来自技高网...

【技术保护点】
1.一种视频分析方法,其特征在于,包括:获取观众用户观看视频时发送的弹幕信息;识别每一所述弹幕信息所属的情绪标签;确定归属于每一所述情绪标签的所述弹幕信息的比例;根据所述比例计算所述观众用户对所述视频的质量评估值。

【技术特征摘要】
1.一种视频分析方法,其特征在于,包括:获取观众用户观看视频时发送的弹幕信息;识别每一所述弹幕信息所属的情绪标签;确定归属于每一所述情绪标签的所述弹幕信息的比例;根据所述比例计算所述观众用户对所述视频的质量评估值。2.根据权利要求1所述的方法,其特征在于,识别每一所述弹幕信息所属的情绪标签,包括:将每一所述弹幕信息转换成基于词向量表达的句子矩阵;将所述句子矩阵转换为所述弹幕信息所属的情绪标签。3.根据权利要求2所述的方法,其特征在于,将每一所述弹幕信息转换成基于词向量表达的句子矩阵,包括:提取所述弹幕信息中预设数量的关键词;将所述关键词通过预设的词向量模型进行转换,得到词向量;基于所述关键词的词向量组合得到所述弹幕信息的句子矩阵。4.根据权利要求2所述的方法,其特征在于,将所述句子矩阵转换为所述弹幕信息所属的情绪标签,包括:将所述句子矩阵输入预先训练的情绪识别模型进行处理,得到所述弹幕信息所属的情绪标签。5.根据权利要求4所述的方法,其特征在于,所述情绪识别模型为文本卷积神经网络;在将所述句子矩阵输入预先训练的情绪识别模型进行处理,得到所述弹幕信息所属的情绪标签之前,还包括:获取训练样本集,所述训练样本集包括标记有样本情绪标签的样本弹幕信息;使用所述训练样本集对情绪识别模型进行训练;当满足预设的停止条...

【专利技术属性】
技术研发人员:张祥仇贲
申请(专利权)人:广州虎牙信息科技有限公司
类型:发明
国别省市:广东,44

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1