视频标签获取方法、装置、电子设备和存储介质制造方法及图纸

技术编号:34174902 阅读:15 留言:0更新日期:2022-07-17 11:40
本发明专利技术公开了一种视频标签获取方法、装置、电子设备和存储介质。其中,方法包括获取目标视频的多帧图片;将所述多帧图片输入至训练好的网络模型中,获取所述目标视频的标签;其中,所述网络模型根据所述目标视频多帧图片中物体图结构的变换获得所述目标视频的标签。采用本发明专利技术提供的方案能基于视频中物体的变化获取视频的标签,实用性强,准确率高。准确率高。准确率高。

【技术实现步骤摘要】
视频标签获取方法、装置、电子设备和存储介质


[0001]本专利技术涉及视频标签
,尤其涉及一种视频标签获取方法、装置、电子设备和存储介质。

技术介绍

[0002]随着互联网的飞速发展,使得用户可以通过各种终端的视频类应用程序或网站获取各种类型的视频,例如电影、电视剧等。对于视频来说,视频标签能够很好的展示视频的类型、特色等,从而用户可以根据视频标签选择自己喜爱的视频类型,大大提升了用户的使用体验。
[0003]但目前,视频标签一般操作人员通过观看视频内容,基于经验获取视频的标签,从而进行打标签操作。但上述方式需要大量的人工成本,且由于操作人员的标准不一致,准确率不高。

技术实现思路

[0004]为解决现有的视频标签获取过程难,准确率低的相关技术问题,本专利技术实施例提供一种视频标签获取方法、装置、电子设备和存储介质。
[0005]本专利技术实施例的技术方案是这样实现的:
[0006]本专利技术实施例提供了一种视频标签获取方法,方法包括:
[0007]获取目标视频的多帧图片;
[0008]将所述多帧图片输入至训练好的网络模型中,获取所述目标视频的标签;其中,所述网络模型根据所述目标视频多帧图片中物体图结构的变换获得所述目标视频的标签。
[0009]上述方案中,所述网络模型为多个,所述将所述多帧图片输入至训练好的网络模型中,获取所述目标视频的标签包括:
[0010]将所述多帧图片输入到多个网络模型中的每个网络模型中,获取每个网络模型针对所述多帧图片所输出的标签结果;
[0011]将多个标签结果作为所述目标视频的标签。
[0012]上述方案中,所述将所述多帧图片输入到多个网络模型中的每个网络模型中,获取每个网络模型针对所述多帧图片所输出的标签结果包括:
[0013]对所述多帧图片中的每帧图片进行物体检测识别,构建每帧图片的物体图结构;
[0014]将所述多帧图片中每帧图片对应的物体图结构输入至多个网络模型中的每个网络模型中,获取每个网络模型针对所述多帧图片所输出的标签结果。
[0015]上述方案中,所述对所述多帧图片中的每帧图片进行物体检测识别,构建每帧图片的物体图结构包括:
[0016]对所述多帧图片中的每帧图片进行物体检测识别,确定每帧图片中每一物体的物体位置和物体类型;
[0017]基于所述每帧图片中每一物体的物体位置和物体类型,构建每帧图片内物体间的
关系图;
[0018]将构建后的每帧图片的物体间的关系图确定为每帧图片的物体图结构。
[0019]上述方案中,所述网络模型的训练过程包括:
[0020]获取训练图片集;
[0021]对所述训练图片集中的每帧图片进行物体检测识别,确定所述训练图片集中的每帧图片的物体图结构;
[0022]以所述训练图片集中的出现次数最多的物体为中心节点;将所述训练图片集中的每帧图片的物体图结构输入至预设的网络模型中进行训练,获得训练好的网络模型;其中,中心节点不同,基于不同的中心节点根据物体图结构的变换训练获得的网络模型输出的标签结果不同。
[0023]上述方案中,所述获取目标视频的多帧图片包括:
[0024]获取目标视频;
[0025]按照预设时间间隔对所述目标视频进行抽帧处理,获得所述目标视频的多帧图片。
[0026]上述方案中,获得所述目标视频的标签之后,所述方法还包括:
[0027]对所述目标视频标注所述标签。
[0028]本专利技术实施例还提供了一种视频标签获取装置,视频标签获取装置包括:
[0029]获取模块,用于获取目标视频的多帧图片;
[0030]输入模块,用于将所述多帧图片输入至训练好的网络模型中,获取所述目标视频的标签;其中,所述网络模型根据所述目标视频多帧图片中物体图结构的变换获得所述目标视频的标签。
[0031]本专利技术实施例还提供了一种电子设备,包括:处理器和用于存储能够在处理器上运行的计算机程序的存储器;其中,
[0032]处理器用于运行计算机程序时,执行上述任一方法的步骤。
[0033]本专利技术实施例还提供了一种存储介质,存储介质中存储有计算机程序,计算机程序被处理器执行时,实现上述任一方法的步骤。
[0034]本专利技术实施例可以应用于深度学习
进行计算机视觉。本专利技术实施例提供的视频标签获取方法、装置、电子设备和存储介质,获取目标视频的多帧图片;将所述多帧图片输入至训练好的网络模型中,获取所述目标视频的标签;其中,所述网络模型根据所述目标视频多帧图片中物体图结构的变换获得所述目标视频的标签。采用本专利技术提供的方案能基于视频中物体的变化获取视频的标签,实用性强,准确率高。
附图说明
[0035]图1为本专利技术实施例视频标签获取方法的流程示意图;
[0036]图2为本专利技术实施例物体图结构的示意图;
[0037]图3为本专利技术应用实施例视频打标签过程示意图;
[0038]图4为本专利技术实施例视频标签获取装置的结构示意图;
[0039]图5为本专利技术实施例计算机设备的内部结构图。
具体实施方式
[0040]下面将结合附图及实施例对本专利技术作进一步详细的描述。
[0041]本专利技术实施例提供了一种视频标签获取方法,如图1所示,该方法包括:
[0042]步骤101:获取目标视频的多帧图片;
[0043]步骤102:将所述多帧图片输入至训练好的网络模型中,获取所述目标视频的标签;其中,所述网络模型根据所述目标视频多帧图片中物体图结构的变换获得所述目标视频的标签。
[0044]具体地,本实施例可以基于图像深度学习的方法,对单张图片的场景生成图,称为物体图结构。参见图2,为基于一张图片所生成的物体图结构。
[0045]本实施例将一段视频的每一帧都看做一张照片,构建每张图片的物体图结构,通过统计物体图结构的变换可以判断出视频中不同物体的变换情况,进而判断视频的类型,给视频打标签。这里,可通过网络模型统计物体图结构的变换、判断物体图结构中不同物体的变换情况,进而判断视频的类型,获得视频的标签。
[0046]在一实施例中,所述网络模型为多个,所述将所述多帧图片输入至训练好的网络模型中,获取所述目标视频的标签包括:
[0047]将所述多帧图片输入到多个网络模型中的每个网络模型中,获取每个网络模型针对所述多帧图片所输出的标签结果;
[0048]将多个标签结果作为所述目标视频的标签。
[0049]进一步地,网络模型可以为多个。每个网络模型的中心节点不同。同一段视频,根据不同的中心节点,分析视频多帧图片中物体的变换情况,会获得不同的视频标签。即不同的网络模型,由于中心节点不同,即使分析相同的视频多帧图片的物体图结构,得出的视频标签不同。例如,以图2所示的物体图结构为例,一网络模型,以整条街为中心节点,其它物体如行人,黄包车,路灯,摩托车等于街道的网本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种视频标签获取方法,其特征在于,所述方法包括:获取目标视频的多帧图片;将所述多帧图片输入至训练好的网络模型中,获取所述目标视频的标签;其中,所述网络模型根据所述目标视频多帧图片中物体图结构的变换获得所述目标视频的标签。2.根据权利要求1所述的方法,其特征在于,所述网络模型为多个,所述将所述多帧图片输入至训练好的网络模型中,获取所述目标视频的标签包括:将所述多帧图片输入到多个网络模型中的每个网络模型中,获取每个网络模型针对所述多帧图片所输出的标签结果;将多个标签结果作为所述目标视频的标签。3.根据权利要求2所述的方法,其特征在于,所述将所述多帧图片输入到多个网络模型中的每个网络模型中,获取每个网络模型针对所述多帧图片所输出的标签结果包括:对所述多帧图片中的每帧图片进行物体检测识别,构建每帧图片的物体图结构;将所述多帧图片中每帧图片对应的物体图结构输入至多个网络模型中的每个网络模型中,获取每个网络模型针对所述多帧图片所输出的标签结果。4.根据权利要求3所述的方法,其特征在于,所述对所述多帧图片中的每帧图片进行物体检测识别,构建每帧图片的物体图结构包括:对所述多帧图片中的每帧图片进行物体检测识别,确定每帧图片中每一物体的物体位置和物体类型;基于所述每帧图片中每一物体的物体位置和物体类型,构建每帧图片内物体间的关系图;将构建后的每帧图片的物体间的关系图确定为每帧图片的物体图结构。5.根据权利要求1所述的方法,其特征在于,所述...

【专利技术属性】
技术研发人员:翟步中唐大闰
申请(专利权)人:北京明略昭辉科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1