视频标题的生成方法、装置、电子设备及可读存储介质制造方法及图纸

技术编号:37642777 阅读:19 留言:0更新日期:2023-05-25 10:09
本发明专利技术实施例提供了一种视频标题的生成方法:获取目标视频的视频简介、台词文本和弹幕合集;将视频简介和台词文本输入到预训练的第一深度学习模型中,得到目标视频的特征信息;在弹幕合集中目标弹幕的评分达到预期评分的情况下,将目标弹幕和特征信息输入到预训练的第二深度学习模型中,得到目标视频的视频标题。本发明专利技术实施例通过将目标视频中的视频简介和台词文本进行匹配,从视频简介筛选出精简内容,再对弹幕合集进行评分筛选出质量高的弹幕与精简内容,由于质量高的弹幕和精简内容与视频内容的相关性较高,因此将质量高的弹幕与精简内容进行文本结合确定目标视频的视频标题,提高了视频标题与视频内容之间的关联性。提高了视频标题与视频内容之间的关联性。提高了视频标题与视频内容之间的关联性。

【技术实现步骤摘要】
视频标题的生成方法、装置、电子设备及可读存储介质


[0001]本专利技术涉及视频处理
,特别是涉及一种视频标题的生成方法、装置、电子设备及可读存储介质。

技术介绍

[0002]随着短视频在网络中热度越来越高,每天在各种视频平台中生成的短视频数量也越来越多,因此,对于短视频起标题的工作量也越来越大。目前,除了人工标注短视频的标题外,还能够通过训练模型自动对短视频生成标题,但是目前通过训练模型自动生成短视频标题无法与视频内容和用户反馈进行紧密相关,因此出现了视频标题与视频内容之间关联性较低的问题。

技术实现思路

[0003]本专利技术实施例的目的在于提供一种视频标题的生成方法、装置、电子设备及可读存储介质,以解决现有技术中视频标题与视频内容之间关联性较低的问题。
[0004]在本专利技术实施的第一方面,首先提供了一种视频标题的生成方法,包括:
[0005]获取目标视频的视频简介、台词文本和弹幕合集;
[0006]将所述视频简介和所述台词文本输入到预训练的第一深度学习模型中,得到所述目标视频的特征信息,所述特征信息用于表征所述视频简介的关键内容;
[0007]在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息输入到预训练的第二深度学习模型中,得到所述目标视频的视频标题。
[0008]可选的,所述获取目标视频的视频简介、台词文本和弹幕合集,包括:
[0009]获取目标视频的初始台词文本和初始弹幕合集;
[0010]根据所述初始台词文本匹配与所述目标视频关联的初始视频简介;
[0011]对所述初始台词文本、所述初始弹幕合集和所述初始视频简介进行数据整合,得到目标视频的视频简介、台词文本和弹幕合集,所述数据整合用于除去所述初始台词文本、所述初始弹幕合集和所述初始视频简介中的重复内容和错误内容。
[0012]可选的,所述将所述视频简介和所述台词文本输入到预训练的第一深度学习模型中,得到所述目标视频的特征信息之前,所述方法还包括:
[0013]获取创建的剧情简介定位模型,所述剧情简介定位模型用于对输入的文本内容进行识别;
[0014]通过第一训练样本对所述剧情简介定位模型进行训练,得到第一输出值,并根据所述第一输出值对所述语言学习模型进行更新,所述第一训练样本包括视频简介样本和台词样本;
[0015]将训练好的剧情简介定位模型确定为所述第一深度学习模型。
[0016]可选的,所述将所述视频简介和所述台词文本输入到预训练的第一深度学习模型中,得到所述目标视频的特征信息,包括:
[0017]将所述视频简介和所述台词文本输入到预训练的第一深度学习模型中,得到起始点和终点,所述起始点和所述终点为所述视频简介中的段落点;
[0018]根据所述起始点和所述终点将所述视频简介进行文本提取,获得目标视频简介;
[0019]将所述目标视频简介确定为所述目标视频的特征信息。
[0020]可选的,在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息输入到预训练的第二深度学习模型中,得到所述目标视频的视频标题之前,所述方法还包括:
[0021]根据预设弹幕质量对所述弹幕合集进行评分,得到符合所述预设弹幕质量的第一弹幕集合,所述弹幕质量用于指示所述弹幕的通顺程度和字数;
[0022]根据预设交互数据对所述第一弹幕集合进行评分,得到符合所述预设交互数据的第二弹幕集合,所述交互数据用于指示所述弹幕的点赞数;
[0023]根据预设内容相关度对所述第二弹幕集合进行评分获得目标弹幕,所述内容相关度用于指示所述弹幕与所述目标视频中台词的相关度。
[0024]可选的,所述在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息输入到预训练的第二深度学习模型中,得到所述目标视频的视频标题之前,所述方法还包括:
[0025]获取创建的标题生成模型,所述剧情简介定位模型用于对输入的文本内容进行识别;
[0026]通过第二训练样本对所述标题生成模型进行训练,得到第二输出值,并根据所述第二输出值对所述语言学习模型进行更新,所述第二训练样本包括视频简介样本和台词样本;
[0027]将训练好的标题生成模型确定为所述第二深度学习模型。
[0028]可选的,在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息输入到预训练的第二深度学习模型中,得到所述目标视频的视频标题,包括:
[0029]在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息进行文本整合,生成目标文本;
[0030]将所述目标文本输入到预训练的第二深度学习模型中,得到目标视频的视频标题。
[0031]在本专利技术实施的第二方面,还提供了一种视频标题的生成装置,包括:
[0032]获取模块,用于获取目标视频的视频简介、台词文本和弹幕合集;
[0033]提取模块,用于将所述视频简介和所述台词文本输入到预训练的第一深度学习模型中,得到所述目标视频的特征信息,所述特征信息用于表征所述视频简介的关键内容;
[0034]输入模块,用于在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息输入到预训练的第二深度学习模型中,得到所述目标视频的视频标题。
[0035]在本专利技术实施例的第三方面,还提供了一种电子设备,包括处理器,存储器及存储在所述存储器上并可在所述处理器上运行的程序或指令,所述程序或指令被所述处理器执行时实现如第一方面中任一项所述的视频标题的生成方法的步骤。
[0036]在本专利技术实施例的第四方面,还提供了一种计算机可读存储介质,所述可读存储介质上存储有程序或指令,所述程序或指令被处理器执行时实现如第一方面中任一项所述的视频标题的生成方法的步骤。
[0037]本专利技术实施例提供了一种视频标题的生成方法、装置、电子设备及可读存储介质,该方法包括:获取目标视频的视频简介、台词文本和弹幕合集;将所述视频简介和所述台词文本输入到预训练的第一深度学习模型中,得到所述目标视频的特征信息,所述特征信息用于表征所述视频简介的关键内容;在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息输入到预训练的第二深度学习模型中,得到所述目标视频的视频标题。本专利技术实施例通过将目标视频中的视频简介和台词文本进行匹配,从视频简介筛选出精简内容,再对弹幕合集进行评分筛选出质量高的弹幕与精简内容,由于质量高的弹幕和精简内容与视频内容的相关性较高,因此将质量高的弹幕与精简内容进行文本结合确定目标视频的视频标题,提高了视频标题与视频内容之间的关联性。
附图说明
[0038]为了更清楚地说明本专利技术实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。
[0039]图1为本专利技术实施例中提本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种视频标题的生成方法,其特征在于,包括:获取目标视频的视频简介、台词文本和弹幕合集;将所述视频简介和所述台词文本输入到预训练的第一深度学习模型中,得到所述目标视频的特征信息,所述特征信息用于表征所述视频简介的关键内容;在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息输入到预训练的第二深度学习模型中,得到所述目标视频的视频标题。2.根据权利要求1中所述的方法,其特征在于,所述获取目标视频的视频简介、台词文本和弹幕合集,包括:获取目标视频的初始台词文本和初始弹幕合集;根据所述初始台词文本匹配与所述目标视频关联的初始视频简介;对所述初始台词文本、所述初始弹幕合集和所述初始视频简介进行数据整合,得到目标视频的视频简介、台词文本和弹幕合集,所述数据整合用于除去所述初始台词文本、所述初始弹幕合集和所述初始视频简介中的重复内容和错误内容。3.根据权利要求1中所述的方法,其特征在于,所述将所述视频简介和所述台词文本输入到预训练的第一深度学习模型中,得到所述目标视频的特征信息之前,所述方法还包括:获取创建的剧情简介定位模型,所述剧情简介定位模型用于对输入的文本内容进行识别;通过第一训练样本对所述剧情简介定位模型进行训练,得到第一输出值,并根据所述第一输出值对所述剧情简介定位模型进行更新,所述第一训练样本包括视频简介样本和台词样本;将训练好的剧情简介定位模型确定为所述第一深度学习模型。4.根据权利要求3中所述的方法,其特征在于,所述将所述视频简介和所述台词文本输入到预训练的第一深度学习模型中,得到所述目标视频的特征信息,包括:将所述视频简介和所述台词文本输入到预训练的第一深度学习模型中,得到起始点和终点,所述起始点和所述终点为所述视频简介中的段落点;根据所述起始点和所述终点将所述视频简介进行文本提取,获得目标视频简介;将所述目标视频简介确定为所述目标视频的特征信息。5.根据权利要求1中所述的方法,其特征在于,在所述弹幕合集中目标弹幕的评分达到预期评分的情况下,将所述目标弹幕和所述特征信息输入到预训练的第二深度学习模型中,得到所述目标视频的视频标题之前,所述方法还包括:根据预设弹幕质量对所述弹幕合集进行评分,得到符合所述预设弹幕质量的第一弹幕集合,所述弹幕质量用于指示所...

【专利技术属性】
技术研发人员:于洋
申请(专利权)人:北京奇艺世纪科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1