【技术实现步骤摘要】
评论扩展方法及装置
本申请涉及自然语言处理
,具体而言,本申请涉及一种评论扩展方法、装置、电子设备及计算机可读存储介质。
技术介绍
互联网的高度发达,尤其是博客、微博、论坛等新兴应用的出现,使得网络成为现代生活中大量信息传播的主要媒介。当某一新闻的活跃度不高时,由于互联网的海量信息,该新闻将会被淹没,因此当需要保持某一新闻的热度时,往往需要有关该新闻的大量评论,但是现有技术中在对新闻产生评论时需要用户的主动输入,没有自动化的生成方式,在需要保持某一新闻热度时,往往需要消耗巨大的人力资源,评论生成的效率低下。因此如何提高新闻的评论数量,进而提高该新闻的活跃度就成一个亟待解决的问题。
技术实现思路
本申请提供了一种评论扩展的方法、装置、电子设备及计算机可读存储介质,可以解决提高新闻活跃度的问题。技术方案如下:第一方面,提供了一种评论扩展的方法,该方法包括:获取待扩展的源评论及源评论对应的源新闻;将源评论及源新闻输入预先训练的神经网络模型,得到针对源评论及源新闻的多 ...
【技术保护点】
1.一种评论扩展方法,其特征在于,包括:/n获取待扩展的源评论及所述源评论对应的源新闻;/n将所述源评论及所述源新闻输入预先训练的神经网络模型,得到针对所述源评论及所述源新闻的多个目标评论;/n其中,所述神经网络模型是根据包括样本评论及所述样本评论对应的样本新闻的训练对,和所述训练对对应的评论结果进行训练得到的、并用于对所述样本评论进行扩展的模型。/n
【技术特征摘要】
1.一种评论扩展方法,其特征在于,包括:
获取待扩展的源评论及所述源评论对应的源新闻;
将所述源评论及所述源新闻输入预先训练的神经网络模型,得到针对所述源评论及所述源新闻的多个目标评论;
其中,所述神经网络模型是根据包括样本评论及所述样本评论对应的样本新闻的训练对,和所述训练对对应的评论结果进行训练得到的、并用于对所述样本评论进行扩展的模型。
2.根据权利要求1所述的方法,其特征在于,所述神经网络模型的训练过程,包括:
获取包括所述样本评论和所述样本评论对应样本新闻的训练对,及所述训练对对应的评论结果,其中所述评论结果可从所述样本新闻对应的评论集中获取;
利用所述训练对及所述评论结果,训练初始的神经网络模型,通过调整所述初始神经网络模型中的参数,使得所述初始神经网络模型满足预定的收敛条件,得到训练完成的神经网络模型。
3.根据权利要求2所述的方法,其特征在于,所述初始神经网络模型包括基于自注意力机制的Transformer模型。
4.根据权利要求3所述的方法,其特征在于,所述利用所述训练对及所述评论结果,训练初始的神经网络模型,通过调整所述初始神经网络模型中的参数,使得所述初始神经网络模型满足预定的收敛条件,得到训练完成的神经网络模型,包括:
将所述训练对输入所述基于自注意力机制的Transformer模型,其中,所述基于自注意力机制的Transformer模型包括编码器和解码器;
利用添加所述自注意力机制的编码器分别提取样本新闻及样本评论的特征信息,分别得到所述样本新闻的新闻特征向量及所述样本评论的评论特征向量;
利用预设插值函数调节所述新闻特征向量与所述评论特征向量的系数得到第一特征向量;
将所述第一特征向量与所述评论结果输入所述基于自注意力机制的解码器中,利用所述基于自注意力机制的解码器得到所述评论结果对应的第二特征向量;
将所述第二特征向量与所述评论结果基于交叉熵损失进行梯度运算,利用梯度下降法完成所述基于自注意力机制的Transformer模...
【专利技术属性】
技术研发人员:杨震,李彦,亓超,马宇驰,
申请(专利权)人:腾讯科技深圳有限公司,
类型:发明
国别省市:广东;44
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。