System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 一种标题生成模型的训练方法及装置制造方法及图纸_技高网

一种标题生成模型的训练方法及装置制造方法及图纸

技术编号:40602304 阅读:3 留言:0更新日期:2024-03-12 22:07
本公开涉及人工智能技术领域,提供了一种标题生成模型的训练方法、装置、计算机设备及计算机可读存储介质。该方法通过将搜索成交转化因素引入标题生成模型的训练中,使得标题生成模型所生成的压缩标题在保留原始对象标题中的核心信息的同时,更倾向于透出能促进成交转化的关键词,从而能够很好的引导用户成交;也就是说,通过两个任务的联合学习,可以使得训练得到的目标标题生成模型所生成的压缩标题,不仅能够体现冗长的原始对象标题中的关键信息,也能吸引用户,从而提高商品的转化成交率,进而可以提高对象的转化率以及用户体验。

【技术实现步骤摘要】

本公开涉及人工智能,尤其涉及一种标题生成模型的训练方法及装置


技术介绍

1、文本摘要(压缩)是自然语言处理中重要研究方向之一。按摘要的生成方式,可以分为抽取式和生成式两种。顾名思义,抽取式方法生成的摘要句子和词均从原文中抽取,而生成式方法更为灵活,摘要中的句子和词并不要求一定从原文中抽取。传统的抽取式摘要方法大致可以分为贪心方法、基于图的方法和基于约束的优化方法等。近年来神经网络的方法也被应用到文本摘要领域并取得显著进步,尤其是生成式摘要方法。业界已有方法都是以压缩文章长度为优化目标实现文本的摘要,电商场景下除了文本压缩率还有其他考量,如何在商品标题长度精简的同时又不影响整体的成交转化率成为一个业界难题。

2、为了提高搜索召回和促进成交,一线运营同事往往会在标题中堆砌大量冗余词,当用户在手机端进行浏览的时候,过长的商品标题由于屏幕尺寸限制显示不全,只能做截断处理,严重影响用户体验。在移动端,商品原始标题显示不完整,只能显示14个字左右的短标题,用户如果想获取完整标题,还需要进一步点击进入商品详情页,商品原始标题包含近30个字。此外,在个性化推送和推荐场景中,商品短标题作为信息主体,对长度也有一定限制,如何使用尽可能短的文本体现商品的核心属性,引起用户的点击和浏览兴趣,提高转化率,是亟需解决的问题。


技术实现思路

1、有鉴于此,本公开实施例提供了一种标题生成模型的训练方法、装置、计算机设备及计算机可读存储介质,以解决现有技术中在个性化推送和推荐场景中,商品短标题作为信息主体,无法实现使用尽可能短的文本体现商品的核心属性,引起用户的点击和浏览兴趣、提高转化率的问题。

2、本公开实施例的第一方面,提供了一种标题生成模型的训练方法,所述方法包括:

3、获取文本训练样本;其中,所述文本训练样本包括原始对象标题、所述原始对象标题对应的参考压缩标题和所述原始对象标题对应的参考搜索文本;所述参考搜索文本对应的交互操作行为属于真实有效交互行为;

4、将所述原始对象标题输入标题生成模型,得到所述原始对象标题对应的预测压缩标题和所述预测压缩标题对应的注意力矩阵;

5、将所述原始对象标题输入搜索生成模型,得到所述原始对象标题对应的预测搜索文本和所述预测搜索文本对应的注意力矩阵;

6、利用所述原始对象标题对应的参考压缩标题、参考搜索文本、预测压缩标题、预测搜索文本、所述预测压缩标题对应的注意力矩阵和所述预测搜索文本对应的注意力矩阵,对所述标题生成模型和所述搜索生成模型的模型参数进行调整,得到调整后的标题生成模型和调整后的搜索生成模型;

7、将所述调整后的标题生成模型作为目标标题生成模型。

8、本公开实施例的第二方面,提供了一种标题生成模型的训练装置,所述装置包括:

9、样本获取模块,用于获取文本训练样本;其中,所述文本训练样本包括原始对象标题、所述原始对象标题对应的参考压缩标题和所述原始对象标题对应的参考搜索文本;其中,所述参考搜索文本对应的交互操作行为属于真实有效交互行为;

10、第一生成模块,用于将所述原始对象标题输入标题生成模型,得到所述原始对象标题对应的预测压缩标题和所述预测压缩标题对应的注意力矩阵;

11、第二生成模块,用于将所述原始对象标题输入搜索生成模型,得到所述原始对象标题对应的预测搜索文本和所述预测搜索文本对应的注意力矩阵;

12、模型调整模块,用于利用所述原始对象标题对应的参考压缩标题、参考搜索文本、预测压缩标题、预测搜索文本、所述预测压缩标题对应的注意力矩阵和所述预测搜索文本对应的注意力矩阵,对所述标题生成模型和所述搜索生成模型的模型参数进行调整,得到调整后的标题生成模型和调整后的搜索生成模型;

13、模型确定模块,用于将所述调整后的标题生成模型作为目标标题生成模型。

14、本公开实施例的第三方面,提供了一种计算机设备,包括存储器、处理器以及存储在存储器中并且可以在处理器上运行的计算机程序,该处理器执行计算机程序时实现上述方法的步骤。

15、本公开实施例的第四方面,提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述方法的步骤。

16、本公开实施例与现有技术相比存在的有益效果是:本公开实施例可以先获取文本训练样本;其中,所述文本训练样本包括原始对象标题、所述原始对象标题对应的参考压缩标题和所述原始对象标题对应的参考搜索文本;所述参考搜索文本对应的交互操作行为属于真实有效交互行为。然后,可以将所述原始对象标题输入标题生成模型,得到所述原始对象标题对应的预测压缩标题和所述预测压缩标题对应的注意力矩阵。接着,可以将所述原始对象标题输入搜索生成模型,得到所述原始对象标题对应的预测搜索文本和所述预测搜索文本对应的注意力矩阵。紧接着,可以利用所述原始对象标题对应的参考压缩标题、参考搜索文本、预测压缩标题、预测搜索文本、所述预测压缩标题对应的注意力矩阵和所述预测搜索文本对应的注意力矩阵,对所述标题生成模型和所述搜索生成模型的模型参数进行调整,得到调整后的标题生成模型和调整后的搜索生成模型,最后,可以将所述调整后的标题生成模型作为目标标题生成模型。可见,在本实施例中,主任务是对原始对象标题进行压缩以提取原始对象标题对应的预测压缩标题,即对标题生成模型的训练,辅助任务是由原始对象标题生成辅助的参考搜索文本,即对搜索生成模型的训练。这样,通过将搜索成交转化因素引入标题生成模型的训练中,使得标题生成模型所生成的压缩标题在保留原始对象标题中的核心信息的同时,更倾向于透出能促进成交转化的关键词,从而能够很好的引导用户成交;也就是说,通过两个任务的联合学习,可以使得训练得到的目标标题生成模型所生成的压缩标题,不仅能够体现冗长的原始对象标题中的关键信息,也能吸引用户,从而提高商品的转化成交率,进而可以提高对象的转化率以及用户体验。

本文档来自技高网...

【技术保护点】

1.一种标题生成模型的训练方法,其特征在于,所述方法包括:

2.根据权利要求1所述的方法,其特征在于,所述将所述原始对象标题输入标题生成模型,得到所述原始对象标题对应的预测压缩标题和所述预测压缩标题对应的注意力矩阵,包括:

3.根据权利要求1或2所述的方法,其特征在于,所述标题生成模型为包括注意力机制的指针网络模型。

4.根据权利要求1所述的方法,其特征在于,所述将所述原始对象标题输入标题生成模型,得到所述原始对象标题对应的预测压缩标题和所述预测搜索文本对应的注意力矩阵,包括:

5.根据权利要求1或4所述的方法,其特征在于,所述搜索生成模型为包括注意力机制的编码-解码模型。

6.根据权利要求1所述的方法,其特征在于,所述利用所述原始对象标题对应的参考压缩标题、参考搜索文本、预测压缩标题、预测搜索文本、所述预测压缩标题对应的注意力矩阵和所述预测搜索文本对应的注意力矩阵,对所述标题生成模型和所述搜索生成模型的模型参数进行调整,得到调整后的标题生成模型和调整后的搜索生成模型,包括:

7.根据权利要求6所述的方法,其特征在于,所述根据所述预测压缩标题对应的注意力矩阵和所述预测搜索文本对应的注意力矩阵,确定协同损失值,包括:

8.根据权利要求1所述的方法,其特征在于,所述方法还包括:

9.一种标题生成模型的训练装置,其特征在于,所述装置包括:

10.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并且可以在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至8中任一项所述方法的步骤。

...

【技术特征摘要】

1.一种标题生成模型的训练方法,其特征在于,所述方法包括:

2.根据权利要求1所述的方法,其特征在于,所述将所述原始对象标题输入标题生成模型,得到所述原始对象标题对应的预测压缩标题和所述预测压缩标题对应的注意力矩阵,包括:

3.根据权利要求1或2所述的方法,其特征在于,所述标题生成模型为包括注意力机制的指针网络模型。

4.根据权利要求1所述的方法,其特征在于,所述将所述原始对象标题输入标题生成模型,得到所述原始对象标题对应的预测压缩标题和所述预测搜索文本对应的注意力矩阵,包括:

5.根据权利要求1或4所述的方法,其特征在于,所述搜索生成模型为包括注意力机制的编码-解码模型。

6.根据权利要求1所述的方法,其特征在于,所述利用所述原始对象标题对应的参考压缩标...

【专利技术属性】
技术研发人员:刘欢董辉
申请(专利权)人:深圳须弥云图空间科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1