The present application relates to a summary text generation method, apparatus, and computer device, comprising: acquiring word sequences of the original text; encoding and decoding word sequences respectively through the first and second channels of the machine learning model, and referring to the summary words output at the previous moment of the machine learning model in decoding The first hidden layer state vector and the second hidden layer state vector of the current time are obtained by using the word vector of the first hidden layer state vector and the second hidden layer state vector of the current time. . The scheme provided by this application can achieve the readability of the generated summary text.
【技术实现步骤摘要】
摘要文本生成方法、装置和计算机设备
本申请涉及计算机
,特别是涉及一种摘要文本生成方法、装置和计算机设备。
技术介绍
自动摘要文本在许多NLP(NaturalLanguageProcessing,自然语言处理)领域中有着非常重要的应用。如新闻标题生成、会议纪要、社交短文本的话题生成、智能客服任务等等。如何生成可读性强的摘要文本变成了炙手可热的研究课题。目前,为了自动生成摘要文本,通常采用的是将文本序列输入基于RNN(Recurrentneuralnetworks,循环神经网络)的机器学习模型,经过计算或变换后输出得到摘要文本序列。然而,这种方式生成的摘要文本存在可读性差的问题。
技术实现思路
基于此,有必要针对目前采用的方式所生成的摘要文本可读性差的问题,提供一种摘要文本生成方法、装置、计算机可读存储介质和计算机设备。一种摘要文本生成方法,包括:获取原始文本的词序列;通过预训练的机器学习模型中第一通道的编码器,对所述词序列进行语义相关编码,得到所述词序列中各词对应的语义编码向量;通过所述机器学习模型中第二通道的编码器,对所述词序列进行主题相关编码,得到所述词序列中各词对应的主题编码向量;通过所述第一通道的解码器,根据所述机器学习模型前一时刻所输出摘要词的词向量对所述语义编码向量解码,得到当前时刻的第一隐层状态向量;通过所述第二通道的解码器,根据所述机器学习模型前一时刻所输出摘要词的词向量对所述主题编码向量解码,得到当前时刻的第二隐层状态向量;根据当前时刻的第一隐层状态向量和第二隐层状态向量,确定所述机器学习模型当前时刻输出的摘要词;根据所述机器学习模型所 ...
【技术保护点】
1.一种摘要文本生成方法,包括:获取原始文本的词序列;通过预训练的机器学习模型中第一通道的编码器,对所述词序列进行语义相关编码,得到所述词序列中各词对应的语义编码向量;通过所述机器学习模型中第二通道的编码器,对所述词序列进行主题相关编码,得到所述词序列中各词对应的主题编码向量;通过所述第一通道的解码器,根据所述机器学习模型前一时刻所输出摘要词的词向量对所述语义编码向量解码,得到当前时刻的第一隐层状态向量;通过所述第二通道的解码器,根据所述机器学习模型前一时刻所输出摘要词的词向量对所述主题编码向量解码,得到当前时刻的第二隐层状态向量;根据当前时刻的第一隐层状态向量和第二隐层状态向量,确定所述机器学习模型当前时刻输出的摘要词;根据所述机器学习模型所输出的各摘要词生成摘要文本。
【技术特征摘要】
1.一种摘要文本生成方法,包括:获取原始文本的词序列;通过预训练的机器学习模型中第一通道的编码器,对所述词序列进行语义相关编码,得到所述词序列中各词对应的语义编码向量;通过所述机器学习模型中第二通道的编码器,对所述词序列进行主题相关编码,得到所述词序列中各词对应的主题编码向量;通过所述第一通道的解码器,根据所述机器学习模型前一时刻所输出摘要词的词向量对所述语义编码向量解码,得到当前时刻的第一隐层状态向量;通过所述第二通道的解码器,根据所述机器学习模型前一时刻所输出摘要词的词向量对所述主题编码向量解码,得到当前时刻的第二隐层状态向量;根据当前时刻的第一隐层状态向量和第二隐层状态向量,确定所述机器学习模型当前时刻输出的摘要词;根据所述机器学习模型所输出的各摘要词生成摘要文本。2.根据权利要求1所述的方法,其特征在于,所述通过预训练的机器学习模型中第一通道的编码器,对所述词序列进行语义相关编码,得到所述词序列中各词对应的语义编码向量,包括:获取所述词序列中各词对应的第一位置标识;根据所述第一位置标识确定所述词序列中各词的第一位置向量;依据第一位置向量和预训练词向量矩阵,确定所述词序列中各词的语义向量;将所述词序列中各词的语义向量输入至预训练的机器学习模型中第一通道的编码器的隐层中,得到所述词序列中各词的语义向量对应的语义编码向量。3.根据权利要求1所述的方法,其特征在于,所述通过所述机器学习模型中第二通道的编码器,对所述词序列进行主题相关编码,得到所述词序列中各词对应的主题编码向量,包括:获取所述词序列中各词对应的第二位置标识;根据所述第二位置标识确定所述词序列中各词的第二位置向量;依据第二位置向量和预训练主题词向量矩阵,确定所述词序列中各词的主题向量;将所述词序列中各词的主题向量输入至所述机器学习模型中第二通道的编码器的隐层中,得到所述词序列中各词的主题向量对应的主题编码向量。4.根据权利要求1所述的方法,其特征在于,所述通过所述第一通道的解码器,根据所述机器学习模型前一时刻所输出摘要词的词向量对所述语义编码向量解码,得到当前时刻的第一隐层状态向量包括:获取前一时刻所述第一通道的解码器的第一隐层状态向量;将获取的第一隐层状态向量、所述机器学习模型前一时刻所输出摘要词的词向量和所述语义编码向量输入至所述第一通道的解码器的隐层中;通过所述第一通道的解码器输出当前时刻的第一隐层状态向量。5.根据权利要求4所述的方法,其特征在于,所述第一通道的解码器是基于注意力模型的解码器;所述将获取的第一隐层状态向量、所述机器学习模型前一时刻所输出摘要词的词向量和所述语义编码向量输入至所述第一通道的解码器的隐层中,包括:对应于所述词序列中各词所对应的语义编码向量,分别确定相对于当前时刻待输出的摘要词的注意力分配权重系数;根据所述词序列中各词的语义向量、所述语义编码向量和对应的注意力分配权重系数,确定所述第一通道的解码器当前时刻的第一条件输入向量;将所述第一条件输入向量和获取的第一隐层状态向量输入至所述第一通道的解码器的隐层中。6.根据权利要求5所述的方法,其特征在于,所述当前时刻的第一条件输入向量通过以下公式计算得到:di=Wdhi-1+bd+qi-1;其中,ci表示当前时刻i的第一条件输入向量;αij表示所述词序列中的词xj(j=1,2,3,...,m)所对应的语义编码向量zjo相对于当前时刻待输出的摘要词yi的注意力分配权重系数;zjo表示所述词序列中的词xj对应的语义编码向量;ej表示所述词序列中的词xj对应的语义向量;hi-1表示前一时刻所述第一通道的解码器的第一隐层状态向量;qi-1表示所述机器学习模型前一时刻所输出摘要词yi-1的词向量;di表示所述第一通道的解码器中注意力模型计算的解码器的第一状态向量;Wd、bd表示所述第一通道机器学习模型中预训练得到的模型参数;exp表示以自然常数e为底的指数函数;∑为求和函数;⊙为向量点乘符号。7.根据权利要求1所述的方法,其特征在于,所述通过所述第二通道的解码器,根据所述机器学习模型前一时刻所输出摘要词的词向量对所述主题编码向量解码,得到当前时刻的第二隐层状态向量包括:获取前一时刻所述第二通道的解码器的第二隐层状态向量;将获取的第二隐层状态向量、所述机器学习模型前一时刻所输出摘要词的词向量和所述主题编码向量输入至所述第二通道的解码器的隐层中;通过所述第二通道的解码器输出当前时刻的第二隐层状态向量。8.根据权利要求7所述的方法,其特征在于,所述第二通道的解码器是基于注意力模型的解码器;所述将获取的第二隐层状态向量、所述机器学习模型前一时刻所输出摘要词的词向量和所述主题编码向量输入至所述第二通道的解码器的隐层中,包括:对应于所述词序列中各词所对应的主题编码向量,分别确定相对于当前时刻待输出的摘要词的注意力分配权重系数;根据所述词序列中各词的主题向量、所述主题编码向量和对应的...
【专利技术属性】
技术研发人员:王励,姚均霖,钟黎,陶蕴哲,
申请(专利权)人:腾讯科技深圳有限公司,
类型:发明
国别省市:广东,44
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。