一种融入常识知识的生成式对话摘要方法技术

技术编号:26890819 阅读:29 留言:0更新日期:2020-12-29 16:07
一种融入常识知识的生成式对话摘要方法,属于自然语言处理领域。本发明专利技术解决了现有生成式对话摘要方法未利用常识知识而导致生成的对话摘要不准确,抽象性低的问题。本发明专利技术方法包括:获取常识知识库ConceptNet与对话摘要数据集SAMSum;利用获取的常识知识库ConceptNet为对话摘要数据集SAMSum引入元组知识,构建异构对话图;练步骤三中构造的对话异构神经网络模型,通过训练的对话异构神经网络模型从一段对话中生成最终对话摘要。本发明专利技术应用于对话摘要的生成。

【技术实现步骤摘要】
一种融入常识知识的生成式对话摘要方法
本专利技术涉及自然语言处理领域,具体涉及一种融入常识知识的生成式对话摘要方法。
技术介绍
基于自然语言处理—自动文本摘要(AutomaticSummarization)[1](题目:Constructingliteratureabstractsbycomputer:techniquesandprospects,作者:ChrisDPaice,年份:1990年,文献引自InformationProcessing&Management)领域下的生成式对话摘要(AbstractiveDialogueSummarization),即给定一段多人对话的文字记录,生成一段简短的、包含对话关键信息的文本描述,如图1,展示了一个多人对话及其对应的标准摘要。对于对话摘要,现有工作大多集中于生成式(Abstractive)方法,即允许最终摘要包含原文没有的新颖的词汇和短语。例如Liu等人[2][题目:Automaticdialoguesummarygenerationforcustomerservice,作者:ChunyiLiu,年份:2019年,文献引自Proceedingsofthe25thACMSIGKDDInternationalConferenceonKnowledgeDiscovery&DataMining]针对客服对话摘要任务,采用多步生成方式生成对话摘要,Liu等人[3][题目:Topic-awarepointer-generatornetworksforsummarizingspokenconversations,作者:ZhengyuanLiu,年份:2019年,文献引自arXivpreprint]针对医患对话摘要任务,融入主题信息建模对话,生成最终摘要。Ganesh等人[4][题目:Abstractivesummarizationofspokenandwrittenconversation,作者:PrakharGanesh,年份:2019年,文献引自arXivpreprint]利用对话篇章结构作为规则去除对话中的无用句子,然后生成对话摘要。近期,在对话回复生成[5][题目:Commonsenseknowledgeawareconversationgenerationwithgraphattention.,作者:HaoZhou,年份:2018年,文献引自IJCAI,]和对话上下文建模[6][题目:Maskingorchestration:Multi-taskpretrainingformulti-roledialoguerepresentationlearning,作者:TianyiWang,年份:2020年,文献引自AAAI]等任务中显示,尽管目前基于神经网络的摘要模型已经有很强的学习能力,但是现有方法忽略了常识知识的利用,一方面会导致模型无法更好的理解对话文本,生成质量低的摘要;另一方面缺少常识知识,会导致生成摘要抽象性较低。通过融入显式的常识知识可以帮助模型更好的完成任务,融入常识知识的对话摘要可以帮助模型理解对话背后的高层含义;还可以作为不连贯句子之间的桥梁,帮助更好的理解对话。然而,现有的对话摘要系统却忽视了常识知识的利用。常识知识可以帮助对话摘要系统生成更高质量的摘要。如图1,通过“接”和“车坏了”可以知道鲍勃希望汤姆让他“搭便车”,引入显式的常识知识“搭便车”,可以帮助更好的生成对话摘要。在融入常识知识之后,为了更好的建模说话人,句子和常识知识三类数据,可利用异构图神经网络建模三类数据,并生成最终摘要。
技术实现思路
本专利技术是为了解决现有生成式对话摘要方法未利用常识知识而导致生成的对话摘要不准确,抽象性低的问题。现提出一种融入常识知识的生成式对话摘要方法。一种融入常识知识的生成式对话摘要方法,包括:步骤一、获取常识知识库ConceptNet与对话摘要数据集SAMSum;包含的常识知识以元组的形式存在,即元组知识,表示为:R=(h,r,t,w),其中,R表示一个元组知识;表示头实体;r表示关系;t表示尾实体;w表示权重,表示关系的置信度;知识R表示了头实体和尾实体t拥有关系r,并且权重为w;所述对话摘要数据集SAMSum分为训练、开发和测试三部分;步骤二、利用获取的常识知识库ConceptNet为对话摘要数据集SAMSum引入元组知识,构建异构对话图;具体过程为:步骤三、构建对话异构神经网络模型;所述对话异构神经网络模型包括节点编码器、图编码器和解码器;步骤三一、构造节点编码器,利用双向长短时神经网络获取节点初始化表示和词语初始化表示步骤三二、构造图编码器,利用异构图神经网络更新节点表示,并添加节点位置编码信息和更新词语表示步骤三三、构造解码器;步骤四、训练步骤三中构造的对话异构神经网络模型,通过训练的对话异构神经网络模型从一段对话中生成最终对话摘要。有益效果融入常识知识的对话摘要可以帮助模型理解对话背后的高层含义;融入常识知识的对话摘要可以作为不连贯句子之间的桥梁,帮助更好的理解对话;通过引入常识知识,可以帮助模型生成更加抽象和具有概括性的摘要;本专利技术在对话摘要任务中引入常识知识,将对话中的说话人,句子和常识知识三类数据建模为异构对话图,利用异构图神经网络建模整个异构对话图。整个模型采用图到序列框架,生成最终对话摘要。解决了现有生成式对话摘要忽略常识知识利用的问题。在本专利技术方法进行实验后生成的摘要中,生成了更加抽象和正确的摘要,更好的概括了对话内容,显示了本专利技术方法的有效性,在评价指标ROUGE上本专利技术方法比现有的方法取得了更好的结果。ROUGE是一种基于召回率的相似性度量方法,是评估自动文摘以及机器翻译的一组指标,考察翻译的充分性和忠实性,值越高越好。ROUGE-1、ROUGE-2、ROUGE-L的计算分别涉及一元语法、二元语法和最长公共子序列。附图说明图1为一个多人对话及其对应的标准摘要示意图;图2为SAMSum对话摘要数据集对话摘要对示例;图3为SAMSum数据集中对话-摘要对示例;图4为从ConceptNet中获取的相关知识三元组;图5为本专利技术所构建的句子-知识图;图6为本专利技术所构建的说话人-句子图;图7为本专利技术所构建的异构对话图;图8为本专利技术模型示意图,其中(a)异构对话图构建,(b)节点编码器,(c)图编码器,(d)解码器。具体实施方式具体实施方式一:本实施方式一种融入常识知识的生成式对话摘要方法,包括:步骤一:获取大规模常识知识库ConceptNet与对话摘要数据集SAMSum。步骤一一、获取大规模常识知识库ConceptNet:从http://conceptnet.io/获取大规模常识知识库ConceptNet;其中包含的常识知识以元组的形式存在,即元组知识,可以表示为:本文档来自技高网
...

【技术保护点】
1.一种融入常识知识的生成式对话摘要方法,其特征在于,包括:/n步骤一、获取常识知识库ConceptNet与对话摘要数据集SAMSum;包含的常识知识以元组的形式存在,即元组知识,表示为:/nR=(h,r,t,w),/n其中,R表示一个元组知识;h表示头实体;r表示关系;t表示尾实体;w表示权重,表示关系的置信度;知识R表示了头实体h和尾实体t拥有关系r,并且权重为w;/n所述对话摘要数据集SAMSum分为训练、开发和测试三部分;/n步骤二、利用获取的常识知识库ConceptNet为对话摘要数据集SAMSum引入元组知识,构建异构对话图;具体过程为:/n步骤三、构建对话异构神经网络模型;所述对话异构神经网络模型包括节点编码器、图编码器和解码器;/n步骤三一、构造节点编码器,利用双向长短时神经网络获取节点初始化表示

【技术特征摘要】
1.一种融入常识知识的生成式对话摘要方法,其特征在于,包括:
步骤一、获取常识知识库ConceptNet与对话摘要数据集SAMSum;包含的常识知识以元组的形式存在,即元组知识,表示为:
R=(h,r,t,w),
其中,R表示一个元组知识;h表示头实体;r表示关系;t表示尾实体;w表示权重,表示关系的置信度;知识R表示了头实体h和尾实体t拥有关系r,并且权重为w;
所述对话摘要数据集SAMSum分为训练、开发和测试三部分;
步骤二、利用获取的常识知识库ConceptNet为对话摘要数据集SAMSum引入元组知识,构建异构对话图;具体过程为:
步骤三、构建对话异构神经网络模型;所述对话异构神经网络模型包括节点编码器、图编码器和解码器;
步骤三一、构造节点编码器,利用双向长短时神经网络获取节点初始化表示和词语初始化表示
步骤三二、构造图编码器,利用异构图神经网络更新节点表示,并添加节点位置编码信息和更新词语表示
步骤三三、构造解码器;
步骤四、训练步骤三中构造的对话异构神经网络模型,通过训练的对话异构神经网络模型从一段对话中生成最终对话摘要。


2.根据权利要求1所述一种融入常识知识的生成式对话摘要方法,其特征在于,所述步骤二利用获取的常识知识库ConceptNet为对话摘要数据集SAMSum引入元组知识,构建异构对话图;具体过程为:
步骤二一、对于一段对话,根据对话中的词语从ConceptNet中获取的相关元组知识,排除噪音知识,得到与给定对话相关的元组知识集合;
步骤二二、对于步骤二一获取到的相关元组知识中,假设存在句子A和句子B,词语a属于A,词语b属于B,简化元组知识,如果a和b的尾实体h一致,那么将句子A和B连接到尾实体h;得到句子一知识图;
步骤二三、根据“说话人说的一句话”建立说话人与句子之间的边关系,得到说话人-句子图;
步骤二四、将句子-知识图和说话人-句子图融合为异构对话图;所述异构对话图在说话人和句子之间存在两种边,即从说话人到句子的“speak-by”边,从句子到说话人的“rev-speak-by”边;在句子和元组知识之间存在两种边,即从知识到句子的“know-by”边,从句子到元组知识的“rev-know-by”边;异构对话图存在三类节点,即说话人、句子和常识知识。


3.根据权利要求2所述一种融入常识知识的生成式对话摘要方法,其特征在于,所述步骤三一构造节点编码器;利用双向长短时神经网络获取节点初始化表示和词语初始化表示具体过程为:
对于构造的异构对话图,其中每一个节点vi包含|vi|个单词,单词序列为其中,wi,n表示节点vi的第n个单词,n∈[1,|vi|];使用双向长短时神经网络对单词序列生成前向隐层序列和后向隐层序列其中,前向隐层状态后向隐层状态xn为wi,n的词向量表示;将前向隐层状态的最后一个隐层表示与后向隐层状态的第一个隐层表示拼接得到节点的初始化表示其中,;表示向量拼接;同时得到节点中每一个词语的初始化表示


4.根据权利要求1或2所述一种融入常识知识的生成式对话摘要方法,其特征在于,所述步骤三二构造图编码器,利用异构图神经网络更新节点表示,并添加节点位置编码信息和更新词语表示具体过程为:
给定一个目标节点t,得到其邻居节点s∈N(t),其中N(t)表示t的邻居节点集合,s表示其中一个邻居节点;给定一个边e=(s,t),表示从邻居节点s指向目标节点t的一条边,定义:
(1)节点类型映射函数为:



其中,τ表示节点类型映射函数;v表示给定节点;V表示节点集合;表示节点类型集合;在步骤二构造的异构对话图中,一共包含说话人、句子、常识知识三种节点类型;
(2)边关系类型映射函数为:



其中,表示边类型映射函数;e表示给定边;E表示边集合;表示边类型集合;
在异构对话图中,一共包含四种类型的边:speak-by,rev-speak-by,know-by,rev-know-by;对于给定边e=(s,t),s和t分别拥有来自上一层的表示和将和映射为和其中,表示与层数有关的映射函数,表示与类型有关的映射函数;l表示图网络的第l层,表示邻居节点s在l层的键值表示,表示节点t在l层的查询表示;
计算和之间的权重:



其中,表示与层数和边类型有关的可学习参数;T表示转置;α(s,e,t)表示和之间的权重;
在得到每一个邻居节点s与目标节点t之间的权重后,对所有权重进行归一化:



其中,Softmax为归一化函数,ATT(l)(s,e,t)为最终归一化之后的分数;
将每一个邻居节点s表示映射为:



其中,为与类型和层数有关的映射函数;
在得到之后,计算得到最终消息向量:



其中,为与类型和层数有关的可学习参...

【专利技术属性】
技术研发人员:冯骁骋冯夏冲秦兵刘挺
申请(专利权)人:哈尔滨工业大学
类型:发明
国别省市:黑龙江;23

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1