【技术实现步骤摘要】
一种基于翻译模型的跨语言知识图谱问答方法
[0001]本专利技术涉及自然语言智能问答相关
,具体涉及一种基于翻译模型的跨语言知识图谱问答方法。
技术介绍
[0002]随着NLP的不断发展,基于Bert_base改进的各种各样的Bert模型越来越多,比如MacBert,DeBerta,ALBert等。各种Bert适用于NLP中不同的任务。在跨语言图谱问答任务中,预训练的多语言Bert格式得到了广泛应用。但是,现阶段的多语言知识图谱问答中,更加注重的是对多语言Bert对文本句子的自然语言解析,并未十分关注在问答路径生成过程中跨语言之间的联合应用,导致在各种Bert中跨语言知识图谱问答的效果没有显著提升,生成的路径中可能并不存在真正的问答路径。
[0003]因此,需要设计一种基于翻译模型的跨语言知识图谱问答方法以解决上述存在的问题。
技术实现思路
[0004]针对现有技术的不足,本专利技术提供了一种基于翻译模型的跨语言知识图谱问答方法,解决了
技术介绍
中提到的问题。
[0005]为实现以上目的, ...
【技术保护点】
【技术特征摘要】
1.一种基于翻译模型的跨语言知识图谱问答方法,其特征在于:包括以下步骤:步骤一:要回答输入问题文本,需要识别答案路径开始的关键实体,将其视为只有一个类别的混合语言(中文、英文和法文)文本中的NER任务,根据给定训练集的特点,在预训练的BERT模型的基础上构建了一个全局指针网络模型;步骤二:基于步骤一的基础,接收一个关键实体作为输入,并输出所有可能的答案路径,这些路径满足基准规则的要求,包括关于关键实体的知识图之间的转换;步骤三:接收步骤二提出的原始输入查询和相应路径,并输出最匹配的答案路径。2.根据权利要求1所述的一种基于翻译模型的跨语言知识图谱问答方法,其特征在于:所述步骤一中具体步骤如下:S1、训练集以(文本,实体)的形式构造;S2、上层模型采用Bert
‑
base模型,下层模型采用全局指针网络,以实体类别总的为一类进行训练预测,最终识别出正确的实体;S3、Bert
‑
base是一种基于维基百科104种语言训练的一个预训练模型,以此作为编码器,将Bert的输出作为下层模型的输入。3.根据权利要求1所述的一种基于翻...
【专利技术属性】
技术研发人员:刘弘一,蒲珂宇,季江舟,杨一枭,李金龙,
申请(专利权)人:招银网络科技深圳有限公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。