【技术实现步骤摘要】
一种基于路径信息的小样本知识图谱补全方法
[0001]本专利技术属于小样本知识图谱补全领域,具体涉及的是一种基于路径信息的小样本知识图谱补全方法。
技术介绍
[0002]知识图谱由大量的形如(h,r,t)的三元组组成,包括两个实体元和一个关系元。h是头实体,t是尾实体,r叫做关系。近年来出现了许多知识图谱,比如,DBpedia、Free
‑
base、NELL、Probase、Wikidata等。知识图谱在问答系统、推荐系统、信息检索等下游任务中发挥着重要的作用。
[0003]虽然知识图谱中包含了大量由实体和关系组成的事实三元组,但是很大一部分知识图谱是不完整的,这些残缺的三元组总是缺少实体元或者关系元。同时,知识图谱中普遍存在一些长尾关系,也就是说,很大一部分数据只有很少的训练实例,这类图谱被称为小样本知识图谱。基于此,知识图谱补全(又叫做链接预测)任务被提出,主要有三种任务模式:头实体补全(?,r,t),尾实体补全(h,r,?),关系补全(h,?,t),缺失的部分即为需要补全的对象。
[0 ...
【技术保护点】
【技术特征摘要】
1.一种基于路径信息的小样本知识图谱补全方法,其特征在于,步骤如下:第一步:知识图谱由众多的三元组(h,r,t)组成,其中h称为头实体,r称为关系,t称为尾实体,将这些三元组划分为支持集support和查询集query,使用知识图谱补全方法中的预训练模型TransE将文本表示的头实体、尾实体和关系转化为向量;第二步:从第一步得到的支持集support中选择一个三元组(h
s
,r
s
,t
s
),利用双向广度优先搜索算法寻找其路径,记为路径被定义为关系的序列忽略路径上的实体;所有支持集路径的集合记为第三步:利用第二步中得到的支持集路径的集合训练强化学习策略模型,经过训练后的强化学习策略模型能根据当前已经找到的路径关系来预测下一步要接收的关系,使用奖励函数来奖励强化学习策略模型,鼓励强化学习策略模型找到高质量的路径,使用如下公式给出奖励:径,使用如下公式给出奖励:径,使用如下公式给出奖励:其中,R1表示全局奖励函数,若从头实体出发到达了正确的尾实体,则给出奖励+1,否则奖励
‑
1;R2表示路径长度的奖励,P表示当前找到的路径,长路径引入了噪声,路径越短奖励越大;R3表示路径多样性奖励,鼓励强化学习模型寻找多样性路径的奖励,|N|表示路径的数量,cos(
·
)是余弦函数,用来求相似度,p={r
′1,r
′2,
…
,r
′
n
},p表示当前路径,p
i
表示第i条路径;第四步:利用第三步中训练后的强化学习策略模型来推理查询子图,给出待补全的一个三元组(h
q
,r,t
i
),其中t
i
∈T,T是候选尾实体集合,利用强化学习策略模型查找从h
q
到t
i
的路径,记为所有查询集路径的集合记为第五步:路径表示,使用循环神经网络GRU嵌入每...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。