【技术实现步骤摘要】
一种基于阻变存储器的图神经网络计算方法和装置
[0001]本专利技术涉及神经网络的加速处理
,具体来说涉及图神经网络 在基于阻变存储器的计算装置上的处理
,更具体地说,涉及一种 基于阻变存储器的图神经网络计算方法和装置。
技术介绍
[0002]图学习(Graph Learning),尤其是图神经网络,是一种用于处理大型 属性图的新兴技术,可以用来表示各种相关的随机数据,如文本、图像和 视频。它已经在社交网络分析、电子商务推荐、生物分子表征等大量的应 用中被证明是有效的。真实世界的图数据(如淘宝上的电子商务数据和微 信上的社交网络数据)通常是大而稀疏的,而面向这些图数据处理的图学 习任务大多是数据密集型的,因此在将其部署在通用处理器上时,会受限 于密集的数据移动瓶颈。
[0003]基于阻变存储器的加速器通过将选定的静态数据映射到阻变存储器 阵列上来实现数据的原位计算,大幅减少了从内存到通用处理器计算单元 的巨大数据移动开销。因此,它是一种非常适合于数据密集型任务的技术, 具有广阔的应用前景。目前在针对神经网 ...
【技术保护点】
【技术特征摘要】
1.一种用于基于阻变存储器的图神经网络计算装置的图神经网络计算方法,其特征在于,包括:对于图神经网络的任一层,分析该层中将要在阻变存储器阵列中运算的图数据在权重原位计算模式和混合原位计算模式下的处理时延相对大小,选择时延最小的模式作为该层的计算模式;在权重原位计算模式,对所述图神经网络的所述层将图数据的邻接矩阵和图神经网络的权重参数作为原位数据分别映射到相应的阻变存储器阵列中,以将图神经网络的节点特征作为输入数据与相应的原位数据进行运算;在混合原位计算模式,对所述图神经网络的所述层将图数据的邻接矩阵和节点特征作为原位数据分别映射到相应的阻变存储器阵列中,以将权重参数作为输入数据与相应的原位数据进行运算。2.根据权利要求1所述的方法,其特征在于,对于图神经网络的第一层,其处理时延仅考虑计算时延。3.根据权利要求2所述的方法,其特征在于,图神经网络的第一层的计算模式通过以下公式确定:其中,a
k
表示图神经网络的第k层中图数据的节点数或者平均节点数,表示阻变存储器阵列以第k层节点特征X
k
作为输入数据时读取第k层的权重值所需的时延,DAC_res表示数模转换的分辨率,c
k
表示第k层的权重参数对应维度矩阵的列数c,表示阻变存储器阵列以第k层权重参数W
k
作为输入信号时读取第k层的节点特征所需的时延,k=1;其中,t的值大于零则表示该层在混合原位计算模式下的处理时延更小,选择混合原位计算模式,否则,选择权重原位计算模式。4.根据权利要求1所述的方法,其特征在于,对于图神经网络的其他层,其处理时延考虑计算时延和节点特征更新的写入时延。5.根据权利要求4所述的方法,其特征在于,图神经网络的其他层的计算模式通过以下公式确定:其中,a
k
表示图神经网络的第k层中图数据的节点数或者平均节点数,表示阻变存储器阵列以第k层节点特征X
k
【专利技术属性】
技术研发人员:何银涛,王颖,李华伟,李晓维,
申请(专利权)人:中国科学院计算技术研究所,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。