【技术实现步骤摘要】
一种针对大规模脑仿真的快速通信方法
[0001]本专利技术属于通信
,具体涉及一种针对大规模脑仿真的快速通信方法。
技术介绍
[0002]类脑计算继承了大脑低功耗、高并行、高容错、存算一体、事件驱动等特征,适合实时处理非结构化复杂信息,具有超高并行、超高速、超低功耗、高鲁棒等特性。目前,生物脑是世界上已知的唯一的通用智能系统,理解并借鉴仿生物脑的智能机制,近实时的仿真甚至训练具有生物可解释性的复杂大规模脑仿真网络,是实现强人工智能的重要且不可替代的途径之一。其中,计算速度与通信能力是构建与运行大规模脑仿真网络的重要指标。基于软件方式的仿真拥有完整的应用生态,具有良好的可用性,但在仿真速度上却与生物时间相去甚远。
[0003]基于软件的类脑仿真的仿真速度受制于许多因素,其中计算资源与通讯时延是影响仿真时间的两个重要因素。传统的计算资源包括中央处理器(CPU)与图形处理器(GPU),其中CPU拥有良好的处理复杂逻辑的能力,但其并行性会受到计算机性能的限制。近年来,GPU在通用计算领域应用较为广泛,高端GPU显卡的浮点运算最高可以达到每秒万亿次,GPU的并行计算方式相较于CPU并行方法量级更轻,加速效果更为明显。因此,基于CPU
‑
GPU异构并行架构进行类脑仿真软件的开发对于提高类脑仿真速度具有关键意义。
[0004]大规模的脑仿真计算需要使用多个GPU并行以达到提升仿真速度的效果,因此多机间的通讯时延会极大的影响仿真的速度。传统的通讯方式(如MPI信息传递接口)仅支持数据在内存上进 ...
【技术保护点】
【技术特征摘要】
1.一种针对大规模脑仿真的快速通信方法,用于实现不同计算设备之间的通信,所述计算设备包括CPU和GPU,其特征在于:所述针对大规模脑仿真的快速通信方法包括如下步骤:S1、构建脑仿真网络模型,所述脑仿真网络模型包括多个神经元簇,每个神经元簇包括若干个神经元,各所述神经元之间相互连接,且全部神经元簇被均分至多个计算节点中,一个GPU视为一个计算节点;S2、根据全局神经元与计算节点间的映射信息为每个计算节点创建对应的偏移列表,所述偏移列表用于存放每个计算节点中神经元在当前计算节点的起始地址;S3、进行不同计算设备的CPU内存间的通信以传输代理神经元信息,为每个计算节点创建对应的远程神经元的代理神经元和计算节点起始地址表,所述代理神经元信息包括GPU编号和神经元ID,所述计算节点起始地址表用于存放本地神经元在远程计算节点的代理神经元ID起始地址,并视不同计算设备之间互为发送端和接收端,记发送端的计算节点为源计算节点,接收端的计算节点为目标计算节点;S4、根据代理神经元发出的脉冲信息进行脑仿真,所述脑仿真具体如下:S41、根据计算节点起始地址表对代理神经元发出的脉冲信息进行编码压缩,所述代理神经元发出的脉冲信息为当前时间步发送脉冲信息的神经元在目标计算节点的代理神经元ID;S42、进行不同计算设备的GPU显存间的通信对编码压缩后的脉冲信息进行传输;S43、目标计算节点接收到编码压缩后的脉冲信息后,根据本地的计算节点起始地址表获取发放脉冲信息的神经元在本地计算节点上的代理神经元ID;S5、判断脑仿真是否完成,若是,结束流程,否则,返回执行步骤S4。2.如权利要求1所述的针对大规模脑仿真的快速通信方法,其特征在于:所述神经元之间的连接方式为单向连接或双向连接。3.如权利要求1所述的针对大规模脑仿真的快速通信方法,其特征在于:所述神经元为LIF神经元。4.如权利要求1所述的针对大规模脑仿真的快速通信方法,其特征在于:所述偏移列表的创建过程如下:根据全局神经元与计算节点间的映射信息获取每个计算节点的神经元数量信息,并顺序排列形成偏移列表。5.如权利要求1所述的针对大规模脑仿真的快速通信方法,其特征在于:所述为每个计算节点创建对应的远程神经元的代理神经元和计算节点起始地址表,过程如下:S31、遍历各计算节点的连接信息,所述连接信息包括源神经元簇ID、目标神经元簇ID、源神经元簇所属计算节点ID和目标神经元簇所属计算节点ID;S32、当源神经元簇所属计算节点ID与当前计算节点ID相同时,触发建立远程连接发送操作,源神经元簇所属计算节点根据连接信息发送源神经元簇中与目标神经元簇连接的神经元ID;S33、当目标神经元簇所属计算节点ID与当前计算节点ID相同时,触发建立远程连接接收操作,接收源神经元簇所属计算节点发来的神经元ID,并根据偏移列表在相应的位...
【专利技术属性】
技术研发人员:蔡炎松,王俊宜,梁华驹,喻富豪,朱苗,杜帅帅,贾海波,李启斌,何福存,
申请(专利权)人:中国电子科技南湖研究院,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。