面向边缘网络的分布式神经网络协同优化方法技术

技术编号:27876916 阅读:16 留言:0更新日期:2021-03-31 00:55
本发明专利技术公开了一种面向边缘网络的分布式神经网络协同优化方法。本方法首先将神经网络建模成有向图G

【技术实现步骤摘要】
面向边缘网络的分布式神经网络协同优化方法
本专利技术涉及了一种面向边缘网络的分布式神经网络协同优化方法,属于计算机人工智能领域。
技术介绍
深度神经网络(DNN)的最新进展大大提高了计算机视觉和视频分析的准确性和速度,为新一代智能应用创造了新的途径。云计算技术的成熟,加上TPU、GPU等功能强大的硬件,成为此类计算密集型DNN任务的典型选择。例如,在一个自动驾驶汽车应用程序中,摄像头连续监控周围的场景并将其传输到服务器,然后服务器进行视频分析并将控制信号反馈给踏板和方向盘。在增强现实应用程序中,智能玻璃不断记录当前视图并将信息流传输到云服务器,而云服务器执行对象识别并发回上下文增强标签,以便无缝显示在实际场景上。实现智能应用的一个障碍是视频流的大量数据量。例如,谷歌的自动驾驶汽车每秒可产生高达750兆字节的传感器数据,但现有最快解决方案4G的平均上行链路速率仅为5.85Mbps。当用户快速移动或网络负载重时,数据速率显著降低。为了避免网络的影响,将计算放在数据源附近,边缘计算应运而生。作为一种无网络的方法,它提供随时随地可用的计算资源。例如,AWSDeepLens相机可以运行深卷积神经网络(CNNs)来分析视觉图像。然而,边缘设备本身受到计算能力和能量的限制,边缘设备通常不能完全支持推理计算的大工作量。DNN的协作计算,它是将DNN划分到不同的层,然后在多个异构设备上分配分区,以形成分布式DNN(D-DNN)。通过这种方式,可以充分利用边缘设备中的本地资源来运行DNN分区。此外,由于保留了DNN架构,因此不会牺牲准确性。
技术实现思路
本专利技术所要解决的技术问题是针对当前单个边缘设备不能完全支持处理整个深度神经网络的情况,提出一种面向边缘网络的分布式神经网络协同优化方法。本专利技术为解决上述技术问题采用以下技术方案:本专利技术提出一种面向边缘网络的分布式神经网络协同优化方法,具体包括以下步骤:步骤一、将神经网络通过建模得到有向图GN;步骤二、将边缘设备部署图映射成相应的边缘网络图GE;步骤三、将步骤一中得到的有向图GN和步骤二中得到的边缘网络GE,通过建模得到特定的辅助图Gd;步骤四、在步骤三中得到的辅助图Gd上找到迭代中的最小S-T割集;其中,在Gd上切割一组边使得源点S和汇点T被分割在两个不相交的集合中,这组边构成的集合就是S-T割集C;S-T的值就是集合中所有边的权重之和;步骤五、根据步骤四得到的最小S-T割集,得到该S-T割集对应的面向边缘网络的分布式神经网络协同计算策略;步骤一的具体步骤包括:步骤1.1、对于一个具有n层的神经网络架构,将其中每一层神经网络li映射成有向图GN中的一个节点vi;步骤1.2、将具有计算依赖性的li层和lj层神经网络对应的节点vi和vj相连,其中若是先计算li层再计算lj层,那么构造由vi指向vj的边(vi,vj),反之,构造边(vj,vi);步骤二的具体步骤包括:步骤2.1、将边缘设备部署图映射成相应的边缘网络图GE=(U,L);其中U表示边缘节点集合U={u1,...,ul},L表示边缘网络图中的边集;令(ui,uj)∈L代表边缘节点ui和uj互相直接通信;令d(ui,uj)表示边缘节点ui和uj之间的通信延迟;如果边缘节点ui和uj在GE中不是邻居节点,那么令d(ui,uj)表示边缘节点ui和uj在GE上的最短通信延迟;步骤2.2、对于一个神经网络,假设它的所有网络层可以在GE上的任意边缘节点上进行计算,则:令σ(vi)=uj表示神经网络节点vi被分配到了边缘节点uj上进行计算;则σ表示所有神经网络层在GE上进行计算的分配方案;对于神经网络层vi∈V,令它在边缘节点ui∈U上的计算时间用来表示;如果两个相邻的神经网络层vi和vj被分配到同一个边缘节点uk上进行计算,则忽略这两者之间的通信延迟;否则,vi和vj之间的通信延迟被设置成vi和vj对应的边缘节点σ(vi)和σ(vj)之间的通信延迟;步骤2.3、定义所有神经网络层分配到边缘网络之后进行协同计算所需要的时间TN;其中,TN(σ,GN)表示对于图GN在σ映射下的总延迟;步骤三的具体步骤包括:步骤3.1、对于初始分配σ,以表示分配到边缘节点uk进行计算的神经网络层的集合;步骤3.2、在步骤3.1的初始分配σ的前提下构造图Gd=(Wd,εd);图Gd的结点集Wd,边集εd;步骤3.2的步骤包括:步骤3.2.1、对于每一层神经网络vi∈V,在图Gd的结点集Wd中添加对应节点wi;将节点wi分别与源点S和汇点T相连得到边集合ε1中的边(S,wi)和(wi,T);如果那么设置边(S,wi)的权重为边(wi,T)的权重为∞;否则,令步骤3.2.2、对于有向图GN的每条边(vi,vj),创建其对应的水平边;步骤四的具体步骤包括:步骤4.1、对于神经网络层vi,如果辅助图Gd中的一个割c经过了边(S,wi),则将神经网络层vi分配到边缘节点ui上进行计算;如果割c经过了边(wi,T),那么神经网络层vi的分配策略保持不变;得到割c的新分配方案σ';步骤4.2、令uk是边缘节点集合U中的第k个节点,1≤k≤|U|;步骤4.3、对于边缘节点uk∈U,利用最大流最小割的方法得到当前的最小割cmin;根据最小割cmin和步骤4.1得到σ',σ'表示cmin对应的分配方案;如果σ'的代价小于σ,那么就令σ=σ',U=U\{uk};步骤4.4、重复步骤4.2和4.3,直到U=φ,即U中的节点为空;步骤4.5、根据步骤4.1~4.4,得到最终的σ';所述步骤五中,以步骤四得到最终σ'对应的分布式神经网络为最优的分布式神经网络;步骤3.2.2中,包括四种不同情况:情况一:如果σ(vi)=σ(vj)=uk,即神经网络层vi和vj都分配到边缘节点uk上进行计算,那么wi和wj之间没有水平边;情况二:如果在神经网络层vi和vj中只有一个被分配到边缘节点uk上进行计算,那么创建边(wi,wj),并设置其权重为c(wi,wj)=d(σ(vi),σ(vj));情况三:如果神经网络层vi和vj被分配到了两个不同的边缘节点上进行计算,且σ(vi)≠uk,σ(vj)≠uk,即这两个边缘节点都不是uk,则在wi和wj之间创建一个辅助节点o(wi,wj);将o(wi,wj)分别和wi、wj创建双向边(wi,o(wi,wj))和(o(wi,wj),wj),同时设置它们的权重分别为c(wi,o(wi,wj))=d(σ(vi),uk),c(o(wi,wj),wj)=d(uk,σ(vj));将节点o(wi,wj)和汇点T相连创建第三条边(o(wi,wj),T),同时设置它的权重是c(o(wi,wj),T)=d(σ(vi),σ(vj));情况四:如果神经网络层vi和vj都被分配到同一个边缘节点u本文档来自技高网
...

【技术保护点】
1.一种面向边缘网络的分布式神经网络协同优化方法,其特征在于,包括以下步骤:/n步骤一、将一般结构的神经网络通过建模得到有向图G

【技术特征摘要】
1.一种面向边缘网络的分布式神经网络协同优化方法,其特征在于,包括以下步骤:
步骤一、将一般结构的神经网络通过建模得到有向图GN;
步骤二、将边缘设备部署图映射成相应的边缘网络图GE;
步骤三、将步骤一中得到的有向图GN和步骤二中得到的边缘网络GE,通过建模得到特定的辅助图Gd;
步骤四、在步骤三中得到的辅助图Gd上找到迭代中的最小S-T割集;其中,在Gd上切割一组边使得源点S和汇点T被分割在两个不相交的集合中,这组边构成的集合就是S-T割集C;S-T的值就是集合中所有边的权重之和;
步骤五、根据步骤四得到的最小S-T割集,得到该S-T割集对应的面向边缘网络的分布式神经网络协同优化策略;
所述步骤一的步骤包括:
步骤1.1、对于一个具有n层的神经网络架构,将其中每一层神经网络li映射成有向图GN中的一个节点vi;
步骤1.2、将具有计算依赖性的li层和lj层神经网络对应的节点vi和vj相连,其中若是先计算li层再计算lj层,那么构造由vi指向vj的边(vi,vj),反之,构造边(vj,vi);
所述步骤二的步骤包括:
步骤2.1、将边缘设备部署图映射成相应的边缘网络图GE=(U,L);
其中U表示边缘节点集合U={u1,...,ul},L表示边缘网络图中的边集;
令(ui,uj)∈L代表边缘节点ui和uj互相直接通信;
令d(ui,uj)表示边缘节点ui和uj之间的通信延迟;如果边缘节点ui和uj在GE中不是邻居节点,那么令d(ui,uj)表示边缘节点ui和uj在GE上的最短通信延迟;
步骤2.2、对于一个神经网络,假设它的所有网络层可以在GE上的任意边缘节点上进行计算,则:
令σ(vi)=uj表示神经网络节点vi被分配到了边缘节点uj上进行计算;则σ表示所有神经网络层在GE上进行计算的分配方案;对于神经网络层vi∈V,令它在边缘节点ui∈U上的计算时间用来表示;
如果两个相邻的神经网络层vi和vj被分配到同一个边缘节点uk上进行计算,则忽略这两者之间的通信延迟;否则,vi和vj之间的通信延迟被设置成vi和vj对应的边缘节点σ(vi)和σ(vj)之间的通信延迟;
步骤2.3、定义所有神经网络层分配到边缘网络之后进行协同计算所需要的时间TN;



其中,TN(σ,GN)表示对于图GN在σ映射下的总延迟;
所述步骤三的步骤包括:
步骤3.1、对于初始分配σ,以表示分配到边缘节点uk进行计算的神经网络层的集合;
步骤3.2、在步骤3.1的初始分配σ的前提下构造图Gd=(Wd,εd);图Gd的结点集Wd,边集εd;步骤3.2...

【专利技术属性】
技术研发人员:万夕里吉婷湘管昕洁李义丰
申请(专利权)人:南京工业大学
类型:发明
国别省市:江苏;32

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1