【技术实现步骤摘要】
一种用于深度学习任务的GPU资源分配方法
[0001]本专利技术涉及GPU资源分配
,具体涉及一种用于深度学习任务的GPU资源分配方法。
技术介绍
[0002]GPU其名称源自控制组群的简写,是Linux内核的一个功能,用来限制、控制与分离一个进程组,默认情况下,Docker容器是没有资源限制的,它会尽可能地使用宿主机能够分配给它的资源,如果不对容器资源进行限制,容器之间就会相互影响,一些占用硬件资源较高的容器会吞噬掉所有的硬件资源,从而导致其它容器无硬件资源可用,发生停服状态,Docker提供了限制内存,CPU或磁盘IO的方法,可以对容器所占用的硬件资源大小以及多少进行限制,Docker通过GPU来控制容器使用的资源配额,包括CPU、内存、磁盘三大方面,基本覆盖了常见的资源配额和使用量控制。而基于GPU对于主机的重要性,且为了增加终端对任务的处理速度,同时,基于深度学习具有的可以通过多任务学习来有效求解以及通过使用包含在相关任务的监督信号中的领域知识来改善泛化性能的特性,现提出一种用于深度学习任务的GPU资源分配方法 ...
【技术保护点】
【技术特征摘要】
1.一种用于深度学习任务的GPU资源分配方法,其特征在于,包括有如下的分配步骤:S1:创建资源堆;S2:创建上传堆,从上传堆中创建缓冲,利用Map映射将上传堆的系统内存映射到CPU进程的虚拟地址空间,得到指向上传堆地址的指针;S3:将加载好的资源直接赋值到指针中;S4:创建一个默认堆和对应的资源缓存;S5:将上传堆中的数据拷贝到默认堆中。2.根据权利要求1所述的一种用于深度学习任务的GPU资源分配方法,其特征在于,所述默认堆中的数据可以被GPU高速访问,但无法被CPU访问。3.根据权利要求1所述的一种用于深度学习任务的GPU资源分配方法,其特征在于,所述上传堆,可以被CPU不经过高速缓存写入,并允许被GPU低速读取,初始化的时候由CPU访问一次的资源,可以通过CPU将数据拷贝到上传堆中,再由上传堆复制到默认堆中,如果CPU需要频繁更新这个资源...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。