一种人工智能模型的快速训练系统及方法技术方案

技术编号:32806625 阅读:36 留言:0更新日期:2022-03-26 19:59
本发明专利技术公开了一种人工智能模型的快速训练系统及方法,每个边缘计算终端上均设有至少一个图形处理器;每个本地计算终端上设有n个图形处理器GPU;其中,所述本地计算终端的每个图形处理器上,均部署一个待训练的人工智能模型;本地计算终端的不同图形处理器分别处理不同模态的人工智能模型;本地计算终端的每个图形处理器,在对自身部署的人工智能模型进行训练的过程中,除了卷积操作以外的其他操作,均由本地计算终端的图形处理器来完成;对于卷积操作的处理过程为:每次遇到卷积操作,就将卷积操作传输给对应的边缘计算终端,由边缘计算终端的图形处理器GPU完成卷积操作,并将卷积操作得到的结果回传给本地计算终端对应的图形处理器上。形处理器上。形处理器上。

【技术实现步骤摘要】
一种人工智能模型的快速训练系统及方法


[0001]本专利技术涉及数据并行计算
,特别是涉及一种人工智能模型的快速训练系统及方法。

技术介绍

[0002]本部分的陈述仅仅是提到了与本专利技术相关的
技术介绍
,并不必然构成现有技术。
[0003]现在的人工智能技术获得了前所未有的快速发展,但是当人工智能算法与实际应用相结合时,无法避免的面临着海量数据的训练问题、以及高效性等问题。随着大规模人工智能学习模型不断人工化、智能化,多模态人工智能模型也逐渐取代了单模态成为了数据资源的重要形式,即单模态人工智能模型逐渐向多模态人工智能模型跨越。多模态是一个比较复杂的过程,通过利用多种模态(文字、声音、图像、视频等)来传递与推理信息,这也导致了多模态学习的数据量会更大,其计算量也会更多。
[0004]多模态人工智能模型的训练是一种计算密集型的训练过程,一般可能会需要几天到几周的时间,用来训练大规模的模型。基于数据量大、模型参数规模大等原因,多模态人工智能模型的大规模分布式并行训练应运而生。由于数据的并行执行实现较为简单,通常会采用此类并行方本文档来自技高网...

【技术保护点】

【技术特征摘要】
1.一种人工智能模型的快速训练系统,其特征是,包括:至少一个本地计算机终端和n个边缘计算机终端;所述本地计算终端,分别与n个边缘计算终端连接;其中,n为正整数;每个边缘计算终端上均设有至少一个图形处理器GPU;每个本地计算终端上设有n个图形处理器GPU;其中,所述本地计算终端的每个图形处理器上,均部署一个待训练的人工智能模型;本地计算终端的不同图形处理器分别处理不同模态的人工智能模型;本地计算终端的每个图形处理器,在对自身部署的人工智能模型进行训练的过程中,除了卷积操作以外的其他操作,均由本地计算终端的图形处理器来完成;对于卷积操作的处理过程为:每次遇到卷积操作,就将卷积操作传输给对应的边缘计算终端,由边缘计算终端的图形处理器GPU完成卷积操作,并将卷积操作得到的结果回传给本地计算终端对应的图形处理器上。2.如权利要求1所述的一种人工智能模型的快速训练系统,其特征是,所述待训练的人工智能模型,是指:卷积神经网络。3.如权利要求1所述的一种人工智能模型的快速训练系统,其特征是,所述本地计算终端的不同图形处理器分别处理不同模态的人工智能模型,至少包括:本地计算终端的第一个图形处理器,处理用于语音识别的卷积神经网络;本地计算终端的第二个图形处理器,处理用于视频目标对象识别的卷积神经网络;本地计算终端的第三个图形处理器,处理用于图像目标检测的卷积神经网络。4.如权利要求1所述的一种人工智能模型的快速训练系统,其特征是,所述本地计算终端的每个图形处理器,在对自身部署的人工智能模型进行训练的过程中,除了卷积操作以外的其他操作,均由本地计算终端的图形处理器来完成;其中,除了卷积操作以外的其他操作,至少包括:输入层的操作、池化层的操作、全连接层的操作和Softmax层的操作。5.如权利要求1所述的一种人工智能模型的快速训练系统,其特征是,所述对于卷积操作的处理过程为:每次遇到卷积操作,就将卷积操作传输给对应的边缘计算终端,由边缘计算终端的图形处理器GPU完成卷积操作,并将卷积操作得到的结果回传给本地计算终端对应的图形处理器上;其中,回传的过程中,还会同步梯度。6.如权利要求1所述的一种人工智能模型的快速训练系统,其特征是,所述对于卷积操作的处理过程为:每次遇到卷积操作,就将卷积操作传输给对应的边缘计算终端,由边缘计算终端的图形处理器GPU完成卷积操作,并将卷积操作得到的结果回传给...

【专利技术属性】
技术研发人员:耿世超李小宁王正中王琳张化祥
申请(专利权)人:山东师范大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1