【技术实现步骤摘要】
影片数据处理方法、装置、介质及电子设备
[0001]本专利技术涉及影片数据处理的
,具体而言,涉及一种影片数据处理方法、装置、介质及电子设备。
技术介绍
[0002]随机梯度下降(SGD)具有极高的效率,因此成为目前大多数分布式机器学习应用中最常见的训练方法。例如,在考虑计算效率时,可以使用mini
‑
batch SGD训练模型,在使用mini
‑
batch SGD训练模型的过程中,虽然mini
‑
batch SGD能够计算出多个随机梯度,但是却不符合实际计算效率的要求。再例如,在考虑减少训练时间时,可以使用大批量SGD训练模型,在使用大批量SGD训练模型的过程中,由于没有正确考虑设备的局部并行化,以及设备间的通信效率,导致设备间的通信效率较低。尤其是当设备的数量增加时,每台设备的并行化程度会严重约束通信效率。
[0003]需要说明的是,在上述
技术介绍
部分公开的信息仅用于加强对本专利技术的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
技术实现思路
[0004]本专利技术实施例的目的在于提供一种影片数据处理方法、装置、介质及电子设备,进而至少可以在一定程度上提升通信效率,且符合实际运营时计算效率的要求,有效地避免每台设备在并行化运行时通信效率被约束的缺陷。
[0005]本专利技术的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本专利技术的实践而习得。
[0006]根据本专利技术实施例 ...
【技术保护点】
【技术特征摘要】
1.一种影片数据处理方法,应用于影片系统,所述影片系统包括深度学习训练模型,所述深度学习训练模型部署在多台服务器中每台服务器的GPU区块,该方法包括:采用层次化局部随机梯度下降的方式,获取所有GPU区块中的深度学习训练模型的全局同步参数;其中,所述采用层次化局部随机梯度下降的方式,获取所有GPU区块中的深度学习训练模型的全局同步参数包括:获取第一影片数据样本,所述第一影片数据样本包含历史影片数据;利用所述第一影片数据样本,对每个GPU区块中每个GPU的深度学习训练模型中的参数进行迭代更新,得到每个GPU区块中每个GPU的深度学习训练模型的局部更新参数;根据每个GPU区块中每个GPU的深度学习训练模型的局部更新参数,确定每个GPU区块中的深度学习训练模型的区块同步参数;根据每个GPU区块中的深度学习训练模型的区块同步参数,确定所有GPU区块中的深度学习训练模型的全局同步参数。2.根据权利要求1所述的方法,其特征在于,每个GPU区块中每个GPU的深度学习训练模型的局部更新参数的表达式包括:其中,表示第t轮训练过程中第l个GPU区块中第k个GPU的深度学习训练模型的参数经过H次局部迭代更新后得到的局部更新参数,表示第t轮训练过程中局部迭代更新之前第l个GPU区块中第k个GPU的深度学习训练模型的参数,γ表示学习率,B
loc
表示在一次局部迭代中所需所述第一影片数据样本的数量,i表示所述第一影片数据样本,表示第t轮训练过程中第l个GPU区块中第k个GPU在第h
‑
1次局部迭代过程中所需第一影片数据样本的集合,f
i
表示第i个所述第一影片数据样本的损失函数。3.根据权利要求1所述的方法,其特征在于,每个GPU区块中的深度学习训练模型的区块同步参数的表达式包括:其中,表示第t轮训练过程中第l个GPU区块中的深度学习训练模型在第一次区块同步过程中的区块同步参数,表示第t轮训练过程中区块同步之前第l个GPU区块中的深度学习训练模型的参数,K
l
表示第l个GPU区块中GPU的总数,表示在第t轮训练过程中第l个GPU区块中第k个GPU的深度学习训练模型的参数经过H次局部迭代更新后得到的局部更新参数。4.根据权利要求1所述的方法,其特征在于,所有GPU区块中的深度学习训练模型的全局同步参数的表达式包括:
其中,表示第t+1轮训练过程中所有GPU区块中的深度学习训练模型的全局同步参数,表示第t轮训练过程中所有GPU区块中的深度学习训练模型的全局同步参数,K为所有GPU区块中GPU的总数,表示第t轮训练过程中所有GPU区块中每个GPU区块的深度学习训练模型在第H
b
次区块同步过程中的区块同步参数。5.根据权利要求1所述的方法,其特征在于,该方法还包括:获取第二影片数据样本,所述第二影片数据样本与所述第一影片数据样本不同,所述第二影片数据样本包含历史影片数据和新影片数据;利用所述历史影片数据,对全局同步后的深度学习训练模型进行训练,得到所述历史影片数据的...
【专利技术属性】
技术研发人员:林海,马稼明,谭成,郭汉龙,葛正荣,黄少琪,张琰琳,于亚茹,姜齐,陈家烁,
申请(专利权)人:中国电信股份有限公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。