一种模型训练方法、终端设备及计算机可读存储介质技术

技术编号:33285900 阅读:9 留言:0更新日期:2022-04-30 23:53
本申请公开了一种模型训练方法、终端设备及计算机可读存储介质,该方法包括:读取训练数据集;构建分布式网络模型,其中,分布式网络模型包括若干节点上部署相同的神经网络;将所述训练数据集分配到每个节点上的神经网络进行训练;基于每个节点的神经网络训练得到的模型参数训练最终的分布式网络模型。通过本申请的方法,可以将训练数据集分配到各个节点的神经网络进行训练,减少训练时间,有效提高了模型训练的效率。型训练的效率。型训练的效率。

【技术实现步骤摘要】
一种模型训练方法、终端设备及计算机可读存储介质


[0001]本申请涉及人工智能
,特别是涉及一种模型训练方法、终端设备及计算机可读存储介质。

技术介绍

[0002]近年来,人工智能领域中的以预训练为代表的自然语言处理技术获得了爆发式发展,新技术和新模型层出不穷。在新时代背景下,如何将多样化的先进的自然语言处理领域科研成果高效地应用到产业实践中并解决实际问题,是自然语言处理领域中的核心问题。机器学习模型是人工智能领域中的关键技术,研发人员通常基于机器学习框架来开展相关工作。
[0003]然而,在将模型应用到产业实践的过程中,复杂的应用场景导致数据量越来越大,传统的模型训练方法训练效率低,不能满足用户对于高效模型训练方法的需求。

技术实现思路

[0004]本申请提供了一种模型训练方法、终端设备及计算机可读存储介质,以解决现有技术中训练效率低的技术问题。
[0005]为解决上述问题,本申请提供的第一个技术方案为:提供一种模型训练方法,所述模型分布于多个节点进行训练,所述模型训练方法包括:
[0006]读取训练数据集;
[0007]构建分布式网络模型,其中,分布式网络模型包括在若干节点上部署相同的神经网络;
[0008]将所述训练数据集分配到每个节点上的神经网络进行训练;
[0009]基于每个节点的神经网络训练得到的模型参数训练最终的分布式网络模型。
[0010]为解决上述技术问题,本申请提供的第二个技术方案为:提供一种终端设备,所述终端设备包括存储器以及与所述存储器耦接的处理器;其中,所述存储器用于存储程序数据,所述处理器用于执行所述程序数据以实现如上所述的模型训练方法。
[0011]为解决上述技术问题,本申请提供的第三个技术方案为:提供一种计算机可读存储介质,所述存储介质存储有程序指令,所述程序指令被执行时实现上述的模型训练方法。
[0012]本申请提供的模型训练方法中,终端设备读取训练数据集;构建分布式网络模型,其中,分布式网络模型包括若干节点上部署相同的神经网络;将所述训练数据集分配到每个节点上的神经网络进行训练;基于每个节点的神经网络训练得到的模型参数训练最终的分布式网络模型。通过本申请的模型训练方法,可以将训练数据集分配到各个节点的神经网络进行训练,减少训练时间,有效提高了模型训练的效率。
附图说明
[0013]为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使
用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。其中:
[0014]图1是本申请提供的模型训练方法第一实施例的流程示意图;
[0015]图2是本申请提供的模型训练方法第二实施例的流程示意图;
[0016]图3是本申请提供的模型训练方法第三实施例的流程示意图;
[0017]图4是本申请提供的模型训练方法第四实施例的流程示意图;
[0018]图5是本申请提供的模型训练方法第五实施例的流程示意图;
[0019]图6是本申请提供的模型训练方法第六实施例的流程示意图;
[0020]图7是本申请提供的终端设备一实施例的结构示意图;
[0021]图8是本申请提供的计算机可读存储介质一实施例的结构示意图。
具体实施方式
[0022]为使本申请的上述目的、特征和优点能够更为明显易懂,下面结合附图,对本申请的具体实施方式做详细的说明。可以理解的是,此处所描述的具体实施例仅用于解释本申请,而非对本申请的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本申请相关的部分而非全部结构。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
[0023]本申请中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“设置有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
[0024]在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
[0025]请参见图1,图1是本申请提供的模型训练方法第一实施例的流程示意图。其中,本申请实施例所述的模型训练方法应用于一种终端设备,本申请的终端设备可以为服务器,也可以为由服务器和本地终端相互配合的系统。相应地,终端设备包括的各个部分,例如各个单元、子单元、模块、子模块可以全部设置于服务器中,也可以分别设置于服务器和本地终端中。
[0026]其中,本申请实施例所述的模型训练方法训练得到的模型可应用于疾病预测,例如,该模型可基于输入的病理切片图像或医学影像进行乳腺癌、肺癌等癌症的预测,在此,对模型的应用场景不做具体限定。
[0027]进一步地,上述服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块,例如用来提供分布式服务器的软件或软件模块,也可以实现成单个软件或软件模块,在此不做具体限定。在一些可能的实现方式中,本申请实施例的
模型训练方法可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。
[0028]如图1所示,本申请实施例的模型分布于多个节点进行训练,该模型训练方法的具体步骤如下:
[0029]步骤S11:读取训练数据集。
[0030]在本申请实施例中,终端设备读取训练数据集以进行模型训练。可选地,训练数据可以通过使用图像采集等设备针对相关区域进行采集得到;也可以从医院、学校等相关机构的数据库中获取得到;训练数据集还可以在机器学习或深度学习的数据库中获取,例如,训练数据集可以是UCI数据集,也可以是其他机器学习或深度学习的数据集。在此,对训练数据的来源不做具体限定。
[0031]可选地,终端设备在读取训练数据集后,需对训练数据集进行划分,划分为训练集和测试集,训练集用于模型对训练集数据进行学习,测试集用于测试模型在这个子集上的预测准确度。训练集和测试集可以是使用分层抽样、随机分割等方式划分,在此对训练数据集的划分方法不做具体限定。
[0032]步骤S12:构建分布式网络模型,其中,分布式网络模型包括若干节点上部署相同的神经网络。
[0033]具体的,本申请的模型可以为机器学习模型或深度学习模型,终端设备获取模型并构建分本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种模型训练方法,其特征在于,所述模型分布于多个节点进行训练,所述模型训练方法包括:读取训练数据集;构建分布式网络模型,其中,分布式网络模型包括在若干节点上部署相同的神经网络;将所述训练数据集分配到每个节点上的神经网络进行训练;基于每个节点的神经网络训练得到的模型参数训练最终的分布式网络模型。2.根据权利要求1所述的模型训练方法,其特征在于,所述将所述训练数据集分配到每个节点上的神经网络进行训练,包括:将所述训练数据集进行切片,以得到与节点数量相同数量的训练数据子集;将若干训练数据子集分配到对应节点上的神经网络进行训练。3.根据权利要求2所述的模型训练方法,其特征在于,所述将若干训练数据子集分配到对应节点上的神经网络进行训练之后,所述模型训练方法还包括:在分配到对应节点的训练数据子集训练完成后,将该节点的训练数据子集分配到其他节点的神经网络继续训练;获取其他节点的训练数据子集,对该节点的神经网络继续训练。4.根据权利要求1所述的模型训练方法,其特征在于,所述基于每个节点的神经网络训练得到的模型参数训练最终的分布式网络模型,包括:将每个节点的神经网络训练得到的模型参数共享到其他节点的神经网络,以使其他节点的神经网络按照多个节点的神经网络的模型参数进行更新。5.根据权利要求1所述的模型训练方法,其特征在于,所述基于每个节点的神经网络训练得到的模型参数训练最终的...

【专利技术属性】
技术研发人员:陶超周红林范先旭彭少杰龙汉
申请(专利权)人:深圳市巨鼎医疗股份有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1