一种样本数据的生成方法、装置及计算机可读存储介质制造方法及图纸

技术编号:27744266 阅读:33 留言:0更新日期:2021-03-19 13:38
本发明专利技术提供了一种样本数据的生成方法、装置及计算机可读存储介质。其中,本发明专利技术实施例提供的样本数据的生成方法,包括:生成推荐系统的至少两个弱监督推荐模型;通过训练神经网络模型,学习所述至少两个弱监督推荐模型间的依赖关系;利用训练得到的所述神经网络模型,对样本数据进行重新标注,得到更新后的样本数据。本发明专利技术实施例能够利用多个弱监督推荐模型间的依赖关系,提升样本数据的标签质量,进而可以改善基于该样本数据训练得到的推荐模型的性能。

【技术实现步骤摘要】
一种样本数据的生成方法、装置及计算机可读存储介质
本专利技术涉及机器学习
,具体涉及一种样本数据的生成方法、装置及计算机可读存储介质。
技术介绍
近年来,推荐系统在搜索引擎、电商网站等多个领域获得了成功的应用。推荐系统通过基于对用户数据的挖掘,构建推荐模型,向用户推荐符合他们需求的产品、信息和服务等内容,帮助用户解决信息过载的问题。现有的推荐系统将推荐模型的训练过程视为监督问题,其标签(如评级)或来自用户的特定行为。这种显式方法提供了明确的标签,但这些标签的真实性可能存在问题,其原因包括用户出于各种原因的虚假标注等。监督学习技术通过学习大量训练样本来构建推荐模型,其中每个训练样本都有一个标签标明其真值输出。尽管当前的技术已经取得了巨大的成功,但是值得注意的是,由于数据标注过程的高成本,很多任务难以获得全部真值标签这样的强监督信息。因此,能够使用弱监督的机器学习技术是可取的。弱监督学习是指训练样本的标签是不可靠的,如(x,y),y对于x的标记是不可靠的。这里的不可靠包括标记不正确、多种标记、标记不充分、局部标记等。针对监督信息不完整或不明确对象的学习问题统称为弱监督学习。由于训练样本的标签可靠性较差,这会对基于弱监督学习所构建的推荐模型的性能造成不利影响。
技术实现思路
本专利技术实施例要解决的技术问题是提供一种样本数据的生成方法、装置及计算机可读存储介质,可以提升样本数据的标签质量,进而可以改善基于该样本数据训练得到的推荐模型的性能。为解决上述技术问题,本专利技术实施例提供的样本数据的生成方法,包括:生成推荐系统的至少两个弱监督推荐模型;通过训练神经网络模型,学习所述至少两个弱监督推荐模型间的依赖关系;利用训练得到的所述神经网络模型,对样本数据进行重新标注,得到更新后的样本数据。可选的,通过训练神经网络模型,学习所述至少两个弱监督推荐模型间的依赖关系的步骤,包括:基于所述至少两个弱监督推荐模型的输出,构建用于表示所述至少两个弱监督推荐模型间的依赖关系的神经网络模型;通过最大化所述至少两个弱监督推荐模型的输出的联合概率,训练所述神经网络模型的参数,生成所述至少两个弱监督推荐模型间的依赖关系。可选的,利用训练得到的所述神经网络模型,对样本数据进行重新标注的步骤,包括:获取所述至少两个弱监督推荐模型对样本数据的标注结果;利用训练得到的所述神经网络模型,获得所述标注结果的最大似然估计,根据所述标注结果的最大似然估计,对样本数据进行重新标注。可选的,所述生成推荐系统的至少两个弱监督推荐模型的步骤,包括:基于已有的弱监督标签,训练生成多个不同类型的弱监督推荐模型;分别从每个类型的弱监督推荐模型中,选择出标注性能高于预设门限的弱监督推荐模型,得到所述至少两个弱监督推荐模型。可选的,在得到更新后的样本数据之后,所述方法还包括:利用更新后的样本数据,训练得到所述推荐系统的目标推荐模型。本专利技术实施例还提供了一种样本数据的生成装置,包括:推荐模型获得单元,用于生成推荐系统的至少两个弱监督推荐模型;神经网络模型学习单元,用于通过训练神经网络模型,学习所述至少两个弱监督推荐模型间的依赖关系;重标注单元,用于利用训练得到的所述神经网络模型,对样本数据进行重新标注,得到更新后的样本数据。可选的,所述神经网络模型学习单元,还用于基于所述至少两个弱监督推荐模型的输出,构建用于表示所述至少两个弱监督推荐模型间的依赖关系的神经网络模型;以及,通过最大化所述至少两个弱监督推荐模型的输出的联合概率,训练所述神经网络模型的参数,生成所述至少两个弱监督推荐模型间的依赖关系。可选的,所述重标注单元,还用于获取所述至少两个弱监督推荐模型对样本数据的标注结果;以及,利用训练得到的所述神经网络模型,获得所述标注结果的最大似然估计,根据所述标注结果的最大似然估计,对样本数据进行重新标注。可选的,所述推荐模型获得单元,还用于基于已有的弱监督标签,训练生成多个不同类型的弱监督推荐模型;以及,分别从每个类型的弱监督推荐模型中,选择出标注性能高于预设门限的弱监督推荐模型,得到所述至少两个弱监督推荐模型。可选的,上述生成装置还包括:目标推荐模型训练单元,用于利用更新后的样本数据,训练得到所述推荐系统的目标推荐模型。本专利技术实施例还提供了一种样本数据的生成装置,包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如上所述的样本数据的生成方法的步骤。本专利技术实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的样本数据的生成方法的步骤。与现有技术相比,本专利技术实施例提供的样本数据的生成方法、装置及计算机可读存储介质,通过神经网络模型学习多个弱监督推荐模型间的依赖关系,并利用上述依赖关系提升了样本数据的标签质量,可以避免或减少样本数据的标注错误对推荐模型训练的不利影响,改善训练得到的推荐模型的性能。附图说明为了更清楚地说明本专利技术实施例的技术方案,下面将对本专利技术实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本专利技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。图1为本专利技术实施例的样本数据的生成方法的一种流程示意图;图2为本专利技术实施例所构建的神经网络模型的一个示例图;图3为本专利技术实施例的样本数据的生成方法的另一种流程示意图;图4为本专利技术实施例的样本数据的生成装置的一种结构示意图;图5为本专利技术实施例的样本数据的生成装置的另一种结构示意图;图6为本专利技术实施例的样本数据的生成装置的又一结构示意图。具体实施方式为使本专利技术要解决的技术问题、技术方案和优点更加清楚,下面将结合附图及具体实施例进行详细描述。在下面的描述中,提供诸如具体的配置和组件的特定细节仅仅是为了帮助全面理解本专利技术的实施例。因此,本领域技术人员应该清楚,可以对这里描述的实施例进行各种改变和修改而不脱离本专利技术的范围和精神。另外,为了清楚和简洁,省略了对已知功能和构造的描述。应理解,说明书通篇中提到的“一个实施例”或“一实施例”意味着与实施例有关的特定特征、结构或特性包括在本专利技术的至少一个实施例中。因此,在整个说明书各处出现的“在一个实施例中”或“在一实施例中”未必一定指相同的实施例。此外,这些特定的特征、结构或特性可以任意适合的方式结合在一个或多个实施例中。在本专利技术的各种实施例中,应理解,下述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本专利技术实施例的实施过程构成任何限定。请参照图1,本专利技术实施例提供了一种样本数据的生成方法,该样本数据的生成方法可以提升样本本文档来自技高网...

【技术保护点】
1.一种样本数据的生成方法,其特征在于,包括:/n生成推荐系统的至少两个弱监督推荐模型;/n通过训练神经网络模型,学习所述至少两个弱监督推荐模型间的依赖关系;/n利用训练得到的所述神经网络模型,对样本数据进行重新标注,得到更新后的样本数据。/n

【技术特征摘要】
1.一种样本数据的生成方法,其特征在于,包括:
生成推荐系统的至少两个弱监督推荐模型;
通过训练神经网络模型,学习所述至少两个弱监督推荐模型间的依赖关系;
利用训练得到的所述神经网络模型,对样本数据进行重新标注,得到更新后的样本数据。


2.如权利要求1所述的方法,其特征在于,通过训练神经网络模型,学习所述至少两个弱监督推荐模型间的依赖关系的步骤,包括:
基于所述至少两个弱监督推荐模型的输出,构建用于表示所述至少两个弱监督推荐模型间的依赖关系的神经网络模型;
通过最大化所述至少两个弱监督推荐模型的输出的联合概率,训练所述神经网络模型的参数,生成所述至少两个弱监督推荐模型间的依赖关系。


3.如权利要求1所述的方法,其特征在于,利用训练得到的所述神经网络模型,对样本数据进行重新标注的步骤,包括:
获取所述至少两个弱监督推荐模型对样本数据的标注结果;
利用训练得到的所述神经网络模型,获得所述标注结果的最大似然估计,根据所述标注结果的最大似然估计,对样本数据进行重新标注。


4.如权利要求1所述的方法,其特征在于,所述生成推荐系统的至少两个弱监督推荐模型的步骤,包括:
基于已有的弱监督标签,训练生成多个不同类型的弱监督推荐模型;
分别从每个类型的弱监督推荐模型中,选择出标注性能高于预设门限的弱监督推荐模型,得到所述至少两个弱监督推荐模型。


5.如权利要求1至4任一项所述的方法,其特征在于,在得到更新后的样本数据之后,所述方法还包括:
利用更新后的样本数据,训练得到所述推荐系统的目标推荐模型。


6.一种样本数据的生成装置,其特征在于,包括:
推荐模...

【专利技术属性】
技术研发人员:丁磊童毅轩张佳师姜珊珊张永伟
申请(专利权)人:株式会社理光
类型:发明
国别省市:日本;JP

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1