System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind()
【技术实现步骤摘要】
本专利技术属于人工智能,涉及一种对比学习推荐方法、设备及存储介质,尤其涉及一种基于大模型语义的对比学习推荐方法、设备及存储介质。
技术介绍
1、随着在线服务的普及,用户得以更快的方式访问大量在线信息,然而互联网上的信息量远远超过了个人信息量的处理能力。作为缓解信息过载的工具,推荐系统旨在减少用户在查找相关信息时所需的精力和时间。为了处理海量的在线信息,推荐系统被设计用于帮助用户轻松发现符合他们兴趣的物品。
2、现有的大部分推荐系统的核心在于学习用户和物品表示。通过将过去的用户-物品交互转化为密集向量,推荐系统能够捕捉用户和物品的复杂特征和偏好,以区分它们之间微小的差异。学习用户和物品表示的有效性很大程度上影响损失函数的选择。最近的研究表明,对比学习损失可以分解成用户表示之间的对齐与用户/物品表示的均匀性两个属性,通过优化这两个属性,使得对比学习模型取得了卓越的性能。
3、下面的观察结果推动了创新技术的发展,研究者发现1)、交互过的用户-物品对的表示应该彼此接近,并且2)、每个表示都应该尽可能多地保存关于用户/物品本身的信息。针对以上两个发现提出了:1)、对齐优化——来拉进用户表示与他/她交互过的物品之间的归一化后向量的相似性;2)、均匀性优化——样本点在单位超球面上的分布均匀,确保用户和物品表示是均匀分布并且本质上彼此可区分。协同过滤中的表征对齐和均匀性,简称,directau,通过直接对对齐和均匀性两个属性优化取得了很好的推荐效果。
4、尽管有效,但directau仍然存在以下两个问题:1、
5、因此,针对上述现有技术中存在的缺陷,需要研发一种新型的对比学习推荐方法、设备及存储介质。
技术实现思路
1、为了克服现有技术的缺陷,本专利技术提出一种基于大模型语义的对比学习推荐方法、设备及存储介质,其缓解了对齐信号不足的问题,使得模型的均匀性平稳地增加,从而达到更好的均匀性,最终,取得了更好的推荐效果。
2、为了实现上述目的,本专利技术提供如下技术方案:
3、一种基于大模型语义的对比学习推荐方法,其特征在于,包括以下步骤:
4、1)、构建prompt模板,让大模型根据物品的文本信息为用户交互过的物品进行打分;
5、2)、将所述大模型的打分结果引入到对齐算法中,获得基于大模型语义信息的对齐算法;
6、3)、通过均匀性正则化,给定均匀性增加的方向,从而设计出均匀性正则化算法;
7、4)、基于所述基于大模型语义信息的对齐算法和均匀性正则化算法确定目标损失函数;
8、5)、基于所述目标损失函数,对对比学习推荐模型进行参数优化;
9、6)、利用参数优化后的对比学习推荐模型计算用户采用物品的可能性,最终截取可能性高的前k个物品推荐给该用户。
10、优选地,所述步骤1)中,打分结果为1或2,其中,1表示用户对该物品没有特殊偏爱;2则表示用户相比于其他交互过的物品,更喜欢该物品。
11、优选地,所述步骤2)中,所述基于大模型语义信息的对齐算法具体为:式中,s(ui)表示所述大模型对用户u交互过的物品i的打分结果;f(·)表示经过对比学习推荐模型生成的表示向量;表示将f(·)进行l2归一化到超球面;ppos表示正样本对的分布,也就是,用户u与物品i交互对的集合;表示与的二范数的平方,表示期望,即对求均值。
12、优选地,所述步骤3)中,设计的均匀性正则化算法具体为:
13、
14、式中,puser表示所有的用户的集合,pitem表示所有的物品集合,u’表示puser中除了用户u以外的任意一个用户,i’表示pitem中除了物品i以外的任意一个物品。
15、优选地,所述步骤4)中确定的目标损失函数为:lsaru=lsalign+γ(luniform+lruniform),其中,γ是调节系数,
16、优选地,γ的取值范围为0-10。
17、优选地,所述步骤5)中,基于所述目标损失函数对对比学习推荐模型进行参数优化时,通过梯度下降算法adam更新所述对比学习推荐模型的参数。
18、优选地,所述步骤6)中,利用参数优化后的对比学习推荐模型计算用户与物品的相似度具体为:利用参数优化后的对比学习推荐模型分别生成用户的最终表示向量eu和未与该用户交互过的所有物品中每个物品的最终表示向量ei并计算用户采用每个未与其交互过的物品的可能性,即,是用户u采用物品i的可能性,越大表示用户越喜欢该物品,其为eu和ei的内积。。
19、此外,本专利技术还提供一种基于大模型语义的对比学习推荐设备,其特征在于,包括:
20、一个或多个处理器;
21、存储器,用于存储一个或多个程序;
22、当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如上所述的基于大模型语义的对比学习推荐方法。
23、而且,本专利技术还提供一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如上所述的基于大模型语义的对比学习推荐方法中的步骤。
24、与现有技术相比,本专利技术的基于大模型语义的对比学习推荐方法、设备及存储介质具有如下有益技术效果中的一者或多者:
25、1、本专利技术将物品丰富的语义信息引入对齐中,缓解了对齐信号不足的问题,从而得到了基于大模型语义信息的对齐算法。
26、2、本专利技术将样本间距离的方差作为指导均匀性增加的信号,让模型的均匀性平稳地增加,从而达到更好的均匀性。
27、3、本专利技术通过优化对比学习推荐模型,取得了更好的推荐效果,并通过计算该用户对所有未交互物品的相似度得分,选出得分高的前k个推荐给该用户。
本文档来自技高网...【技术保护点】
1.一种基于大模型语义的对比学习推荐方法,其特征在于,包括以下步骤:
2.根据权利要求1所述的基于大模型语义的对比学习推荐方法,其特征在于,所述步骤1)中,打分结果为1或2,其中,1表示用户对该物品没有特殊偏爱;2则表示用户相比于其他交互过的物品,更喜欢该物品。
3.根据权利要求2所述的基于大模型语义的对比学习推荐方法,其特征在于,所述步骤2)中,所述基于大模型语义信息的对齐算法具体为:
4.根据权利要求3所述的基于大模型语义的对比学习推荐方法,其特征在于,所述步骤3)中,设计的均匀性正则化算法具体为:式中,Puser表示所有的用户的集合,Pitem表示所有的物品的集合,u’表示Puser中除了用户u以外的任意一个用户,i’表示Pitem中除了物品i以外的任意一个物品。
5.根据权利要求4所述的基于大模型语义的对比学习推荐方法,其特征在于,所述步骤4)中确定的目标损失函数为:lSARU=lSalign+γ(luniform+lRuniform),其中,γ是调节系数,
6.根据权利要求5所述的基于大模型语义的对比学习推荐方
7.根据权利要求6所述的基于大模型语义的对比学习推荐方法,其特征在于,所述步骤5)中,基于所述目标损失函数对对比学习推荐模型进行参数优化时,通过梯度下降算法Adam更新所述对比学习推荐模型的参数。
8.根据权利要求7所述的基于大模型语义的对比学习推荐方法,其特征在于,所述步骤6)中,利用参数优化后的对比学习推荐模型计算用户与物品的相似度具体为:利用参数优化后的对比学习推荐模型分别生成用户的最终表示向量eu和未与该用户交互过的所有物品中每个物品的最终表示向量ei并计算用户采用每个未与其交互过的物品的可能性,即,是用户u采用物品i的可能性,越大表示用户越喜欢该物品,其为eu和ei的内积。。
9.一种基于大模型语义的对比学习推荐设备,其特征在于,包括:
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-8中任一项所述的基于大模型语义的对比学习推荐方法中的步骤。
...【技术特征摘要】
1.一种基于大模型语义的对比学习推荐方法,其特征在于,包括以下步骤:
2.根据权利要求1所述的基于大模型语义的对比学习推荐方法,其特征在于,所述步骤1)中,打分结果为1或2,其中,1表示用户对该物品没有特殊偏爱;2则表示用户相比于其他交互过的物品,更喜欢该物品。
3.根据权利要求2所述的基于大模型语义的对比学习推荐方法,其特征在于,所述步骤2)中,所述基于大模型语义信息的对齐算法具体为:
4.根据权利要求3所述的基于大模型语义的对比学习推荐方法,其特征在于,所述步骤3)中,设计的均匀性正则化算法具体为:式中,puser表示所有的用户的集合,pitem表示所有的物品的集合,u’表示puser中除了用户u以外的任意一个用户,i’表示pitem中除了物品i以外的任意一个物品。
5.根据权利要求4所述的基于大模型语义的对比学习推荐方法,其特征在于,所述步骤4)中确定的目标损失函数为:lsaru=lsalign+γ(luniform+lruniform),其中,γ是调节系数,
6.根据权...
【专利技术属性】
技术研发人员:周朝,林天宇,仇瑜,刘德兵,袁会会,
申请(专利权)人:北京智谱华章科技有限公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。