【技术实现步骤摘要】
操作控制方法、装置、设备及存储介质
本专利技术涉及互联网
,特别涉及一种操作控制方法、装置、设备及存储介质。
技术介绍
MMO(MassivelyMultiplayerOnline,大型多人在线)类游戏中,每个玩家控制一个角色,每个角色具有多种技能,玩家以所控制的角色击败对方角色为胜利。在游戏过程中,当玩家在线时,玩家可通过自身操作经验确定所要释放的技能和攻击的目标,并通过向该目标释放该技能,以取得游戏胜利。然而,当玩家托管或者暂时离线时,如何进行操作控制,成为了提高用户游戏体验的关键。如果将MMO类游戏称为指定应用,将游戏类应用中的各个角色称为对象,将本次操作所要攻击的角色称为目标对象,将登录指定应用的用户账号所管理的角色称为指定对象,将本次操作时指定对象所释放的技能称为目标执行能力,现有技术在进行操作控制时,可采用如下方法:获取指定应用界面上各个对象的操作行为数据;从操作行为数据中,提取操作行为特征;将操作行为特征输入到策略决策模型中,输出目标对象和指定对象的目标执行能力,其中,策略决策模型用于基于历史操作行为数据,通过将操作行为特征与历史操作行为特征进行匹配,获取与操作行为特征相匹配的历史操作行为特征,并将该历史操作行为特征对应的目标对象和目标执行能力,作为本次操作的目标对象和目标执行能力;控制指定对象向目标对象释放目标执行能力。由于所确定的目标对象和目标属性完全依赖于历史操作行为数据,而在不同的操作场景下,所适用的目标对象和目标属性执行能力是不同的,因此,现有技术进行操作控制时操作成功率较低。
技术实现思路
为了解决现有技术的问题,本专利技术实施 ...
【技术保护点】
1.一种操作控制方法,其特征在于,所述方法包括:获取指定应用界面上包括指定对象在内的各个对象的操作行为数据,所述指定对象为登录指定应用的用户账号所管理的对象;从所述操作行为数据中,提取各个对象的离散特征、连续特征及组合特征,所述离散特征是指特征值具有离散性的特征,所述连续特征是指特征值具有连续性的特征,所述组合特征是指由多个具有关联性的离散特征组合而成的特征;将所述离散特征、所述连续特征及所述组合特征输入到操作策略确定模型中,输出目标对象和所述指定对象的目标执行能力,所述操作策略确定模型用于基于离散特征、连续特征及组合特征,确定目标对象和目标执行能力;控制所述指定对象向所述目标对象释放所述目标执行能力。
【技术特征摘要】
1.一种操作控制方法,其特征在于,所述方法包括:获取指定应用界面上包括指定对象在内的各个对象的操作行为数据,所述指定对象为登录指定应用的用户账号所管理的对象;从所述操作行为数据中,提取各个对象的离散特征、连续特征及组合特征,所述离散特征是指特征值具有离散性的特征,所述连续特征是指特征值具有连续性的特征,所述组合特征是指由多个具有关联性的离散特征组合而成的特征;将所述离散特征、所述连续特征及所述组合特征输入到操作策略确定模型中,输出目标对象和所述指定对象的目标执行能力,所述操作策略确定模型用于基于离散特征、连续特征及组合特征,确定目标对象和目标执行能力;控制所述指定对象向所述目标对象释放所述目标执行能力。2.根据权利要求1所述的方法,其特征在于,所述从所述操作行为数据中,提取各个对象的离散特征、连续特征及组合特征,包括:从所述操作行为数据中,提取特征值具有离散性的离散特征;从所述操作行为数据中,提取特征值具有连续性的特征,并对提取的特征进行归一化处理,得到所述连续特征;将所述离散特征中具有关联性的特征组成所述组合特征。3.根据权利要求1所述的方法,其特征在于,所述将所述离散特征、所述连续特征及所述组合特征输入到操作策略确定模型中,输出目标对象和所述指定对象的目标属性,包括:获取所述指定对象所具有的每种执行能力及所述指定应用界面上除所述指定对象之外的每个可选对象,将所述指定对象的每种执行能力和每个可选对象作为一种待决策策略;将所述离散特征、所述连续特征、所述组合特征及每种待决策策略输入到所述操作策略确定模型中,输出每种待决策策略对应的策略分数,所述策略分数用于表征操作成功率;将策略分数最高的决策策略中的可选对象和所述指定对象的执行能力分别作为所述目标对象和所述目标执行能力。4.根据权利要求1至3中任一项所述的方法,其特征在于,所述至少将所述离散特征、所述连续特征及所述组合特征输入到操作策略确定模型中,输出目标对象和所述指定对象的目标执行能力之前,还包括:获取操作策略训练样本;从每个操作策略训练样本中,提取样本离散特征、样本连续特征及样本组合特征;获取初始操作策略确定模型,所述初始操作策略确定模型包括初始深度神经网络层和初始逻辑回归网络层;根据每个操作策略训练样本的样本连续特征和样本组合特征,训练所述初始深度神经网络层,得到深度神经网络层;根据每个操作策略训练样本的样本离散特征和样本组合特征及所述深度神经网络层,训练所述初始逻辑回归网络层,得到逻辑回归网络层。5.根据权利要求4所述的方法,其特征在于,所述根据每个操作策略训练样本的样本连续特征和样本组合特征,训练所述初始深度神经网络层,得到深度神经网络层,包括:对每个操作策略训练样本的样本连续特征和样本组合特征进行降维处理,得到每个操作策略训练样本对应的样本训练特征;将每个操作策略训练样本对应的样本训练特征输入到第一损失函数中;基于所述第一损失函数的函数值,对所述初始深度神经网络层的参数进行调整,得到所述深度神经网络层。6.根据权利要求4所述的方法,其特征在于,所述根据每个操作策略训练样本的样本离散特征、样本组合特征及所述深度神经网络层,训练所述初始逻辑回归网络层,得到逻辑回归网络层,包括:将每个操作策略训练样本的样本连续特征和样本组合特征输入到所述深度神经网络层,输出每个策略训练样本对应的已处理特征;将每个操作策略训练样本的样本离散特征、样本组合特征及已处理特征输入到第二损失函数中;基于所述第二损失函数的函数值,对所述初始逻辑回归网络层的参数进行调整,得到所述逻辑回归网络层。7.一种操作控制装置,其特征在于,所述装置包括:获取模块,用于获取指定应用界面上...
【专利技术属性】
技术研发人员:潘晖,范奇,艾长青,张力柯,何庆玮,荆彦青,
申请(专利权)人:深圳市腾讯网络信息技术有限公司,
类型:发明
国别省市:广东,44
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。