当前位置: 首页 > 专利查询>辉达公司专利>正文

使用游戏风格模式来生成游戏玩家的虚拟表示制造技术

技术编号:25881557 阅读:24 留言:0更新日期:2020-10-09 23:10
本发明专利技术公开了使用游戏风格模式来生成游戏玩家的虚拟表示。在本公开的各种实施例中,学习玩家的游戏风格模式并将其用于生成用户的虚拟表示(“机器人(bots)”)。公开了系统和方法,其基于用户的用户输入根据游戏会话内呈现的变量,使用来自游戏的多个游戏会话的游戏会话数据(例如,元数据)来学习用户的游戏风格模式。游戏会话数据被应用于一个或更多个机器学习模型,以学习游戏的用户的游戏风格模式,并与用户的用户简档相关联。然后,根据所学习的游戏风格模式,表示用户简档的简档数据被用于控制或实例化用户或用户类别的机器人。

【技术实现步骤摘要】
使用游戏风格模式来生成游戏玩家的虚拟表示
技术介绍
随着在线多人视频游戏的激增,以及游戏变得越来越有竞争力,用户正花费越来越多的时间进行训练以提高他们在游戏中的技能。为了实现这一点,用户经常试图与比自己更好或排名更高的玩家对战。例如,当用户丢失与特定玩家的游戏会话时,用户可能希望通过与同一玩家进行对战来重新创建游戏会话。但是,先前游戏会话的玩家可能不可用或不愿意玩,特别是当该玩家来自竞争对手的专业团队时。另外,玩家可以以不同的方式玩另一个游戏会话(例如,玩家可能比原始游戏会话更谨慎,或者可能不太认真地对待游戏),从而进一步降低了用户能够复制游戏会话的几率。尽管很难为单个玩家进行复制,但是随着更多玩家的参与,原始游戏会话的复制变得更加困难。因此,当前不可能如实地重新创建游戏会话,从而导致用户错过从原始游戏会话的错误中学习或尝试与原始游戏会话不同的技术的机会。作为另一个示例,游戏中具有某经验等级(例如,经验等级7)的用户可能希望向上移动到一个或更多个更高的经验等级(例如,经验等级8),并且为了做到这一点,可以通过与一个或更多个更高经验等级的玩家对战来寻求训练,以达到一个或更多个更高经验等级。另外,用户可能希望与来自某个地理位置(例如,城市,州,地区,国家等)的玩家对战,以便为国际或区域锦标赛做准备。然而,许多游戏的算法经常将具有相似经验等级和/或地理位置的玩家放在一起,从而限制了用户找到与具有一个或更多个不同经验等级或来自一个或更多个不同地理位置的玩家进行游戏会话的机会。另外,一些用户可能希望训练与一个或更多个更高经验等级的玩家和/或来自一个或更多个地理位置的玩家对战,而无需在游戏会话中真正与他们对战,这可能影响游戏中用户统计数据(例如,击杀/死亡比率,获胜,失败,打击目标,允许的码数等)或揭露用户的游戏策略。在现有系统中,由于多种因素,这是不可能的。常规系统允许用户在没有人类队友和/或对手或除人类队友和/或对手以外的情况下或与机器人(bots)对战。但是,这些机器人不允许用户实际针对与人类玩家(更不用说特定的人)玩游戏进行训练。这是因为机器人在游戏中的行为传统上是由人类游戏开发人员在使用刚性规则进行游戏设计时定义的,并且机器人的唯一动态质量可能会响应于用户的游戏玩法(例如,使用动态游戏难度平衡)。同样,这些机器人通常旨在最大化娱乐价值,而不是像人一样行为。结果,当用户与这些机器人玩游戏时,该游戏玩法通常是不现实的。另外,这些机器人的编程不表示任何特定用户、游戏内具有特定经验等级的用户、来自某个地理位置的用户和/或来自另一种类型的用户类别的用户。
技术实现思路
本公开的实施例涉及使用学习到的游戏风格模式来生成用户的虚拟表示(“机器人(bots)”)。公开了系统和方法,其使用来自游戏的多个游戏会话的游戏会话数据(例如,元数据)来学习用户的游戏风格模式,并根据学习到的游戏风格模式控制或实例化用户的机器人或用户类别的机器人。与诸如上述那些的常规系统相反,本系统跟踪用户在游戏的众多游戏会话中玩时用户的游戏会话数据。根据一些示例,可以跟踪用户定义的持续时间或离散的游戏时段内的游戏会话数据(例如,通过致动图形用户界面中的按钮或选进(opt-in)字段)。游戏会话数据可以包括表示游戏状态、用户输入、这些输入的结果(例如,环境的变化、游戏中各个玩家的健康或实力、游戏中车辆的位置、运动球的位置等)、用户输入周围的游戏会话中的变量(例如,在田野中,用户冲刺,然后看到一块岩石,藏在岩石后面,在射击武器之间使用岩石作为掩体)的数据和/或其他数据。可以在任意数量的游戏会话中识别出特定用户的游戏会话数据,并且该游戏会话数据可以用于学习用户的游戏风格模式(例如,通过将游戏会话数据应用于一个或更多个机器学习模型)。在一个或更多个示例中,针对每个游戏或游戏时段收集的游戏会话数据可以包括图像数据,音频数据和任何用户输入-包括但不限于:键盘上按压的键,光标移动和/或致动,头部或身体运动(例如由头戴式显示器中的传感器检测到的)和音频输入(例如语音命令)。可以创建和/或更新用户简档,以在游戏的各种场景的任何一种中并响应于各种情况或刺激(例如,在不同的游戏模式下,例如团队死亡竞赛或夺旗)来捕获用户的游戏风格模式。然后,当接收到对与关联于用户简档的玩家玩(play)或重玩(replay)游戏会话的请求时,可以使用用户简档。例如,用户简档或来自与游戏会话相关联的用户简档的至少游戏风格模式可用于控制游戏会话中玩家的虚拟表示(“机器人”)的实例化。结果,玩家可以与例如他们可能曾经喜欢一起玩或与之对战的,他们以前输给了的,他们知道是更强的玩家,和/或他们预期未来与之竞争的另一个玩家的机器人对战。另外,即使在用户希望与之对战的第一玩家没有相关联的用户简档的情况下,也可以基于用户简档中游戏会话中的第一玩家的游戏风格(和/或其他特征)和第二玩家的游戏风格模式(和/或其他特征)之间的相似性来选择第二玩家的用户简档作为第一玩家的用户简档。通过使与根据实际玩家的游戏风格模式控制的机器人玩游戏,常规系统所面临的挑战-例如,确保某个玩家可用于随后的游戏会话-不再是问题。与常规系统进一步形成对比,本系统基于对用户的观察来生成机器人(例如,通过众包(crowdsourcing)大量用户的游戏会话数据以学习他们的玩法),其中机器人在反应上和主动性上的行为都像用户(例如,像单个用户,像类别或用户等)。例如,在机器人行为像用户类别的情况下,可以确定多个用户的聚合游戏风格(例如,通过将与用户相对应的游戏会话元数据应用于一个或更多个机器学习模型)。然后可以根据用户的聚合游戏风格模式来控制机器人。可以选择特定类别的用户(例如,基于游戏中的经验等级,基于地理位置,基于国家排名,基于全球排名等),并且可以学习针对类别的聚合游戏风格。结果,当用户请求与某个类别的一个或更多个机器人对战时,可以根据该类别的聚合游戏风格模式来控制一个或更多个机器人的实例化。因此,与常规系统的上述缺陷相比,用户能够与表示具有一个或更多个更高经验等级的用户,来自特定地理位置的用户,某区域排名(例如,区域排名前10%)、国家排名(例如,前60%和前70%之间的用户)、全球排名的用户和/或其他用户类别的用户的更像人类的机器人进行对战,而实际上并未与可能影响游戏内用户统计信息的游戏会话中的真实玩家对战。通过启用与根据用户或用户类别的游戏风格模式控制的机器人玩游戏,玩家不需要参与游戏的多个实例以便与特定玩家对战(或尝试重新对战),或与特定类型的玩家对战(例如,游戏中具有特定经验等级的玩家)。结果,玩家可以参与量身定制的游戏会话,其包括表示玩家或玩家感兴趣的玩家类别的机器人,而无需每个玩家或该类别中的每个玩家存在(例如,要求他们自己的游戏会话实例化)。另外,由于网络可能仅需要管理与人类玩家的客户端设备的网络连接(例如,因为其他玩家可以被虚拟表示代替),所以与常规系统相比,联网需求也可以降低。附图说明下面参考附图详细描述了使用所学习的游戏风格模式来生成用户的虚拟表示的本系统和方法,其中:图1是根据本公开的一些实本文档来自技高网
...

【技术保护点】
1.一种方法,包括:/n接收与用户相关联的游戏会话数据的子集,所述游戏会话数据表示所述用户参与的至少一个先前游戏会话;/n将所述游戏会话数据的所述子集应用于至少一个机器学习模型,其至少部分地基于所述用户对游戏的用户输入根据所述游戏中的变量,学习所述游戏的所述用户的游戏风格模式;/n将所述游戏的所述游戏风格模式与所述用户的用户简档相关联;以及/n发送表示所述用户简档的简档数据,所述简档数据使得机器人在新游戏会话中使用所述用户的所述游戏风格模式被实例化和控制。/n

【技术特征摘要】
20190329 US 16/369,4581.一种方法,包括:
接收与用户相关联的游戏会话数据的子集,所述游戏会话数据表示所述用户参与的至少一个先前游戏会话;
将所述游戏会话数据的所述子集应用于至少一个机器学习模型,其至少部分地基于所述用户对游戏的用户输入根据所述游戏中的变量,学习所述游戏的所述用户的游戏风格模式;
将所述游戏的所述游戏风格模式与所述用户的用户简档相关联;以及
发送表示所述用户简档的简档数据,所述简档数据使得机器人在新游戏会话中使用所述用户的所述游戏风格模式被实例化和控制。


2.根据权利要求1所述的方法,其中所述游戏会话数据的所述子集与所述游戏的第一游戏模式相关联,以及所述用户简档将所述游戏风格模式与所述第一游戏模式相关联。


3.根据权利要求1所述的方法,其中所述游戏风格模式与所述游戏的第一游戏模式相关联,以及所述发送所述简档数据至少部分地基于所述第一游戏模式与所述游戏会话相关联。


4.根据权利要求1所述的方法,其中所述变量捕获所述游戏会话的游戏状态和由所述用户在所述游戏会话内控制的角色的环境特征中的至少一个。


5.根据权利要求1所述的方法,其中所述将所述游戏会话数据的所述子集应用于至少一个机器学习模型包括:将至少所述用户输入和所述变量输入到被配置为使用以下中的至少一项进行训练的至少一个神经网络中:逻辑回归,线性回归,强化学习或逆强化学习。


6.根据权利要求1所述的方法,其中所述用户输入表示在所述至少一个先前游戏会话期间对一个或更多个客户端设备的一个或更多个输入/输出组件的输入。


7.根据权利要求1所述的方法,其中所述简档数据使得通过将来自所述游戏会话的游戏中游戏会话数据应用于至少一个其他机器学习模型来控制所述机器人,所述至少一个其他机器学习模型被训练以至少部分地基于来自所述用户简档的所述游戏风格模式生成表示模拟控件的输出数据。


8.根据权利要求1所述的方法,其中所述游戏会话数据包括在所述先前游戏会话期间生成的图像数据以及映射到所述图像数据的一个或更多个帧的用户输入。


9.一种方法,包括:
从与第一用户相关联的客户端设备接收对与第二用户玩游戏的新游戏会话的请求;
从与所述第二用户相关联的用户简档中检索游戏风格模式,所述游戏风格模式至少部分地通过将游戏会话数据应用于一个或更多个机器学习模型来生成,所述游戏会话数据表示所述第二用户参与的游戏的一个或更多个游戏会话;
至少部分地基于所述请求,在包括所述第一用户的所述游戏的所述新游戏会话中,使用来自所述用户简档的所述游戏风格模式来实例化机器人。


10.根据权利要求9所述的方法,其中所述控制所述机器人包括将来自所述游戏会话的游戏中游戏会话数据应用于机器学习模型,所述机器学习模型被训练为...

【专利技术属性】
技术研发人员:A·费尔B·伯克P·V·N·H·普拉萨德A·拉尔瓦尼
申请(专利权)人:辉达公司
类型:发明
国别省市:美国;US

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1