虚拟道具互动方法、装置和计算机设备制造方法及图纸

技术编号:37612382 阅读:17 留言:0更新日期:2023-05-18 12:04
本申请涉及网络媒体领域,具体涉及一种虚拟道具互动方法、装置和计算机设备。所述方法包括:展示多媒体播放界面,多媒体播放界面中显示有目标对象;在多媒体播放界面中显示互动入口;响应于对互动入口的触发操作,在多媒体播放界面中与目标对象对应的区域范围内显示互动动画,互动动画中包括有按照与目标对象的面部表情相匹配的互动方式进行互动的虚拟道具。采用本方法能够提升互动方式的多样性。具。采用本方法能够提升互动方式的多样性。具。采用本方法能够提升互动方式的多样性。

【技术实现步骤摘要】
虚拟道具互动方法、装置和计算机设备


[0001]本申请涉及计算机
,特别是涉及一种虚拟道具互动方法、装置和计算机设备。

技术介绍

[0002]随着互联网技术的发展,越来越多的用户通过多媒体应用来播放多媒体内容,比如,用户可通过多媒体应用播放电视剧、电影及综艺等。
[0003]目前,用户在观看多媒体播放内容时,可以通过发送弹幕的方式来对多媒体内容中的目标对象进行评论,比如,用户可以通过弹幕来评论电视剧中的男主角。但是,在这种方式下,用户与该目标对象间的交互方式较为单一,因此,如何有效的提高用户与多媒体内容中的目标对象的交互方式多样性,成为现有技术亟需解决的问题。

技术实现思路

[0004]基于此,有必要针对上述技术问题,提供一种能够提升交互方式多样性的虚拟道具互动方法、装置、计算机设备和存储介质。
[0005]一种虚拟道具互动方法,所述方法包括:
[0006]展示多媒体播放界面,所述多媒体播放界面中显示有目标对象;
[0007]在所述多媒体播放界面中显示互动入口;
[0008]响应于对所述互动入口的触发操作,在所述多媒体播放界面中与所述目标对象对应的区域范围内显示互动动画,所述互动动画中包括有按照与所述目标对象的面部表情相匹配的互动方式进行互动的虚拟道具。
[0009]一种虚拟道具互动装置,所述装置包括:
[0010]界面展示模块,用于展示多媒体播放界面,所述多媒体播放界面中显示有目标对象;
[0011]入口显示模块,用于在所述多媒体播放界面中显示互动入口;
[0012]互动模块,用于响应于对所述互动入口的触发操作,在所述多媒体播放界面中与所述目标对象对应的区域范围内显示互动动画,所述互动动画中包括有按照与所述目标对象的面部表情相匹配的互动方式进行互动的虚拟道具。
[0013]在一个实施例中,所述互动模块还用于检测所述多媒体播放界面中播放的所述目标对象的目标部位所在区域、以及所述目标对象的面部表情;获取与所述目标对象的面部表情相匹配的目标互动方式;在与所述目标部位所在区域相对应的区域范围内,显示包括有按照所述目标互动方式进行互动的虚拟道具的互动动画。
[0014]在一个实施例中,所述目标部位包括面部部位,所述互动模块还用于获取所述目标对象的面部特征;其中,所述面部特征从针对所述目标对象所采集的面部图像中提取得到;基于所述面部特征确定所述目标对象的面部关键点;根据所述面部关键点,确定所述目标对象的面部部位所在区域、以及确定所述目标对象的面部表情。
[0015]在一个实施例中,所述目标部位包括面部部位,所述互动模块还用于检测所述多媒体播放界面所播放的多媒体内容的播放进度;根据所述播放进度从预设的识别结果库中筛选出目标识别结果,并根据所述目标识别结果确定当前时刻所述目标对象的面部部位所在区域、以及确定所述目标对象的面部表情。
[0016]在一个实施例中,所述虚拟道具互动装置还用于获取多媒体应用所播放的多媒体内容,并按照预设的抽帧频率对所述多媒体内容进行抽帧处理,得到抽取出的多帧目标视频帧;针对每帧目标视频帧,均对当前目标视频帧中的目标对象进行识别,得到识别结果;其中,所述识别结果包括所述目标对象的面部部位所在区域、以及所述目标对象的面部表情;将每帧目标视频帧各自对应的识别结果进行存储,得到识别结果库。
[0017]在一个实施例中,所述虚拟道具互动装置还用于按照预设的抽帧频率对所述多媒体内容进行抽帧处理,得到抽取视频帧;根据所述抽帧频率对所述抽取视频帧进行缺帧检验,得到检验结果,并根据所述检验结果,对所述多媒体内容进行补充抽帧处理,得到补充视频帧;基于所述抽取视频帧和所述补充视频帧,得到多帧目标视频帧。
[0018]在一个实施例中,所述虚拟道具互动装置还用于确定每帧目标视频帧各自对应的播放进度,并按照预设的时间窗口和时间窗口移动步长,将所述目标视频帧的播放进度划分为多个播放进度区间;对应每个播放进度区间,确定落在当前播放进度区间内的各目标视频帧的识别结果之间的差异,并将差异小于差异阈值的识别结果进行合并;将合并后的识别结果进行存储,得到识别结果库。
[0019]在一个实施例中,所述虚拟道具互动装置还用于根据所述抽帧频率和所述多媒体播放界面播放多媒体内容的帧率,对所述识别结果库中的识别结果进行插值处理,得到插值结果;根据所述插值结果,确定所述多媒体内容中的目标对象的位置信息与播放进度之间的对应关系;根据所述对应关系,确定虚拟道具的轨迹曲线,并对所述轨迹曲线进行平滑优化处理,得到优化轨迹曲线;在所述多媒体播放界面中与所述目标对象对应的区域范围内显示互动动画,其中,所述互动动画中的虚拟道具按照所述优化轨迹曲线进行运动。
[0020]在一个实施例中,所述互动方式包括所述虚拟道具的展示效果、摆动幅度和摆动频率,所述互动模块还用于当所述目标对象的面部表情属于第一表情类别时,确定与所述目标对象的面部表情相匹配的目标互动方式为第一互动方式;当所述目标对象的面部表情属于第二表情类别时,确定与所述目标对象的面部表情相匹配的目标互动方式为第二互动方式;其中,处于第一互动方式的所述虚拟道具的展示效果、摆动幅度和摆动频率中的至少一种,不同于处于第二互动方式的所述虚拟道具。
[0021]在一个实施例中,所述互动模块还用于响应于对所述互动入口的触发操作,显示虚拟道具从所述互动入口处出现后,朝向所述目标对象的面部部位所在区域运动并进行互动的互动动画。
[0022]在一个实施例中,所述互动模块还用于展示互动动画,所述互动动画中的虚拟道具的数量为多个,多个所述虚拟道具运动至所述目标对象的面部部位所在区域后,环绕所述目标对象的面部部位进行互动,且每个虚拟道具均按照与所述目标对象的面部表情相匹配的互动方式进行互动。
[0023]在一个实施例中,所述互动模块还用于响应于对所述互动入口的触发操作,进入互动空间,并在所述互动空间中展示虚拟道具的互动控件;响应于对所述互动控件的指定
操作,在所述多媒体播放界面中与所述目标对象对应的区域范围内显示互动动画。
[0024]在一个实施例中,所述互动模块还用于确定当前进入所述互动空间的全部登录账号,并确定所述全部登录账号针对所述互动控件触发指定操作的第一操作次数;其中,所述登陆账号为观看所述多媒体播放界面所播放的多媒体内容的账号;在所述多媒体播放界面中与所述目标对象对应的区域范围内显示互动动画;其中,所述互动动画中所包括的虚拟道具的数量,随所述第一操作次数的累积而实时更新。
[0025]在一个实施例中,所述互动模块还用于根据所述第一操作次数,确定所述互动动画中所展示的虚拟道具的道具数量、以及所述虚拟道具的显示颜色;根据所述虚拟道具的显示颜色和所述虚拟道具的道具数量,在所述多媒体播放界面中与所述目标对象对应的区域范围内,显示互动动画。
[0026]在一个实施例中,所述虚拟对象互动装置还用于确定共同针对所述互动控件触发指定操作的全部登录账号的账号数量;在与所本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种虚拟道具互动方法,其特征在于,所述方法包括:展示多媒体播放界面,所述多媒体播放界面中显示有目标对象;在所述多媒体播放界面中显示互动入口;响应于对所述互动入口的触发操作,在所述多媒体播放界面中与所述目标对象对应的区域范围内显示互动动画,所述互动动画中包括有按照与所述目标对象的面部表情相匹配的互动方式进行互动的虚拟道具。2.根据权利要求1所述的方法,其特征在于,所述在所述多媒体播放界面中与所述目标对象对应的区域范围内显示互动动画,包括:检测所述多媒体播放界面中播放的所述目标对象的目标部位所在区域、以及所述目标对象的面部表情;获取与所述目标对象的面部表情相匹配的目标互动方式;在与所述目标部位所在区域相对应的区域范围内,显示包括有按照所述目标互动方式进行互动的虚拟道具的互动动画。3.根据权利要求2所述的方法,其特征在于,所述目标部位包括面部部位,所述检测所述多媒体播放界面中播放的所述目标对象的目标部位所在区域、以及所述目标对象的面部表情,包括:获取所述目标对象的面部特征;其中,所述面部特征从针对所述目标对象所采集的面部图像中提取得到;基于所述面部特征确定所述目标对象的面部关键点;根据所述面部关键点,确定所述目标对象的面部部位所在区域、以及确定所述目标对象的面部表情。4.根据权利要求2所述的方法,其特征在于,所述目标部位包括面部部位,所述检测所述多媒体播放界面中播放的所述目标对象的目标部位所在区域、以及所述目标对象的面部表情,包括:检测所述多媒体播放界面所播放的多媒体内容的播放进度;根据所述播放进度从预设的识别结果库中筛选出目标识别结果,并根据所述目标识别结果确定当前时刻所述目标对象的面部部位所在区域、以及确定所述目标对象的面部表情。5.根据权利要求4所述的方法,其特征在于,所述方法还包括:获取多媒体应用所播放的多媒体内容,并按照预设的抽帧频率对所述多媒体内容进行抽帧处理,得到抽取出的多帧目标视频帧;针对每帧目标视频帧,均对当前目标视频帧中的目标对象进行识别,得到识别结果;其中,所述识别结果包括所述目标对象的面部部位所在区域、以及所述目标对象的面部表情;将每帧目标视频帧各自对应的识别结果进行存储,得到识别结果库。6.根据权利要求5所述的方法,其特征在于,所述按照预设的抽帧频率对所述多媒体内容进行抽帧处理,得到抽取出的多帧目标视频帧,包括:按照预设的抽帧频率对所述多媒体内容进行抽帧处理,得到抽取视频帧;根据所述抽帧频率对所述抽取视频帧进行缺帧检验,得到检验结果,并根据所述检验结果,对所述多媒体内容进行补充抽帧处理,得到补充视频帧;
基于所述抽取视频帧和所述补充视频帧,得到多帧目标视频帧。7.根据权利要求5所述的方法,其特征在于,所述将每个目标视频帧各自对应的识别结果进行存储,得到识别结果库,包括:确定每帧目标视频帧各自对应的播放进度,并按照预设的时间窗口和时间窗口移动步长,将所述目标视频帧的播放进度划分为多个播放进度区间;对应每个播放进度区间,确定落在当前播放进度区间内的各目标视频帧的识别结果之间的差异,并将差异小于差异阈值的识别结果进行合并;将合并后的识别结果进行存储,得到识别结果库。8.根据权利要求5所述的方法,其特征在于,所述在所述多媒体播放界面中与所述目标对象对应的区域范围内显示互动动画,包括:根据所述抽帧频率和所述多媒体播放界面播放多媒体内容的帧率,对所述识别结果库中的识别结果进行插值处理,得到插值结果;根据所述插值结果,确定所述多媒体内容中的目标对象的位置信息与播放进度之间的对应关系;根据所述对应关系,确定虚拟道具的轨迹曲线,并对所述轨迹曲线进行平滑优化处理,得到优化轨迹曲线;在所述多媒体播放界面中与所述目标对象对应的区域范围内显示互动动画,其中,所述互动动画中的虚拟道具按照所述优化轨迹曲线进行运动。9.根据权利要求1所述的方法,其特征在于,所述互动方式包括所述虚拟道具的展示效果、摆动幅度和摆动频率,所述方法还包括:当所述目标对象的面部表情属于第一表情类别时,确定与所述目标对象的面部表情相匹配的目标互动方式为第一互动方式;当所述目标对象的面部表情属于第二表情类别时,确定与所述目标对象的面部表情相匹配的目标互动方式为第二互动方式;其中,处于第一互动方式的所述虚拟道具的展示效果、摆动幅度和摆动频率中的至少一种,不同于处于第二互动方式的所述虚拟道具。10.根据权利要求1所述的方法,其特征在于,所述响应于对所述互动入口的触发操作,在所述多媒体播放界面中与所述目标对象对应的区域范围内显示互动动画,包括:响应于对所述互动入口的触发操作,显示虚拟道具从所述互动入口处出现后,朝向所述目标对象的面部部位所在区域运动并进行互动的互动动画。11.根据权利要求10所述的方法,其特征在于,所述虚拟道具的数量为多个,多个所述虚拟道具运动至所述目标对象的面部部位所在区域后,环绕所述目标对象的面部部位进行互动,且每个虚拟道具均按照与所述目标对象的面部表情相匹配的互动方式进行互动。12.根据权利要求1所述的方法,其特征在于,所述响应于对所述互动入口的触发操作,在所述多媒体播放界面中与所述目标对象对应的区域范...

【专利技术属性】
技术研发人员:赵文琦夏巍高岚何婷沈招益郑天航
申请(专利权)人:腾讯科技深圳有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1