基于演唱场景的交互实现方法、介质及系统技术方案

技术编号:25716106 阅读:24 留言:0更新日期:2020-09-23 03:00
本发明专利技术公开了一种基于演唱场景的交互实现方法、介质及系统,其中该方法包括:通过摄像头实时获取控制对象的人体影像,并根据人体影像采集对应的人体数据信息,并将人体影像和人体数据信息发送给PC端;PC端根据人体数据信息进行融合处理以生成融合画面,并将融合画面发送给机顶盒;机顶盒根据移动终端的点播指令获取歌词数据信息,并在演唱过程中实时获取麦克风采集的音频信息以生成歌词进度画面,以及对歌词进度画面与融合画面进行组合处理以生成组合画面,并将组合画面发送给显示屏;显示屏对组合画面进行显示,以便实现控制对象与显示屏的虚拟现实交互;能够满足用户的交互需求,而且无需增加成本,大大提高了用户体验。

【技术实现步骤摘要】
基于演唱场景的交互实现方法、介质及系统
本专利技术涉及信息处理
,特别涉及一种基于演唱场景的交互实现方法、一种计算机可读存储介质、一种基于演唱场景的交互实现装置。
技术介绍
相关技术中,KTV包房的演唱形式较为单一,要么是通过电视屏显示演唱的mv视频,导致演唱者只能进行演唱,无法与电视屏显示的画面本身进行交互,从而导致用户操作感差,要么是需要佩戴虚拟设备才能进行虚拟交互,无形中增加了KTV场所的使用成本,而且大大降低了用户体验。
技术实现思路
本专利技术旨在至少在一定程度上解决上述技术中的技术问题之一。为此,本专利技术的一个目的在于提出一种基于演唱场景的交互实现方法,能够满足用户的交互需求,而且无需增加成本,大大提高了用户体验。本专利技术的第二个目的在于提出一种计算机可读存储介质。本专利技术的第三个目的在于提出一种基于演唱场景的交互实现系统。为达到上述目的,本专利技术第一方面实施例提出了一种基于演唱场景的交互实现方法,包括以下步骤:摄像头实时获取控制对象的人体影像,并根据所述人体影像采集对应的人体数据信息,并将所述人体影像和所述人体数据信息发送给PC端;所述PC端根据所述人体数据信息进行融合处理以生成融合画面,并将所述融合画面发送给机顶盒;所述机顶盒根据移动终端的点播指令获取歌词数据信息,并在演唱过程中实时获取麦克风采集的音频信息,以及根据所述实时获取的音频信息在所述歌词数据信息上生成歌词进度画面,以及对所述歌词进度画面与所述融合画面进行组合处理以生成组合画面,并将所述组合画面发送给显示屏;所述显示屏对所述组合画面进行显示,以便实现所述控制对象与所述显示屏的虚拟现实交互。根据本专利技术实施例的基于演唱场景的交互实现方法,首先通过摄像头实时获取控制对象的人体影像,并根据人体影像采集对应的人体数据信息,并将人体影像和人体数据信息发送给PC端,接着通过PC端根据人体数据信息进行融合处理以生成融合画面,并将融合画面发送给机顶盒,再接着机顶盒根据移动终端的点播指令获取歌词数据信息,并在演唱过程中实时获取麦克风采集的音频信息,以及根据实时获取的音频信息在歌词数据信息上生成歌词进度画面,以及对歌词进度画面与融合画面进行组合处理以生成组合画面,并将组合画面发送给显示屏,最后通过显示屏对组合画面进行显示,以便实现控制对象与显示屏的虚拟现实交互;从而实现用户直接与电视屏画面进行互动,无需佩戴设备,大大提高了用户体验。另外,根据本专利技术上述实施例提出的基于演唱场景的交互实现方法还可以具有如下附加的技术特征:可选地,所述PC端根据所述人体数据信息进行融合处理以生成融合画面,包括:通过所述PC端生成3D虚拟角色;对所述人体数据信息和所述3D虚拟角色进行融合处理以生成融合画面,以便所述3D虚拟角色同步所述控制对象的运动轨迹。可选地,所述PC端根据所述人体数据信息进行融合处理以生成融合画面,包括:所述PC端根据所述人体数据信息在所述人体影像的身体点位上增加动效效果以生成融合画面,以便所述人体影像同步所述控制对象的运动轨迹,并使所述动效效果跟随所述人体影像进行移动。可选地,所述控制对象通过移动终端扫码登录,以便所述机顶盒获取所述控制对象的点歌指令。可选地,所述机顶盒还根据所述控制对象的音频信息同步显示所述控制对象的演唱分数。为达到上述目的,本专利技术第二方面实施例提出了一种计算机可读存储介质,其上存储有基于演唱场景的交互实现程序,该基于演唱场景的交互实现程序被处理器执行时实现如上述的基于演唱场景的交互实现方法。根据本专利技术实施例的计算机可读存储介质,通过存储基于演唱场景的交互实现程序,以便处理器在执行该基于演唱场景的交互实现程序时实现如上述的基于演唱场景的交互实现方法,从而实现演唱者直接与电视屏画面进行互动,无需佩戴设备,大大提高了用户体验。为达到上述目的,本专利技术第三方面实施例提出了一种基于演唱场景的交互实现系统,包括摄像头、PC端、机顶盒和显示屏,其中,所述摄像头实时获取控制对象的人体影像,并根据所述人体影像采集对应的人体数据信息,并将所述人体影像和所述人体数据信息发送给PC端;所述PC端根据所述人体数据信息进行融合处理以生成融合画面,并将所述融合画面发送给机顶盒;所述机顶盒根据移动终端的点播指令获取歌词数据信息,并在演唱过程中实时获取麦克风采集的音频信息,以及根据所述实时获取的音频信息在所述歌词数据信息上生成歌词进度画面,以及对所述歌词进度画面与所述融合画面进行组合处理以生成组合画面,并将所述组合画面发送给显示屏;所述显示屏对所述组合画面进行显示,以便实现所述控制对象与所述显示屏的虚拟现实交互。根据本专利技术实施例的基于演唱场景的交互实现系统,通过摄像头实时获取控制对象的人体影像,并根据人体影像采集对应的人体数据信息,并将人体影像和人体数据信息发送给PC端;PC端根据人体数据信息进行融合处理以生成融合画面,并将融合画面发送给机顶盒;机顶盒根据移动终端的点播指令获取歌词数据信息,并在演唱过程中实时获取麦克风采集的音频信息,以及根据实时获取的音频信息在歌词数据信息上生成歌词进度画面,以及对歌词进度画面与融合画面进行组合处理以生成组合画面,并将组合画面发送给显示屏;显示屏对组合画面进行显示,以便实现控制对象与显示屏的虚拟现实交互,从而实现用户直接与电视屏画面进行互动,无需佩戴设备,大大提高了用户体验。另外,根据本专利技术上述实施例提出的基于演唱场景的交互实现系统还可以具有如下附加的技术特征:可选地,所述PC端还用于,生成3D虚拟角色,对所述人体数据信息和所述3D虚拟角色进行融合处理以生成融合画面,以便所述3D虚拟角色同步所述控制对象的运动轨迹。可选地,所述PC端还用于,根据所述人体数据信息在所述人体影像的身体点位上增加动效效果以生成融合画面,以便所述人体影像同步所述控制对象的运动轨迹,并使所述动效效果跟随所述人体影像进行移动。可选地,所述机顶盒还用于,根据所述控制对象的音频信息同步显示所述控制对象的演唱分数。附图说明图1为根据本专利技术实施例的基于演唱场景的交互实现方法的流程示意图;图2为根据本专利技术另一实施例的数据采集及角色展示的流程效果示意图;图3为根据本专利技术另一实施例的电视屏的显示效果示意图;图4为根据本专利技术实施例的基于演唱场景的交互实现系统的方框示意图。具体实施方式下面详细描述本专利技术的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本专利技术,而不能理解为对本专利技术的限制。为了更好的理解上述技术方案,下面将参照附图更详细地描述本专利技术的示例性实施例。虽然附图中显示了本专利技术的示例性实施例,然而应当理解,可以以各种形式实现本专利技术而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本专利技术,并且能够将本专利技术的范围完整的传达给本领域的技术人员。为了更本文档来自技高网...

【技术保护点】
1.一种基于演唱场景的交互实现方法,其特征在于,包括以下步骤:/n摄像头实时获取控制对象的人体影像,并根据所述人体影像采集对应的人体数据信息,并将所述人体影像和所述人体数据信息发送给PC端;/n所述PC端根据所述人体数据信息进行融合处理以生成融合画面,并将所述融合画面发送给机顶盒;/n所述机顶盒根据移动终端的点播指令获取歌词数据信息,并在演唱过程中实时获取麦克风采集的音频信息,以及根据所述实时获取的音频信息在所述歌词数据信息上生成歌词进度画面,以及对所述歌词进度画面与所述融合画面进行组合处理以生成组合画面,并将所述组合画面发送给显示屏;/n所述显示屏对所述组合画面进行显示,以便实现所述控制对象与所述显示屏的虚拟现实交互。/n

【技术特征摘要】
1.一种基于演唱场景的交互实现方法,其特征在于,包括以下步骤:
摄像头实时获取控制对象的人体影像,并根据所述人体影像采集对应的人体数据信息,并将所述人体影像和所述人体数据信息发送给PC端;
所述PC端根据所述人体数据信息进行融合处理以生成融合画面,并将所述融合画面发送给机顶盒;
所述机顶盒根据移动终端的点播指令获取歌词数据信息,并在演唱过程中实时获取麦克风采集的音频信息,以及根据所述实时获取的音频信息在所述歌词数据信息上生成歌词进度画面,以及对所述歌词进度画面与所述融合画面进行组合处理以生成组合画面,并将所述组合画面发送给显示屏;
所述显示屏对所述组合画面进行显示,以便实现所述控制对象与所述显示屏的虚拟现实交互。


2.如权利要求1所述的基于演唱场景的交互实现方法,其特征在于,所述PC端根据所述人体数据信息进行融合处理以生成融合画面,包括:
通过所述PC端生成3D虚拟角色;
对所述人体数据信息和所述3D虚拟角色进行融合处理以生成融合画面,以便所述3D虚拟角色同步所述控制对象的运动轨迹。


3.如权利要求1所述的基于演唱场景的交互实现方法,其特征在于,所述PC端根据所述人体数据信息进行融合处理以生成融合画面,包括:
所述PC端根据所述人体数据信息在所述人体影像的身体点位上增加动效效果以生成融合画面,以便所述人体影像同步所述控制对象的运动轨迹,并使所述动效效果跟随所述人体影像进行移动。


4.如权利要求1-3中任一项所述的基于演唱场景的交互实现方法,其特征在于,所述控制对象通过移动终端扫码登录,以便所述机顶盒获取所述控制对象的点歌指令。


5.如权利要求1-3中任一项所述的基于演唱场景的交互实现方法,其特征在于,所述机顶盒还根据所述控制对象的音频信息同步显示所...

【专利技术属性】
技术研发人员:不公告发明人
申请(专利权)人:厦门友唱科技有限公司
类型:发明
国别省市:福建;35

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1