一种网络直播中自动匹配特效的方法、系统及设备技术方案

技术编号:15570319 阅读:56 留言:0更新日期:2017-06-10 03:47
本发明专利技术提供了本发明专利技术提供的一种网络直播中自动匹配特效的方法、系统及设备,该方法包括将触发行为与特效信息绑定后存储在所述直播设备中;实时获取直播过程中的直播行为,并与存储的触发行为进行匹配,匹配成功后,调取与所述触发行为绑定的特效信息,并将所述特效信息匹配至所述直播行为的相应位置。本发明专利技术涉及一种基于动作识别与语音识别或其之间的相互配合来执行与特效匹配的操作,无须手动操作,有效避免直播实际场景中主播距离手持设备较远、不方便与手持设备直接手势交互的选择问题,增加交互的趣味性。

Method, system and equipment for automatically matching special effects in network live broadcast

The present invention provides a method and automatic matching of specific broadcast system and network equipment provided by the invention, the method includes the trigger binding behavior and effects of information stored in the broadcast equipment; real-time broadcast behavior during the live broadcast, and storage contact issued for matching, matching success the transfer, and the trigger effects of information behavior of binding of the corresponding position and the specific information, to the live action. The invention relates to a coordination action recognition and speech recognition or between them is performed based on the special effects and matching operation, without manual operation, effectively avoid the problem of choosing live anchor in the actual scene, not far from a handheld device and handheld devices directly facilitate gesture interaction, increase the interest of interaction.

【技术实现步骤摘要】

本专利技术涉及互联网直播
,尤其涉及一种网络直播中自动匹配特效的方法、系统及设备
技术介绍
随着互联网直播行业火速发展,一线垂直领域(生活、电商、美妆、娱乐等)也开始融入直播模式,由其是主播行业的真人展示、才艺大比拼等展现方式使直播的场景更加多元化。主播不同于现在的主持人,主持人只是单纯的做主持工作,将一段一段的节目串联起来。而主播要做的工作更多,策划、编辑、采访、制作、导播、主持等一系列工作大都是由主播负责,不是全部但也会参与。主播是一个很全面的工作,包括主持人。专利技术人在研究的过程中发现,在多元化的互动场景中,主播在需要空间较大的情况下展示才艺时,手拿直播设备进行互动时非常不便,也影响画面清晰度,如主播在跳舞,乐器弹奏,电商购物中真人全身展示等需要直播空间较大的情况下,通常会与直播设备距离一定的距离,互动的时候,则需要停止才艺展示,回到直播设备前进行操作才可以进行特效匹配,不能在互动中实时进行特效匹配,影响互动体验。因此,伴随着丰富的直播场景,急需一种远程操控技术解决在直播实际场景中主播距离直播设备较远、不方便与直播设备直接手势交互的技术问题。
技术实现思路
本专利技术的主要目的在于提供一种网络直播中自动匹配特效的方法、系统及设备,涉及一种基于动作识别与声控配合来执行操作,有效避免直播实际场景中主播距离直播设备较远、不方便与直播设备直接手势交互的选择问题,增加交互的趣味性。本专利技术一方面提供了一种网络直播中自动匹配特效的方法,包括:将触发行为与特效信息绑定后存储在所述直播设备中;实时获取直播过程中的直播行为,并与存储的触发行为进行匹配,匹配成功后,调取与所述触发行为绑定的特效信息,并将所述特效信息匹配至所述直播行为的相应位置。进一步的,所述将触发行为与特效信息绑定后存储在所述直播设备中,之前,还包括:获取服务器中存储的特效信息;上传所述特效信息中特定的特效信息的触发行为;所述触发行为包括但不限于肢体动作和/或音频信息;或将直播设备中存储的图片生成静态、动态或动静结合的特效信息,上传所述特效信息的触发行为;所述触发行为包括但不限于肢体动作和/或音频信息。进一步的,所述实时获取直播过程中的直播行为,并与存储的触发行为进行匹配,包括:实时获取网络直播界面中采集的直播行为,提取所述直播行为中的肢体动作和/或语音信息中的字段,将提取的肢体动作和/或语音信息中的字段与存储的触发行为中的肢体动作和/或语音字段进行匹配。进一步的,将所述特效信息匹配至所述直播行为的相应位置,包括:获取直播过程中人物的画面轮廓信息,计算画面轮廓信息与屏幕之间的面积信息,基于所述面积信息将所述特效信息等比匹配至所述直播行为的相应位置;或获取直播过程中人物的画面轮廓信息,计算画面轮廓信息的位置信息,基于所述位置信息将所述特效信息匹配至所述直播行为的相应位置。进一步的,所述将直播过程中实时获取的直播行为与存储的触发行为进行匹配,匹配成功后,调取与所述触发行为绑定的特效信息,包括:实时获取直播过程中的肢体动作直播行为;将所述肢体动作直播行为与存储的肢体动作触发行为进行匹配;匹配成功后,调取与所述肢体动作触发行为绑定的特效信息;和/或实时获取直播过程中的音频信息直播行为;将所述音频信息直播行为与存储的音频信息触发行为进行匹配;匹配成功后,调取与所述音频信息触发行为绑定的特效信息;或实时获取直播过程中的肢体动作直播行为;将所述肢体动作直播行为与存储的肢体动作触发行为进行匹配;匹配失败后,将所述音频信息直播行为与存储的音频信息触发行为进行匹配;匹配成功后,调取与所述音频信息触发行为绑定的特效信息;或将所述音频信息直播行为与存储的音频信息触发行为进行匹配;匹配失败后,将所述肢体动作直播行为与存储的肢体动作触发行为进行匹配;匹配成功后,调取与所述肢体动作触发行为绑定的特效信息。本专利技术另一方面还提供了一种网络直播中自动匹配特效的方法,包括:接收直播设备发送的获取特效信息请求;将所述特效信息发送至所述直播设备中。本专利技术另一方面还提供了一种网络直播中自动匹配特效的系统,包括:绑定模块,用于将触发行为与特效信息绑定后存储在所述直播设备中;匹配模块,用于实时获取直播过程中的直播行为,并与存储的触发行为进行匹配,匹配成功后,调取与所述触发行为绑定的特效信息,并将所述特效信息匹配至所述直播行为的相应位置。进一步的,还包括:第一上传模块,用于获取服务器中存储的特效信息;上传所述特效信息中特定的特效信息的触发行为;所述触发行为包括但不限于肢体动作和/或音频信息;或第二上传模块,用于将直播设备中存储的图片生成静态、动态或动静结合的特效信息,上传所述特效信息的触发行为;所述触发行为包括但不限于肢体动作和/或音频信息。进一步的,所述匹配模块,包括:第一匹配单元,用于实时获取网络直播界面中采集的直播行为,提取所述直播行为中的肢体动作和/或语音信息中的字段,将提取的肢体动作和/或语音信息中的字段与存储的触发行为中的肢体动作和/或语音字段进行匹配;第二匹配单元,用于获取直播过程中人物的画面轮廓信息,计算画面轮廓信息与屏幕之间的面积信息,基于所述面积信息将所述特效信息等比匹配至所述直播行为的相应位置;或用于获取直播过程中人物的画面轮廓信息,计算画面轮廓信息的位置信息,基于所述位置信息将所述特效信息匹配至所述直播行为的相应位置。进一步的,所述匹配模块,还包括:第一匹配子单元,用于实时获取直播过程中的肢体动作直播行为;将所述肢体动作直播行为与存储的肢体动作触发行为进行匹配;匹配成功后,调取与所述肢体动作触发行为绑定的特效信息;和/或第二匹配子单元,用于实时获取直播过程中的音频信息直播行为;将所述音频信息直播行为与存储的音频信息触发行为进行匹配;匹配成功后,调取与所述音频信息触发行为绑定的特效信息;或第三匹配子单元,用于实时获取直播过程中的肢体动作直播行为;将所述肢体动作直播行为与存储的肢体动作触发行为进行匹配;匹配失败后,将所述音频信息直播行为与存储的音频信息触发行为进行匹配;匹配成功后,调取与所述音频信息触发行为绑定的特效信息;或第四匹配子单元,用于将所述音频信息直播行为与存储的音频信息触发行为进行匹配;匹配失败后,将所述肢体动作直播行为与存储的肢体动作触发行为进行匹配;匹配成功后,调取与所述肢体动作触发行为绑定的特效信息。本专利技术另一方便还提供了一种网络直播中自动匹配特效的系统,包括:接收模块,用于接收直播设备发送的获取特效信息请求;发送模块,用于将所述特效信息发送至所述直播设备中。本专利技术另一方面还提供了一种网络直播中自动匹配特效的设备,包括前述任一项所述的系统。本专利技术提供一种网络直播中自动匹配特效的方法、系统及设备,该专利技术将触发行为与特效信息绑定后存储在所述直播设备中;实时获取直播过程中的直播行为,并与存储的触发行为进行匹配,匹配成功后,调取与所述触发行为绑定的特效信息,并将所述特效信息匹配至所述直播行为的相应位置。通过本专利技术提供的网络直播中自动匹配特效的方法、系统及设备,涉及一种基于动作识别与语音识别或其之间的相互配合来执行与特效匹配的操作,无须手动操作,有效避免直播实际场景中主播距离手持设备较远、不方便与手持设备直接手势交互的选择问题,增加交互的本文档来自技高网...
一种网络直播中自动匹配特效的方法、系统及设备

【技术保护点】
一种网络直播中自动匹配特效的方法,其特征在于,包括:将触发行为与特效信息绑定后存储在所述直播设备中;实时获取直播过程中的直播行为,并与存储的触发行为进行匹配,匹配成功后,调取与所述触发行为绑定的特效信息,并将所述特效信息匹配至所述直播行为的相应位置。

【技术特征摘要】
1.一种网络直播中自动匹配特效的方法,其特征在于,包括:将触发行为与特效信息绑定后存储在所述直播设备中;实时获取直播过程中的直播行为,并与存储的触发行为进行匹配,匹配成功后,调取与所述触发行为绑定的特效信息,并将所述特效信息匹配至所述直播行为的相应位置。2.如权利要求1所述的方法,其特征在于,所述将触发行为与特效信息绑定后存储在所述直播设备中,之前,还包括:获取服务器中存储的特效信息;上传所述特效信息中特定的特效信息的触发行为;所述触发行为包括但不限于肢体动作和/或音频信息;或将直播设备中存储的图片生成静态、动态或动静结合的特效信息,上传所述特效信息的触发行为;所述触发行为包括但不限于肢体动作和/或音频信息。3.如权利要求1或2所述的方法,其特征在于,所述实时获取直播过程中的直播行为,并与存储的触发行为进行匹配,包括:实时获取网络直播界面中采集的直播行为,提取所述直播行为中的肢体动作和/或语音信息中的字段,将提取的肢体动作和/或语音信息中的字段与存储的触发行为中的肢体动作和/或语音字段进行匹配。4.如权利要求1-3之一所述的方法,其特征在于,将所述特效信息匹配至所述直播行为的相应位置,包括:获取直播过程中人物的画面轮廓信息,计算画面轮廓信息与屏幕之间的面积信息,基于所述面积信息将所述特效信息等比匹配至所述直播行为的相应位置;或获取直播过程中人物的画面轮廓信息,计算画面轮廓信息的位置信息,基于所述位置信息将所述特效信息匹配至所述直播行为的相应位置。5.如权利要求1-4之一所述的方法,其特征在于,所述实时获取直播过程中的直播行为,并与存储的触发行为进行匹配,匹配成功后,调取与所述触发行为绑定的特效信息,包括:实时获取直播过程中的肢体动作直播行为;将所述肢体动作直播行为与存储的肢体动作触发行为进行匹配;匹配成功后,调取与所述肢体动作触发行为绑定的特效信息;和/或实时获取直播过程中的音频信息直播行为;将所述音频信息直播行为与存储的音频信息触发行为进行匹配;匹配成功后,调取与所述音频信息触发行为绑定的特效信息;或实时获取直播过程中的肢体动作直播行为;将所述肢体动作直播行为与存储的肢体动作触发行为进行匹配;匹配失败后,将所述音频信息直播行为与存储的音频信息触发行为进行匹配;匹配成功后,调取与所述音频信息触发行为绑定的特效信息;或将所述音频信息直播行为与存储的音频信息触发行为进行匹配;匹配失败后,将所述肢体动作直播行为与存储的肢体动作触发行为进行匹配;匹配成功后,调取与所述肢体动作触发行...

【专利技术属性】
技术研发人员:李瑞春曾骁李明杰潘柏宇谢菲
申请(专利权)人:合一网络技术北京有限公司
类型:发明
国别省市:北京;11

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1