【技术实现步骤摘要】
一种基于虚幻引擎的多机位渲染方法与装置
[0001]本专利技术属于虚拟人
,涉及通过真人映射虚拟人进行直播的技术,具体涉及虚拟人渲染方法与装置。
技术介绍
[0002]随着数字化虚拟形象的兴起和三维建模技术的成熟,三维虚拟人直播的应用场景越来越多。借助多样的虚拟人形象和三维虚拟场景,可突破现实世界的局限,轻松实现上天入地的直播场景切换并集成最合适的主播形象、声音及动作,带给观众一场视听盛宴。虚幻引擎(Unreal Engine)是一款由Epic Games开发的具有强大开发功能和开源策略的三维渲染引擎。在基于真人表演实时驱动虚拟人过程中,如何保证低延时、音画同步、口型对应是较难解决的技术问题。
[0003]申请号为CN202211114839.9的专利申请公开了一种虚拟主播角色模型和语音数据叠加摄录视频系统,通过摄录视频系统采集真人动作数据,采集真人音频数据,并建立保存三维场景数据的场景数据库。然后,根据采集的动作数据和语音数据进行数据处理并使虚拟模型产生相应的动作和口型运动;最后,在三维场景中对运动的虚拟模型进行拍摄并结合音频数据输出完整的音像数据。该系统存在的不足在于:1.数据处理复杂:现有方案使用过程中,需现将采集到的音频数据预处理成发音数据,再将发音数据处理成与动作采集模块采集的数据一致的矢量加载数据组。然后通过运行矢量加载数据组使虚拟人的肢体动作、口型动作与音频数据保持一致。在此过程中,数据处理量大且对数据的计算和处理能力要求高。
[0004]2.不具备实时性:现有方案中,采集到的音频 ...
【技术保护点】
【技术特征摘要】
1.一种基于虚幻引擎的多机位渲染方法,其特征在于,包括如下步骤:步骤S1、创建三维的虚拟人模型,并在虚幻引擎中导入三维的虚拟人模型;步骤S2、实时采集真人肢体动作数据、面部表情数据、口型数据并输出到虚幻引擎;步骤S3、虚幻引擎根据直人实时肢体动作数据、面部表情数据、口型数据实时渲染虚拟人模型使虚拟人呈现与真人同步的肢体动作、面部表情、口型;多机位实时拍摄虚拟人并将各机位生成的即时视频数据分别输出到导播设备;步骤S4、实时采集真人音频数据,并输出到导播设备;步骤S5、导播设备错时选择不同机位的视频数据与音频数据一起制做形成节目数据并输出给展示终端。2.根据权利要求1所述的基于虚幻引擎的多机位渲染方法,其特征在于,所述步骤S1包括如下步骤:S1
‑
1,在虚幻引擎中搭建场景:新建或者调用预设的目标场景,并在目标场景中各目标机位分别设置虚拟摄像机;S1
‑
2,建立模型:调用预设的三维虚拟人物模型,并配置虚拟人肢体动作运动节点、面部表情运动节点、唇部动作运动节点。3.根据权利要求1所述的基于虚幻引擎的多机位渲染方法,其特征在于,所述步骤S2包括如下步骤:S2
‑
1,利用动作捕捉设备捕捉真人肢体动作运动节点的运动信号,分析获得各肢体动作运动节点当前位置数据或者相对于上一时刻的位移数据作为真人当前肢体动作数据;S2
‑
2,利用面部捕捉设备捕捉真人面部表情运动节点和唇部动作运动节点的运动信号,分析获得各面部表情运动节点当前位置数据或者相对于上一时刻的位移数据作为真人当前面部表情数据;分析获得各唇部动作运动节点当前位置数据或者相对于上一时刻的位移数据作为真人当口型数据。4.根据权利要求1所述的基于虚幻引擎的多机位渲染方法,其特征在于,所述步骤S3包括如下步骤:S3
‑
1,虚幻引擎实时接收真人当前肢体动作数据、面部表情数据、口型数据;S3
‑
2,并根据真人各运动节点的当前位置数据或者相对于上一时刻的位移数据即时更新虚拟人模型各运动节点当前位置;S3
‑
3,各虚拟摄像机分别从不同方位对虚拟人模型进行摄像,并生成各个机位的即时视频数据,然后分别输出到导播设备。5.根据权利要求1所述的基于虚幻引擎的多机位渲染方法,其特征在于,所述步骤S4包括如下步骤:S4
‑
1,利用录音设备实时采集真人当前发出的声音,并将生成的音频数据输出到导播设备。6.根据权利要求1所述的基于虚幻引擎的多机位渲染方法,其特征在于,所述步骤S5包括如下步骤:S5
‑
1,导播设备实时接收虚幻引擎的各虚拟摄像机发送的各机位即时视频数据;实时接收录音设备发送的音频数据;S5
‑
2,导播设备根据预设机位切换方案或者用户手动输入的最新切换指令,选择相应
机位的视频数据与音频数据组合形成节目数据并输出给播放展示前端。7.根据权利要求6所述的基于虚幻引擎的多机位渲染方法,其特征在于,在步骤S5
‑
2中,在合成节目数...
【专利技术属性】
技术研发人员:钱代友,贺波,吴昌,杨鹏,吴孟超,
申请(专利权)人:杭州趣看科技有限公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。