一种虚拟现实多视角融合模型的设计方法技术

技术编号:29585672 阅读:46 留言:0更新日期:2021-08-06 19:44
本发明专利技术公开一种虚拟现实多视角融合模型的设计方法,包括以下步骤:根据交互任务,采集视角类型,获得主视角、辅助视角以及主视角、辅助视角之间的配置模式和融合方法;根据配置模式和融合方法,构建多视角融合模型,多视角融合模型用于获得主视角图像和辅助视角图像,并将辅助视角图像融合到主视角图像中,获得多视角融合图像。本发明专利技术的多视角融合模型设计方法,使用户根据交互任务对用户空间感知与交互精度的不同需求与对辅助视角在信息丰富程度、直观性和用户介入程度三个方面的需求,先后确定主辅视角的配置模式和辅助视角的融合方法,以确定合适的多视角融合模型,为用户提供周围环境的空间信息,保证肢体运动姿态的正确性与交互的自然性。

【技术实现步骤摘要】
一种虚拟现实多视角融合模型的设计方法
本专利技术涉及虚拟现实多视角融合领域,特别是涉及一种虚拟现实多视角融合模型的设计方法。
技术介绍
高功率密度综合传动装置的结构紧凑复杂,良好人机工效是提升产品装配质量的关键,然而难以在概念设计阶段考虑。虚拟现实技术具有沉浸性和交互性,虽可进行更具代入感和真实性的人机工效评价。然而,目前的虚拟现实系统,用户由于无法感知视场之外的空间信息,难以保证虚拟装配中装配姿态仿真的实时正确性,因此只能实现固定动作的静态评价。为保证人机工效评价的装配姿态仿真正确性,虚拟现实环境需要具有全身碰撞反馈功能。而目前为用户提供碰撞反馈的触觉反馈设备直接对用户的身体施加物理刺激来模拟触觉,设备昂贵,且具有局限性。比如,可穿戴设备会限制或干扰工人的自然运动。基于机械臂的触觉反馈设备只能在单一点施加力,不能提供全身的触觉反馈。振动触觉反馈套装会对使用者的运动造成限制,降低姿态仿真精度。目前的研究表明,第一人称视角1PP适用于手部精细交互任务,为用户提供更好的手、手臂的位置感知,具有更高的交互准确性和效率。缺点是用户的视野本文档来自技高网...

【技术保护点】
1.一种虚拟现实多视角融合模型的设计方法,其特征在于:包括以下步骤:/n根据交互任务,采集视角类型,获得主视角、辅助视角以及所述主视角、所述辅助视角之间的配置模式和融合方法;/n根据所述配置模式和所述融合方法,构建多视角融合模型,所述多视角融合模型用于获得主视角图像和辅助视角图像,并将所述辅助视角图像融合到所述主视角图像中,获得多视角融合图像。/n

【技术特征摘要】
1.一种虚拟现实多视角融合模型的设计方法,其特征在于:包括以下步骤:
根据交互任务,采集视角类型,获得主视角、辅助视角以及所述主视角、所述辅助视角之间的配置模式和融合方法;
根据所述配置模式和所述融合方法,构建多视角融合模型,所述多视角融合模型用于获得主视角图像和辅助视角图像,并将所述辅助视角图像融合到所述主视角图像中,获得多视角融合图像。


2.根据权利要求1所述的虚拟现实多视角融合模型的设计方法,其特征在于:
在采集所述视角类型的过程中,所述视角类型至少包括主视角类型、辅助视角类型,所述主视角类型和所述辅助视角类型分别包括第一人称视角或第三人称视角。


3.根据权利要求2所述的虚拟现实多视角融合模型的设计方法,其特征在于:
在获得所述配置模式的过程中,将所述主视角类型设置为第一人称视角,将所述辅助视角类型设置为第三人称视角。


4.根据权利要求2所述的虚拟现实多视角融合模型的设计方法,其特征在于:
在获得所述配置模式的过程中,将所述主视角类型设置为第三人称视角,将所述辅助视角类型设置为第一人称视角。


5.根据权利要求3所述的虚拟现实多视角融合模型的设计方法,其特征在于:
根据所述配置模式,获得所述融合方法,用于表示将所述第三人称视角通过不同的图像融合方...

【专利技术属性】
技术研发人员:姚寿文栗丽辉王瑀胡子然兰泽令
申请(专利权)人:北京理工大学
类型:发明
国别省市:北京;11

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1