增强现实视场空间和虚拟三维目标动态配准方法技术

技术编号:14246021 阅读:101 留言:0更新日期:2016-12-22 02:09
本发明专利技术公开了一种增强现实视场空间和虚拟三维目标动态配准方法,包括以下步骤:获取真实场景信息和相机位置信息;通过图像系统首先根据相机的位置信息和真实场景中的定位标记来计算虚拟物体坐标到相机视平面的仿射变换,按照仿射变换矩阵在视平面上绘制虚拟物体,通过光学透视头盔显示器显示,得到增强现实系统图像;对图像进行二值化分割,根据分割后图像的灰度特性判断哪些部分属于环境背景,哪些部分属于标志物;对二值图像做连通域分析,在图像中搜索面积较大的黑色像素区域来确定标识投影区域;在标识投影区域上提取曲率变化较大的点,从而定义连通域的形状;在图像系统中将连通域的形状与三维模型对应起来,得出标识物的正确三维模型。

【技术实现步骤摘要】

本专利技术涉及图像处理领域,尤其涉及一种增强现实视场空间和虚拟三维目标动态配准方法
技术介绍
增强现实系统中,配准主要是指计算机产生的虚拟物体与用户周围的真实环境全方位对准。要求用户在真实环境的运动过程中维持正确的配准关系,较大的配准误差不仅使用户不能从感官上确认虚拟物体在真实环境中的存在性和一体性,甚至会改变用户对周围环境的感觉,严重的配准误差甚至会导致完全错误的行为。有鉴于上述的缺陷,本设计人,积极加以研究创新,以期创设一种增强现实视场空间和虚拟三维目标动态配准方法,使其更具有产业上的利用价值。
技术实现思路
为解决上述技术问题,本专利技术的目的是提供一种能够保证正确的配准关系,提高配准精度的增强现实视场空间和虚拟三维目标动态配准方法。本专利技术提出的一种增强现实视场空间和虚拟三维目标动态配准方法,其特征在于:包括以下步骤:步骤(1):获取真实场景信息和相机位置信息;步骤(2):通过图像系统首先根据相机的位置信息和真实场景中的定位标记来计算虚拟物体坐标到相机视平面的仿射变换,然后按照仿射变换矩阵在视平面上绘制虚拟物体,最后直接通过光学透视头盔显示器显示,得到增强现实系统图像;步骤(3):对光学透视头盔显示器显示的图像进行二值化分割,根据分割后图像的灰度特性判断增强现实系统图像中哪些部分属于环境背景,哪些部分属于标志物;步骤(4):对二值图像做连通域分析,通过在二值图像中搜索面积较大的黑色像素区域来确定标识投影区域;步骤(5):在标识投影区域上提取曲率变化较大的点,从而精确定义连通域的形状;步骤(6):在图像系统中将连通域的形状与三维模型对应起来,得出匹配结果,根据匹配结果得出标识物的正确三维模型。进一步的,步骤(1)中所述的获取真实场景信息和相机位置信息的方式是通过采用摄像装置及光敏器件接收具有几何分布的光源和图像,然后通过计算获得信息。进一步的,步骤(2)中所述计算虚拟物体坐标到相机视平面的仿射变换的方式是通过空间点的三维坐标位置选择真实场景中的虚拟物体。进一步的,步骤(3)中所述的二值化分割方式是采用直方图阈值分割法。进一步的,步骤(4)中所述的连通域分析包括以下步骤:步骤(4.1):从整个二值图像中搜索黑色像素,搜索从图像的左上角开始,以行序为准依次进行;步骤(4.2):对于一个检测到的黑色像素,将其标志位设置为已扫描,并构建以该像素为中心的大小我3*3的搜索临域;步骤(4.3):以递归的方式在上一步中构建的搜索临域内查找黑色像素,同时根据查找结果重新构建搜索临域;步骤(4.4):重复上述递归过程直到无法获取新的黑色像素为止,并将这些位置相邻的黑色像素纳入同一个连通域;步骤(4.5):继续检查下一个未扫描像素,查找更多的连通区域。进一步的,步骤(5)中所述的提取曲率变化较大的点为每一个连通域上四个曲率变化较大的角点。借由上述方案,本专利技术至少具有以下优点:该增强现实视场空间和虚拟三维目标动态配准方法能够保证正确的配准关系,提高配准精度,提高用户感官上的真实性。上述说明仅是本专利技术技术方案的概述,为了能够更清楚了解本专利技术的技术手段,并可依照说明书的内容予以实施,以下以本专利技术的较佳实施例详细说明如后。具体实施方式下面结合实施例,对本专利技术的具体实施方式作进一步详细描述。以下实施例用于说明本专利技术,但不用来限制本专利技术的范围。实施例:一种增强现实视场空间和虚拟三维目标动态配准方法,包括以下步骤:步骤(1):获取真实场景信息和相机位置信息;步骤(2):通过图像系统首先根据相机的位置信息和真实场景中的定位标记来计算虚拟物体坐标到相机视平面的仿射变换,然后按照仿射变换矩阵在视平面上绘制虚拟物体,最后直接通过光学透视头盔显示器显示,得到增强现实系统图像;步骤(3):对光学透视头盔显示器显示的图像进行二值化分割,根据分割后图像的灰度特性判断增强现实系统图像中哪些部分属于环境背景,哪些部分属于标志物;步骤(4):对二值图像做连通域分析,通过在二值图像中搜索面积较大的黑色像素区域来确定标识投影区域;步骤(5):在标识投影区域上提取曲率变化较大的点,从而精确定义连通域的形状;步骤(6):在图像系统中将连通域的形状与三维模型对应起来,得出匹配结果,根据匹配结果得出标识物的正确三维模型。步骤(1)中所述的获取真实场景信息和相机位置信息的方式是通过采用摄像装置及光敏器件接收具有几何分布的光源和图像,然后通过计算获得信息。步骤(2)中所述计算虚拟物体坐标到相机视平面的仿射变换的方式是通过空间点的三维坐标位置选择真实场景中的虚拟物体。步骤(3)中所述的二值化分割方式是采用直方图阈值分割法。步骤(4)中所述的连通域分析包括以下步骤:步骤(4.1):从整个二值图像中搜索黑色像素,搜索从图像的左上角开始,以行序为准依次进行;步骤(4.2):对于一个检测到的黑色像素,将其标志位设置为已扫描,并 构建以该像素为中心的大小我3*3的搜索临域;步骤(4.3):以递归的方式在上一步中构建的搜索临域内查找黑色像素,同时根据查找结果重新构建搜索临域;步骤(4.4):重复上述递归过程直到无法获取新的黑色像素为止,并将这些位置相邻的黑色像素纳入同一个连通域;步骤(4.5):继续检查下一个未扫描像素,查找更多的连通区域。步骤(5)中所述的提取曲率变化较大的点为每一个连通域上四个曲率变化较大的角点。以上所述仅是本专利技术的优选实施方式,并不用于限制本专利技术,应当指出,对于本
的普通技术人员来说,在不脱离本专利技术技术原理的前提下,还可以做出若干改进和变型,这些改进和变型也应视为本专利技术的保护范围。本文档来自技高网
...

【技术保护点】
一种增强现实视场空间和虚拟三维目标动态配准方法,其特征在于:包括以下步骤:步骤(1):获取真实场景信息和相机位置信息;步骤(2):通过图像系统首先根据相机的位置信息和真实场景中的定位标记来计算虚拟物体坐标到相机视平面的仿射变换,然后按照仿射变换矩阵在视平面上绘制虚拟物体,最后直接通过光学透视头盔显示器显示,得到增强现实系统图像;步骤(3):对光学透视头盔显示器显示的图像进行二值化分割,根据分割后图像的灰度特性判断增强现实系统图像中哪些部分属于环境背景,哪些部分属于标志物;步骤(4):对二值图像做连通域分析,通过在二值图像中搜索面积较大的黑色像素区域来确定标识投影区域;步骤(5):在标识投影区域上提取曲率变化较大的点,从而精确定义连通域的形状;步骤(6):在图像系统中将连通域的形状与三维模型对应起来,得出匹配结果,根据匹配结果得出标识物的正确三维模型。

【技术特征摘要】
1.一种增强现实视场空间和虚拟三维目标动态配准方法,其特征在于:包括以下步骤:步骤(1):获取真实场景信息和相机位置信息;步骤(2):通过图像系统首先根据相机的位置信息和真实场景中的定位标记来计算虚拟物体坐标到相机视平面的仿射变换,然后按照仿射变换矩阵在视平面上绘制虚拟物体,最后直接通过光学透视头盔显示器显示,得到增强现实系统图像;步骤(3):对光学透视头盔显示器显示的图像进行二值化分割,根据分割后图像的灰度特性判断增强现实系统图像中哪些部分属于环境背景,哪些部分属于标志物;步骤(4):对二值图像做连通域分析,通过在二值图像中搜索面积较大的黑色像素区域来确定标识投影区域;步骤(5):在标识投影区域上提取曲率变化较大的点,从而精确定义连通域的形状;步骤(6):在图像系统中将连通域的形状与三维模型对应起来,得出匹配结果,根据匹配结果得出标识物的正确三维模型。2.根据权利要求1所述的增强现实视场空间和虚拟三维目标动态配准方法,其特征在于:步骤(1)中所述的获取真实场景信息和相机位置信息的方式是通过采用摄像装置及光敏器件接收具有几何分布的光源和图像,然后通过计算获得信息。3.根据权利要求2所述的增强现实视场空间和虚拟三维...

【专利技术属性】
技术研发人员:王立军
申请(专利权)人:江苏奥格视特信息科技有限公司
类型:发明
国别省市:江苏;32

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1