一种测距方法及装置制造方法及图纸

技术编号:31309775 阅读:21 留言:0更新日期:2021-12-12 21:37
本申请公开了一种测距方法及装置。该方法包括:获取目标图像以及目标图像对应的视差图像或深度图像,进而通过对视差图像或深度图像进行点云转换,得到点云图像;进而根据点云图像以及目标图像中的第一图像点和第二图像点,得到第一图像点对应的第一场景点的三维坐标和第二图像点对应的第二场景点的三维坐标,以及得到第一场景点和第二场景点的空间距离。通过上述方式,本申请实施例中的测距方法无需借助专业的测量工具,并可以在不增加终端设备的硬件成本的基础上简单方便地完成距离的测量。硬件成本的基础上简单方便地完成距离的测量。硬件成本的基础上简单方便地完成距离的测量。

【技术实现步骤摘要】
一种测距方法及装置


[0001]本专利技术涉及终端
,特别涉及一种测距方法及装置。

技术介绍

[0002]目前测量空间两点之间的距离的方式主要有以下几种:一种是使用直尺、卷尺等传统测 量工具进行手工测量,由于需要随身携带直尺、卷尺等,从而造成随身携带较为不便,且当 测量距离较大(比如10米)时,该种方式的操作较为不便;另一种是使用红外、激光或超声 波等测量工具,通过计算反射信号所耗费的时间差来计算距离,该种方式也需要随身携带测 量工具,且该测量工具通常为精密的电子仪器,测量成本较高。由此可知,现有技术中在测 量两点之间的距离时,通常需要借助专业的测量工具方可进行,当用户没有随身携带上述专 业的测量工具时,则可能导致无法完成测量。
[0003]综上,目前亟需一种测距方法,用于在不借助专业的测量工具的基础上,对空间两点之 间的距离进行测量。

技术实现思路

[0004]本申请实施例提供一种测距方法,用于在不借助测量工具的基础上,对空间两点之间的 距离进行测量。
[0005]第一方面,本申请实施例提供一种测距方法,所述方法包括:
[0006]获取目标图像以及所述目标图像对应的视差图像或深度图像;
[0007]对所述视差图像或深度图像进行点云转换,得到点云图像;
[0008]根据所述点云图像以及所述目标图像中的第一图像点和第二图像点,得到所述第一图像 点对应的第一场景点的三维坐标和所述第二图像点对应的第二场景点的三维坐标;
[0009]根据所述第一场景点的三维坐标和所述第二场景点的三维坐标,得到所述第一场景点和 所述第二场景点的空间距离。
[0010]如此,通过上述方式,本申请实施例中的测距方法无需借助专业的测量工具,并可以在 不增加终端设备的硬件成本的基础上简单方便地完成距离的测量;相比于现有技术中的方案 来说,该方法无需限定目标图像为预设清晰度使得适用范围较广,且通过三维坐标来计算空 间距离使得测量的精确度较高。
[0011]在一种可能的设计中,所述目标图像是根据第一图像和/或第二图像得到的,所述第一图 像为第一摄像装置从第一位置对目标场景进行拍摄得到的,所述第二图像为第二摄像装置从 第二位置对所述目标场景进行拍摄得到的。
[0012]在一种可能的设计中,获取所述目标图像对应的视差图像,包括:
[0013]根据所述目标图像中每个图像点对应的场景点在所述第一图像和所述第二图像中的视差 值,确定所述目标图像对应的视差图像。
[0014]在一种可能的设计中,获取所述目标图像对应的深度图像,包括:
[0015]确定所述目标图像中每个图像点对应的场景点的深度值;
[0016]根据所述目标图像中每个图像点对应的场景点的深度值,确定所述目标图像对应的深度 图像。
[0017]在一种可能的设计中,所述第一摄像装置的焦距和所述第二摄像装置的焦距相同;
[0018]确定所述目标图像中每个图像点对应的场景点的深度值,包括:
[0019]根据所述目标图像中每个图像点对应的场景点在所述第一图像和所述第二图像中的视差 值、所述第一位置和所述第二位置之间的距离和所述焦距,确定所述目标图像中每个图像点 对应的场景点的深度值。
[0020]在一种可能的设计中,根据所述第一场景点的三维坐标和所述第二场景点的三维坐标, 得到所述第一场景点和所述第二场景点的空间距离,包括:
[0021]根据所述第一场景点的三维坐标和所述第二场景点的三维坐标,通过欧式距离公式得到 所述第一场景点和所述第二场景点的初始空间距离;
[0022]将所述初始空间距离作为所述第一场景点和所述第二场景点的空间距离;或者,根据所 述初始空间距离和预设距离补偿值得到所述第一场景点和所述第二场景点的空间距离。
[0023]通过上述方式,通过考虑预设距离补偿值能够有效提供结果的准确性。
[0024]第二方面,本申请实施例提供一种测距装置,所述测距装置包括:
[0025]获取单元,用于获取目标图像以及所述目标图像对应的视差图像或深度图像;
[0026]转换单元,用于对所述视差图像或深度图像进行点云转换,得到点云图像;
[0027]处理单元,用于根据所述点云图像以及所述目标图像中的第一图像点和第二图像点,得 到所述第一图像点对应的第一场景点的三维坐标和所述第二图像点对应的第二场景点的三维 坐标;以及,根据所述第一场景点的三维坐标和所述第二场景点的三维坐标,得到所述第一 场景点和所述第二场景点的空间距离。
[0028]在一种可能的设计中,所述目标图像是根据第一图像和/或第二图像得到的,所述第一图 像为第一摄像装置从第一位置对目标场景进行拍摄得到的,所述第二图像为第二摄像装置从 第二位置对所述目标场景进行拍摄得到的。
[0029]在一种可能的设计中,所述获取单元具体用于:
[0030]根据所述目标图像中每个图像点对应的场景点在所述第一图像和所述第二图像中的视差 值,确定所述目标图像对应的视差图像。
[0031]在一种可能的设计中,所述获取单元具体用于:
[0032]确定所述目标图像中每个图像点对应的场景点的深度值;
[0033]根据所述目标图像中每个图像点对应的场景点的深度值,确定所述目标图像对应的深度 图像。
[0034]在一种可能的设计中,所述第一摄像装置的焦距和所述第二摄像装置的焦距相同;
[0035]所述获取单元具体用于:
[0036]根据所述目标图像中每个图像点对应的场景点在所述第一图像和所述第二图像中的视差 值、所述第一位置和所述第二位置之间的距离和所述焦距,确定所述目标图像中
每个图像点 对应的场景点的深度值。
[0037]在一种可能的设计中,所述处理单元具体用于:
[0038]根据所述第一场景点的三维坐标和所述第二场景点的三维坐标,通过欧式距离公式得到 所述第一场景点和所述第二场景点的初始空间距离;
[0039]将所述初始空间距离作为所述第一场景点和所述第二场景点的空间距离;或者,根据所 述初始空间距离和预设距离补偿值得到所述第一场景点和所述第二场景点的空间距离。
[0040]在一种可能的设计中,所述测距装置为半导体芯片,所述半导体芯片被设置在终端设备 内;
[0041]其中,所述第一摄像装置和所述第二摄像装置均为所述终端设备的后置摄像装置;或, 所述第一摄像装置和所述第二摄像装置均为所述终端设备的前置摄像装置。
[0042]在一种可能的设计中,所述测距装置为终端设备;
[0043]其中,所述第一摄像装置和第二摄像装置均为所述终端设备的后置摄像装置;或,所述 第一摄像装置和第二摄像装置均为所述终端设备的前置摄像装置。
[0044]本申请的又一实施例提供一种测距装置,所述装置包括:
[0045]存储器,用于存储软件程序;
[0046]处理器,用于读取所述存储器中本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种测距方法,其特征在于,所述方法包括:获取目标图像以及所述目标图像对应的深度图像;对所述深度图像进行点云转换,得到点云图像;根据所述点云图像以及所述目标图像中的第一图像点和第二图像点,得到所述第一图像点对应的第一场景点的三维坐标和所述第二图像点对应的第二场景点的三维坐标;根据所述第一场景点的三维坐标和所述第二场景点的三维坐标,得到所述第一场景点和所述第二场景点的空间距离。2.根据权利要求1所述的方法,其特征在于,所述目标图像是根据第一图像和/或第二图像得到的。3.根据权利要求2所述的方法,其特征在于,所述第一图像为第一摄像装置从第一位置对目标场景进行拍摄得到的,所述第二图像为第二摄像装置从第二位置对所述目标场景进行拍摄得到的。4.根据权利要求1至3中任一项所述的方法,其特征在于,根据所述第一场景点的三维坐标和所述第二场景点的三维坐标,得到所述第一场景点和所述第二场景点的空间距离,包括:根据所述第一场景点的三维坐标和所述第二场景点的三维坐标,通过欧式距离公式得到所述第一场景点和所述第二场景点的初始空间距离;将所述初始空间距离作为所述第一场景点和所述第二场景点的空间距离;或者,根据所述初始空间距离和预设距离补偿值得到所述第一场景点和所述第二场景点的空间距离。5.根据权利要求1至3中任一项所述的方法,其特征在于,所述对所述深度图像进行点云转换,得到点云图像包括:针对于所述目标图像中的多个图像点中任一图像点以及与所述任一图像点对应的场景点的深度值进行转换,得到所述点云图像中与所述场景点对应的三维坐标。6.一种测距装置,其特征在于,所述测距装置包括:获取单元,用于获取目标图像以及所述目标图像对应的深度图像;转换单元,用于对所述深度图像进行点云转换,得到点云图像;处理单元,用于根据所述点云图像以及所述目标图像中的第一图像点和第二图像点,得到所述第一图像点对应的第一场景点的三维坐标和所...

【专利技术属性】
技术研发人员:张旭马超群
申请(专利权)人:华为技术有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1