【技术实现步骤摘要】
一种基于YUV色彩空间的图像快速拼接方法
[0001]本专利技术涉及图像处理
,尤其涉及一种基于YUV色彩空间的图像快速拼接方法。
技术介绍
[0002]目前主流的全景图片拼接流程都是采用相机图片进行特征匹配的方法进行全景图片拼接。在专利“一种基于SIFT特征的传送带表面物体图像拼接方法”(专利号:202110329935.4)中,使用SIFT特征进行匹配进行拼接;在专利“一种基于端到端神经网络的多路图片拼接方法”(专利号:202010553739.0)中,使用神经网络去估计图像特征和最优单应性矩阵,从而实现图像拼接。在专利“一种基于深度学习的手机实时全景拍摄方法”(专利号:202111269335.X)中也是使用SIFT特征去进行图像拼接。
[0003]但是,目前基于图像特征拼接的方法有三个问题:一是如果环境纹理和颜色信息比较简单,可能获取不到足够多很好的特征,造成特征匹配失败;二是特征的计算和匹配也很耗时;三是特征点匹配计算的单应性矩阵会造成累积误差。当然可以通过BA优化的手段去消除累积误差,但是当图像数量很多时,拼接图像的耗时将会很长。
[0004]在专利“全景视频快速拼接方法及系统”(专利号:201911001401.8)则利用了相机平移距离相对于拍摄物体距离可忽略不计的特性,提出了一种全景快速拼接方法,但是这种拼接方法在行车运动的场景下,相机的平移距离不可以忽略,所以这种拼接方法不适用。
[0005]鉴于此,实有必要提供一种新型的基于YUV色彩空间的图像快速拼接方法以克服上述缺 ...
【技术保护点】
【技术特征摘要】
1.一种基于YUV色彩空间的图像快速拼接方法,其特征在于,包括如下步骤:S1:控制行车的运动机构对待拼接场景进行全局扫描,采集同一时刻相机位置t、RGB图像数据、深度图像数据,通过相机外参和相机内参将深度图数据映射到RGB图像中,得到每一个像素的深度值z;S2:利用像素映射方程将所有图片的像素转换到初始视角的图片像素;S3:对所有变换后的RGB值进行融合得到拼接的全景图像。2.如权利要求1所述的基于YUV色彩空间的图像快速拼接方法,其特征在于,步骤S2还还包括步骤S21:利用三角测量原理得到同一个点在两个不同像素位置的关系为:其中,P1是这个点在位置1处相机图像中的像素的齐次坐标,维度为3x1,z1是该点在位置1处相机图像中的深度;P2是这个点在位置2处相机图像中的像素的齐次坐标,维度为3x1,z2是该点在位置2处相机图像中的深度;K是相机内参;R是相机的旋转向量,t是相机的位置平移向量,相机的旋转向量R是一个单位矩阵,相机深度z1=z2,像素映射方程可以变为:将像素映射方程变为:P
1(3,n)
=P
2(3,n)
‑
Kt
(3,n)
*diag(z
(n,1)
)
‑1;通过上述P
1(3,n)
=P
2(3,n)
‑
Kt
(3,n)
*diag(z
(n,1)
)
‑1的像素映射方程对一张图片进行并行映射,其中P
1(3,n)
是映射后的像素坐标的齐次坐标,维度为3xn,每一列均是一个映射后的像素坐标;P
2(3,n)
是映射前的像素坐标的齐次坐标,维度为3xn,每一列均是一个映射前的像素坐标;z
(n,1)
是像素坐标对应的深度向量,维度为nx1,每一行均是映射前像素的深度值;diag(z
(n,1)
)是对深度向量对角化,就是将n维向量映射到nxn方阵的对角线上,其余元素为0;diag(z
(n,1)
)
‑1就是给对角化后的矩阵...
【专利技术属性】
技术研发人员:江子奔,罗长志,郑军,
申请(专利权)人:聚时科技上海有限公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。