一种基于多视角的人体定位方法及灯光系统技术方案

技术编号:38854932 阅读:8 留言:0更新日期:2023-09-17 10:01
本发明专利技术公开了一种基于多视角的人体定位方法及灯光系统,人体定位方法通过采集同一人体多角度的照片并提取人体特征点,将不同图片中同一位置的人体特征点进行匹配形成匹配点组,计算每个匹配点组在3D空间中对应的3D点的3D坐标;计算3D点与各原图片中对应匹配点组的各人体特征点之间的空间几何误差,加权后得到该3D点的重投影误差,在将各3D点投影到地面得到单点2D坐标后,对单点2D坐标按照对应3D点空间几何误差进行加权得到人体在地面投影分布。直接识别人体,通过加权消除了形成匹配点组时一些误匹配干扰,且人体在地面投影分布是带有权重的单点2D坐标合集,可以判断人体在地面最大可能的投影范围,定位更准确。定位更准确。定位更准确。

【技术实现步骤摘要】
一种基于多视角的人体定位方法及灯光系统


[0001]本专利技术涉及场地灯
,更具体地,涉及一种基于多视角的人体定位方法及灯光系统。

技术介绍

[0002]现在的演艺灯光系统中,通常会使光束跟随并照亮场地中的人,一般需要灯光师手动控制光束投射方向,使光斑跟踪特定人进行照明。由于灯具距离场地一般较远,手动跟踪精度受到人为因素影响较大。另外常用方式是场地演员佩戴特殊的主动标签(如UWB

TAG标签等可以主动发出信号的标签)或被动标签(如红外标记点等可以被检测而不会主动发出信号的标签),通过跟踪主动标签或者被动标签来跟演员。但这样一方面演员在特定场合可能不方便佩戴标签,另一方面主动标签传输数据可能会受到人体或者周围场景的干扰导致定位不准或者定位抖动的问题,被动标签也可能存在被遮挡的问题。

技术实现思路

[0003]本专利技术为克服上述现有技术所述的至少一种缺陷,提供一种基于多视角的人体定位方法,可以得到更加可靠的人体位置信息,同时排除掉一些误匹配等造成的干扰,使灯具的光束投射更为精准。
[0004]为解决上述技术问题,本专利技术采用的技术方案是:一种基于多视角的人体定位方法,包括以下步骤:S1、利用摄像装置从至少2个角度同时采集场地的图片;S2、提取各图片中各人体的人体特征点;S3、将不同图片中同一人体、同一位置的人体特征点进行匹配形成匹配点组,根据各摄像装置的位姿及内参,计算每个匹配点组在3D空间中对应的3D点的3D坐标;S4、计算3D点与各原图片中对应匹配点组的各人体特征点之间的空间几何误差,加权后得到该3D点的重投影误差,在将各3D点投影到地面后得到其在地面上的单点2D坐标后,根据对应3D点的重投影误差,对投影的单点2D坐标进行加权得到人体在地面投影分布。
[0005]所述一种基于多视角的人体定位方法通过对投影的单点2D坐标进行加权得到人体在地面投影分布,消除了人体特征点匹配形成匹配点组时可能产生的一些误匹配的干扰,并且人体在地面投影分布是带有权重的单点2D坐标合集,可以判断人体在地面最大可能的投影范围,定位更准确,另外,直接识别人体,不需要人体佩戴主动标签或被动标签,使用场景更灵活。
[0006]进一步地,在S2步骤中,所述人体特征点为图像特征点。图像特征点指的是图像灰度值发生剧烈变化的点或者在图像边缘上曲率较大的点(即两个边缘的交点),图像特征点能够反映图像本质特征,能够标识图像中目标物体。
[0007]进一步地,所述图像特征点为ORB特征点。提取速度快,且考虑了尺度不变性与旋转不变性,进一步提高了算法效果,兼顾了实时性和算法性能。
[0008]进一步地,在S2步骤中,所述人体特征点为人体关键点。人体关键点是对人体的关键部位如鼻子、左眼、右眼、左耳、右耳、左肩、右肩、左肘、右肘、左腕、右腕、左胯、右胯、左膝、右膝、左踝、右踝进行定位识别,一个人体关键点代表人体的一个部位。
[0009]进一步地,在S2步骤中,同时提取图片中人体的人体关键点和图像特征点,且人体关键点和图像特征点均经过S3步骤、S4步骤处理,共同得到人体在地面投影分布。由于人体姿势及拍摄角度问题,人体关键点可能存在无法检测到的问题,而图像特征点没有人体关键点稳定,数量多且随机分布,也可能存在无法检测到的问题,因此同时利用人体关键点和图像特征点对人体进行综合定位,可以定位更加准确。
[0010]进一步地,在S2步骤中,先用人体检测算法检测出图片中的人体,并用身体框框定图片中的人体,再从身体框中提取人体特征点。这样仅在身体框中提取人体特征点,而不是整幅图片,可以缩减人体特征点的数量,且利用身体框将可以多个人体分开,便于区分不同的人体。
[0011]进一步地,在S3步骤中,所述场地上人体数量为多个,计算不同图片中的身体框所限定的区域块相互之间的匹配度,选取不同图片中具有最佳匹配度的多个身体框对应同一人体。当有场地上有多个人体时,先将同一人体在不同图片中的身体框寻找出来,即对于每个人体,在每个图片中各找一个身体框与其对应,方便后续对不同的人体进行定位。
[0012]进一步地,以区域块相互之间的图像相似度作为身体框相互之间的匹配度。图像相似度的判断速度较快,可以加快定位速度。
[0013]进一步地,从每个图片中各取出一个身体框,对身体框内的人体特征点进行强制匹配形成多个匹配点组,并计算每个匹配点组在3D空间中对应的3D点的3D坐标,以及3D点与各原图片中人体特征点之间的空间几何误差,加权后得到该3D点的重投影误差,对身体框内的全部人体特征点对应的3D点的重投影误差进行加权,以加权后的重投影误差的负值作为身体框相互之间的匹配度。
[0014]进一步地,在S1步骤中,以场地中心为圆心,相邻摄像装置对应的圆心角大于45
°
且小于90
°
。既不会使摄像装置的间距过近,导致浪费物力和增加计算量,也不会使摄像装置的间距过远,导致采集人体图像时,角度差异过大,造成无法判断是否属于同一人体。
[0015]进一步地,在S1步骤中,所述摄像装置采集的图片上传至服务器,S2步骤、S3步骤均在服务器中进行。可以实现多个场地场景共用计算能力,降低对本地计算能力的要求。
[0016]本专利技术还提供一种灯光系统,包括场地、灯具以及至少2个摄像装置,利用所述摄像装置根据前述任一种方法对人体进行定位,所述灯具根据自身位置信息以及人体在地面投影分布投射光束。
附图说明
[0017]图1是本专利技术一种灯光系统的结构示意图。
[0018]图2是本专利技术一种基于多视角的人体定位方法的流程示意图。
[0019]图3是本专利技术匹配同一人体在不同图片中的身体框的流程示意图。
[0020]图4是本专利技术图像特征点的示意图。
[0021]图5是本专利技术人体特征点的示意图。
[0022]图6是本专利技术从2个角度获取的图片中提取的图像特征点示意图。
[0023]图7是本专利技术从2个角度获取的图片中提取的人体关键点示意图。图中:100、摄像装置;200、灯具;300、服务器;400、控台;500、身体框;510、区域块;520、图像特征点;530、人体关键点。
实施方式
[0024]附图仅用于示例性说明,不能理解为对本专利的限制;为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。附图中描述位置关系仅用于示例性说明,不能理解为对本专利的限制。
[0025]如图1、图2、图6、图7,本专利技术提供一种基于多视角的人体定位方法,包括以下步骤:S1、利用摄像装置100从至少2个角度同时采集场地的图片;S2、提取各图片中各人体的人体特征点;S3、将不同图片中同一人体、同一位置的人体特征点进行匹配形成匹配点组,根据各摄像装置100的位姿及内参,计算每个匹配点组在3D空间中对应的3D点的3D坐标;S4、计算3D点与各原图片中对应匹本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于多视角的人体定位方法,其特征在于,包括以下步骤:S1、利用摄像装置(100)从至少2个角度同时采集场地的图片;S2、提取各图片中各人体的人体特征点;S3、将不同图片中同一人体、同一位置的人体特征点进行匹配形成匹配点组,根据各摄像装置(100)的位姿及内参,计算每个匹配点组在3D空间中对应的3D点的3D坐标;S4、计算3D点与各原图片中对应匹配点组的各人体特征点之间的空间几何误差,加权后得到该3D点的重投影误差,在将各3D点投影到地面得到其在地面上的单点2D坐标后,根据对应3D点的重投影误差对投影的单点2D坐标进行加权得到人体在地面投影分布。2.根据权利要求1所述的基于多视角的人体定位方法,在S2步骤中,所述人体特征点为图像特征点(520)。3.根据权利要求2所述的基于多视角的人体定位方法,所述图像特征点(520)为ORB特征点。4.根据权利要求1所述的基于多视角的人体定位方法,在S2步骤中,所述人体特征点为人体关键点(530)。5.根据权利要求1所述的基于多视角的人体定位方法,在S2步骤中,同时提取图片中人体的人体关键点(530)和图像特征点(520),且人体关键点(530)和图像特征点(520)均经过S3步骤、S4步骤处理,共同得到人体在地面投影分布,S5步骤中,灯具(200)根据自身位置信息及共同得到的人体在地面投影分布投射光束。6.根据权利要求1所述的基于多视角的人体定位方法,在S2步骤中,先用人体检测算法检测出图片中的人体,并用身体框(500)框定图片中的人体,再从身体框(500)中提取人体特征点。7.根据权利要求6所述的基于多视角的人...

【专利技术属性】
技术研发人员:彭颖茹请求不公布姓名请求不公布姓名请求不公布姓名请求不公布姓名
申请(专利权)人:广州市浩洋电子股份有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1