一种基于FOV的影像数据融合索引方法技术

技术编号:34053950 阅读:16 留言:0更新日期:2022-07-06 16:30
本申请涉及一种基于FOV的影像数据融合索引方法,包括:S100、基于若干传感器获取影像数据,并建立影像数据集合D;S200、基于所述影像数据上附加的光学参数获取所述影像数据在地理空间上对应的视阈,建立与D相对应的视阈集合W,对W进行二级融合处理得到集合W'以及与W'对应影像数据集合D';S300、基于用户获取若干空间元素,并对所述空间元素分类标记;S400、基于W'、D'以及空间元素,建立地理因素约束的多元空间索引;提高了对时间元素、用户感兴趣的空间元素、影像元素等多元化元素的挖掘分析效率,实现了对海量多元的影像数据进行统一的高效管理。效管理。效管理。

An index method of image data fusion based on FOV

【技术实现步骤摘要】
一种基于FOV的影像数据融合索引方法


[0001]本申请涉及数据处理
,尤其涉及一种基于FOV的影像数据融合索引方法。

技术介绍

[0002]随处可见的各种智能手机和城市中的各种摄像头每天都会产生大量的基于多种传感器的影像数据,对这些数据的挖掘、分析可以得到很多有价值的信息,从而为人们的生活、城市的发展等进行指导。但由于影像数据数量上的海量性以及其保存格式、分辨率、大小等方面的多元化的特点,对这些影像数据的高效管理方面面临着巨大挑战。而传统的采用机器学习等智能技术的影像数据处理手段由于训练模型的限制并不能很好地对海量多元的影像数据进行高效管理。
[0003]公开于本专利技术
技术介绍
部分的信息仅仅旨在加深对本专利技术的一般
技术介绍
的理解,而不应当被视为承认或以任何形式暗示该信息构成已为本领域技术人员所公知的现有技术。

技术实现思路

[0004]为了解决上述
技术介绍
提到的技术问题或者至少部分地解决上述技术问题,本申请提供一种基于FOV的影像数据融合索引方法,包括如下步骤:S100、基于若干传感器获取影像数据,并建立影像本文档来自技高网...

【技术保护点】

【技术特征摘要】
1.一种基于FOV的影像数据融合索引方法,其特征在于,包括如下步骤:S100、基于若干传感器获取影像数据,并建立影像数据集合D=(D1,D2,
……
,D
n
),影像数据D
i
的类型为视频数据或图像数据,其中,1≤i≤n;S200、基于所述影像数据上附加的光学参数获取所述影像数据在地理空间上对应的视阈,建立与所述影像数据集合D相对应的视阈集合W,对W进行二级融合处理得到二级融合后的视阈集合W'以及与W'对应的二级融合后的影像数据集合D';S300、基于用户获取若干空间元素,并对所述空间元素分类标记;S400、基于W'、D'以及空间元素,建立地理因素约束的多元空间索引;所述步骤S400还包括以下步骤:S410、基于W'、D'以及空间元素,进行一级时间聚类,得到一级聚类元素并建立一级聚类集合C;S420、基于集合C中的一级聚类元素,进行二级空间聚类,得到二级聚类元素并建立二级聚类集合C';S430、基于C和C',为W'、D'以及空间元素建立多元空间索引。2.根据权利要求1所述的基于FOV的影像数据融合索引方法,其特征在于,所述步骤S200还包括以下步骤:S201、创建影像数据集合D'和视阈集合W、视阈集合W',所述视阈集合W'用于存储W中的视阈进行二级融合处理后的视阈,所述影像数据集合D'、视阈集合W和W'均被初始化为空集;S202、判断影像数据D
i
的类型,D
i
∈D,当D
i
的类型为图片数据时,执行步骤S203,当D
i
的类型为视频数据时,执行步骤S204;S203、获取D
i
的空间属性F
i
=(p,a
s
,a
e
,γ,t),将F
i
存入W;其中:p为拍摄D
i
的位置,[a
s
,a
e
]为拍摄D
i
的镜头的可视角度范围,γ为拍摄D
i
的镜头的可视距离,t为拍摄D
i
的时间;S204、对D
i
进行分割,得到D
i
对应的视频帧集合G
i
={G
i1
,G
i2

……
,G
iz
},其中z为D
i
的帧数,G
ij
为D
i
第j帧的图片数据,获取G
ij
的空间属性F
ij
=(p,a
s
,a
e
,γ,t),得到D
i
的空间属性F
i
=(F
i1
,F
i2

……
,F
iz
),将F
i
存入W;S205、重复步骤S202至S204,直到对D中所有D
i
完成处理,获得与所述影像数据集合D相对应的视阈集合W;S206、基于W获取F
i
,F
i
=(p,a
s
,a
e
,γ,t)时,将F
i
存入W',当F
i
=(F
i1
,F
i2

……
,F
iz
)时,执行步骤S207;S207、获取F
ij
和F
i(j+1)
的相交区域,其中,j=1,2,
……
,z

1,计算得到F
ij
和F
i(j+1)
相交区域面积与F
ij
面积的比值S
ij
,以及计算得到F
ij
和F
i(j+1)
相交区域面积与F
i(j+1)
面积的比值S
i(j+1)
,当S
ij
≥S
i(j+1)
时,将F
ij
和F
i(j+1)
融合为F
ij
,并将F
ij
存入集合W',将F
ij
对应的图片数据G
ij
存入集合D',否则,将F
ij
和F
i(j+1)
融合为F
i(j+1)
,并将F
i(j+1)
存入集合W',将F
i(j+1)
对应的图片数据G
i(j+1)
存入集合D';S208、重复步骤S206至步骤S207,直到对集合W中的所有F
i
全部完成处理,得到一级融合后的视阈集合W'以及与W'对应的一级融合后的影像数据集合D';S209、复制集合W'得到W'',并清空集合W';S210、获取空间属性F
v
,F
v
∈W'',基于F
v
获取拍摄位置F
v
.p;
S211、获取空间属性F
u
,F
u
∈W'',F
u
≠F
v
,基于F
u
获取拍摄位置F
u
.p;S212、当F
v
.p=F
u
.p时,执行步骤S213,当F
v
.p≠F
u
.p时,执行步骤S214;S213、计算得到F
v
和F
u
相交区域面积与F
v
面积的比值S
v
,以及计算得到F
v
和F
u
相交区域面积与F
u
面积的比值S
u
,当S
v
≥S
u
时,将F
v
存入集合W',将F
u
对应的图片数据G
u
从集合D'中删除,否则,将F
u
存入集合W',将F
v
对应的图片数据G
v
从集合D'中删除,并执行步骤S214;S214、重复步骤S211至步骤S213,直到对集合W''中的所有符合条件的F
u
全部完成处理;S215、重复步骤S210至步骤S214,直到对集合W''中的所有F
v
全部完成处理,得到二级融合后的视阈集合W'以及与W'对应的二级融合后的影像数据集合D'。3.根据权利要求2所述的基于FOV的影像数据融合索引方法,其特征在于,所述步骤S300还包括以下步骤:S310、基于用户获取若干空间元素并进行初始类别识别,获得h个空间元素类别,构建空间元素类别集合O={O1,O2,
……
,O
h
},其中O
q
为一种类别的空间元素的集合并为O
q
设置概述词,1≤q≤h,O
q
初始化为空集;S320、基于若干所述空间元素,获取空间元素o
r
并进行识别,得到o
r
的概述词o
r
.word、o
r
的名称信息o
r
.name和o
r
的位置信息o
r
.location;S330、基于空间元素类别集合O,获得O
q
,其中O
q
的概述词与o
r
.word相同,执行操作O
q

O
q
∪{o
r
};S340、重复步骤S320至步骤S330,直到若干所述空间元素全部完成处理,得到完成标记的空间元素类别集合O。4.根据权利要求3所述的基于FOV的影像数据融合索引方法,其特征在于,所述步骤S410还包括以下步骤:S411、建立一级聚类集合C,C初始化为空集;S412、获取W'中的一个视阈元素F
i
=(p,a
s
,a
e
,γ,t),当C为空集时,执行步骤S413,否则,执行步骤S414;S413、建立聚类C1,将F
i
存入C1,基于F
i
为C1设置属性,所述属性包括时间属性C1.time、聚类元素属性C1.fov、影像属性C1.image,;空间元素属性C1.elements、一级概述词属性C1.word1和二级概述词属性C1.word2,并将C1存入集合C,执行步骤S417;所述时间属性C1.time=[F
i
.t,F
i
.t],为能覆盖聚类C1中所有视阈元素拍摄时间的最小时间段;聚类元素属性C1.fov={F
i
...

【专利技术属性】
技术研发人员:张超万亚东张波
申请(专利权)人:北京科技大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1