三维地理场景融合表达效果评价方法及系统技术方案

技术编号:33309099 阅读:51 留言:0更新日期:2022-05-06 12:20
本发明专利技术涉及一种地理场景融合表达评价方法及系统。本发明专利技术通过明确影响视频

【技术实现步骤摘要】
三维地理场景融合表达效果评价方法及系统


[0001]本专利技术属于可视化融合
,具体涉及一种三维地理场景融合表达效果评价方法及系统。

技术介绍

[0002]城市中安装了大量用于安防、建设等领域的监控摄像头。监控人员每天都需要查看拍摄某些区域多路摄像头视频内容,以判断是否有异常行为。由于每个摄像头都有各自的位置和视域,监控人员通常需要面对多路视频图像组成的井字形视频墙进行查看。这种多路视频表达方式给监控人员增加了巨大的检索分析压力。而视频

地理场景融合表达则将大量不同位置的摄像头与视频图像拍摄区域关联,能够有效帮助监控人员结合地理空间信息理解视频内容,提高视频查看分析效率。
[0003]目前已有多种视频

地理场景融合表达应用到视频监控领域,但在不同的时空约束与信息表达需求下,视频

场景融合表达的可视化效果一直未能得到系统、有效的分析,不同信息表达模式与表达策略的优劣缺乏定量比较。针对上述问题,我们认为可以运用眼动的方法对视频

地理场景融合信息表达进行分析,构建视频

地理场景融合表达模式参数模型,从用户体验的角度对不同视频

地理场景融合表达模式进行评价。基于上述分析,本专利技术提出一种基于眼动的视频

三维地理场景融合表达效果评价系统及方法的技术方案。基于上述分析,本专利技术提出一种三维地理场景融合表达效果评价方法及系统的技术方案。

技术实现思路

[0004]本专利技术的目的是为评价三维场景与视频融合表达效果,为不同应用场景的视频

地理场景融合表达模式选择和性能分析提供支持,而提供一种三维地理场景融合表达效果评价方法及系统。
[0005]为实现上述目的,本专利技术所采用的技术方案是:
[0006]根据本专利技术实施例的第一方面,一种基于眼动的视频

三维地理场景融合表达效果评价方法,包括以下步骤:
[0007]S1:构建融合表达模式参数模型;
[0008]S2:进行眼动实验设计并进行眼动数据预处理,得到有效的眼动数据;
[0009]S3:构建眼动数据模型,对视频

地理场景融合表达模式的眼动模式进行识别;
[0010]S4:综合眼动数据模式识别结果与参数模型,构建视频

地理场景表达效果评价模型,评价地理场景和视频信息融合表达效果;
[0011]进一步地,步骤S1所述的融合表达参数模型通过构建视频

地理场景融合表达参数模型,将影响视频

地理场景融合表达的影响因素进行全盘考虑,分类说明;通过构建眼动实验中用户参数模型,分析用户的性别、年龄等个体差异对视频

地理场景融合表达效果的影响;通过构建眼动实验中任务模型,将眼动实验中影响任务完成的因素进行了分类分析。
[0012]进一步地,视频

地理场景融合表达参数模型如下:
[0013]FV
A
={A1,A2,A3,
……
,A
10
}
[0014]其中A1,A2,A3,
……
,A
10
表示影响视频

地理场景融合表达的参数。具体参数内容为A1(地理场景)={二维,三维}、A2(视频显示速率)={正常速度播放,加快速度播放,减慢速度播放}、A3(显示亮度)={视频/视频对象显示亮度}、A4(显示视频路数)={只显示一路视频信息,显示多路视频信息}、A5(显示对象)={视频图像显示,视频目标显示}、A6(融合模式)={嵌入式,相关式,投影式}、A7(嵌入方式)={视频图像总是正面面对用户,根据相机位置和角度将视频嵌入地理场景,动态图像(将对象映射到多边形上)}、A8(视频目标个数)={只显示一个视频目标,显示多个视频目标}、A9(视频目标投影式融合方式)={前后景独立投影(视频背景贴于地理场景中,目标投影到对应时空位置),前景投影式(将目标投影到三维场景的相应位置),前景抽象式投影(简化表示,用虚拟物体代替目标放置在相应位置上)}、A
10
(显示尺寸)={视频/视频对象显示尺寸大小}。
[0015]进一步地,根据参与的受试者与实验相关的个体差异,构建的用户参数模型,如下:
[0016]FV
B
={B1,B2,B3,
……
,B6}
[0017]其中,B1,B2,B3,
……
,B6是在相同条件下影响融合表达评价效果的用户特征参数。B1参数为(年龄)、B2(性别)、B3(职业)、B4(学历)、B5(是否实际使用过监控视频)、B6(裸眼或矫正视力是否正常)。
[0018]进一步地,由于影响眼动实验结果的因素还包括任务的差异,因此通过对不同任务类型进行总体说明,构建了眼动实验中任务模型。根据任务特征进行建模分类,可以表示为以下几个方面:
[0019]FV
C
={C1,C2,C3,
……
C7}
[0020]其中,C1,C2,C3,
……
C7是进行眼动实验时需要考虑到的任务类型。参数为C1(任务目标)、C2(任务前预观看)、C3(任务中反复观看)、C4(任务终止条件/找到几个目标)、C5(特定对象)、C6(被试者主观评价)、C7(被试者主观评价方法)。本文中涉及的参数变量为C5(特定对象)、C6(被试者主观评价)、C7(被试者主观评价方法)。
[0021]进一步地,S2所述的眼动实验依据视频

三维地理场景融合表达参数模型、用户参数模型以及任务模型设计眼动实验。
[0022]进一步地,S3所述构建眼动数据模型为结合视频

地理场景融合表达模式的眼动数据的时空轨迹特征,对眼动数据进行聚类分析,并将眼动数据与实验任务结合分析任务准确度和AOI占比率。同时,对眼动数据进行显著性分析,为后续判断影响因素对视频

地理场景融合表达效果是否有显著影响做依据。
[0023]进一步地,S4所述评价地理场景和视频信息融合表达效果从影响因素的角度进行评价。其中,客观因素可对应为视频

地理场景融合表达参数模型,受试者主观因素可对应用户参数模型,任务因素可对应任务模型。通过分别从以上三个角度中各选取一种或几种影响因素(参数)进行组合分析,并设置有针对性眼动实验,从而根据眼动实验数据分析结果对这几种影响因素进行系统评价。
[0024]根据本专利技术实施例的第二方面,一种基于眼动的视频

三维地理场景融合表达效果评价系统,其特别之处在于:包括视频

三维地理场景融合模块、数据获取模块、眼动数据
处理分析模块以及表达效果评价模块;
[0025]所述视频
本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种三维地理场景融合表达效果评价方法,其特征在于:包括如下步骤:步骤S1,构建融合表达模式参数模型;步骤S2,进行眼动实验设计并进行眼动数据预处理,得到有效的眼动数据;步骤S3,通过构建眼动数据模型,对视频

地理场景融合表达模式的眼动模式进行识别;步骤S4,综合眼动数据模式识别结果与参数模型,构建视频

地理场景表达效果评价模型,评价地理场景和视频信息融合表达效果。2.根据权利要求1所述的一种三维地理场景融合表达效果评价方法,其特征在于:所述步骤S1,通过构建眼动实验中用户参数模型,分析用户的性别、年龄个体差异对视频

地理场景融合表达效果的影响;通过构建眼动实验中任务模型,将眼动实验中影响任务完成的因素进行了分类分析。3.根据权利要求2所述的一种三维地理场景融合表达效果评价方法,其特征在于:所述步骤S1构建融合表达模式参数模型:FV
A
={A1,A2,A3,
……
,A
10
}其中A1,A2,A3,
……
,A
10
表示影响视频

地理场景融合表达的参数;具体参数内容为A1(地理场景)={二维,三维}、A2(视频显示速率)={正常速度播放,加快速度播放,减慢速度播放}、A3(显示亮度)={视频/视频对象显示亮度}、A4(显示视频路数)={只显示一路视频信息,显示多路视频信息}、A5(显示对象)={视频图像显示,视频目标显示}、A6(融合模式)={嵌入式,相关式,投影式}、A7(嵌入方式)={视频图像总是正面面对用户,根据相机位置和角度将视频嵌入地理场景,动态图像(将对象映射到多边形上)}、A8(视频目标个数)={只显示一个视频目标,显示多个视频目标}、A9(视频目标投影式融合方式)={前后景独立投影(视频背景贴于地理场景中,目标投影到对应时空位置),前景投影式(将目标投影到三维场景的相应位置),前景抽象式投影(简化表示,用虚拟物体代替目标放置在相应位置上)}、A
10
(显示尺寸)={视频/视频对象显示尺寸大小}。4.根据权利要求2所述的一种三维地理场景融合表达效果评价方法,其特征在于:根据参与的受试者与实验相关的个体差异,构建的用户参数模型,如下:FV
B
={B1,B2,B3,
……
,B6}其中,B1,B2,B3,
……
,B6是在相同条件下影响融合表达评价效果的用户特征参数。B1参数为年龄、B2性别、B3职业、B4学历、B5(是否实际使用过监控视频、B6裸眼或矫正视力是否正常。5.根据权利要求2所述的一种三维地理场景融合表达效果评价方法,其特征在于:构建了眼动实验中任务模型;据任务特征进行建模分类:FV
C
={C1,C2,C3,
……
C7}其中,C1,C2,C3,
……
...

【专利技术属性】
技术研发人员:解愉嘉王晓志孙巍
申请(专利权)人:南京财经大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1