当前位置: 首页 > 专利查询>清华大学专利>正文

一种动态大场景自适应智能处理方法技术

技术编号:27583197 阅读:26 留言:0更新日期:2021-03-09 22:41
本发明专利技术实施例公开了一种动态大场景自适应智能处理方法。该方法包括:获取动态大场景下的原始图像,并将原始图像按预设比例缩小,获得待处理图像;将待处理图像输入预设的目标区域寻找网络模型,根据目标区域寻找网络模型的生成结果确定至少一个目标区域;将各目标区域输入目标识别检测器中进行位置检测,确定各目标区域中的目标位置框;按照各目标区域的尺度信息和预设比例,将相应的目标位置框关联至原始图像中。本发明专利技术实施例的技术方案,解决了难以对动态大场景下的高分辨率图像进行目标识别,识别速度慢且识别结果不够准确的问题,提升了对高分辨率图像视觉处理的处理效率,并提高了对高分辨率图像视觉处理的准确度。提高了对高分辨率图像视觉处理的准确度。提高了对高分辨率图像视觉处理的准确度。

【技术实现步骤摘要】
一种动态大场景自适应智能处理方法


[0001]本专利技术实施例涉及图像处理
,尤其涉及一种动态大场景自适应智能处理方法。

技术介绍

[0002]目标检测、多目标追踪、行人重识别以及行人轨迹预测均为机器视觉领域中的常见视觉任务。近年来,上述视觉任务在人工智能、人脸识别和无人驾驶等领域均得到了广泛的应用。
[0003]然而,在执行上述视觉任务的过程中,常会受到如角度、遮挡和光强等因素的影响,使得待识别目标发生畸变,进而提高了视觉任务的完成难度。同时,随着相机相关技术的不断升级和发展,所获取的图像的分辨率也在不断提高,单幅图像中所能包含的信息量以数十倍的速度增长,也较大的提升了视觉任务的完成难度。
[0004]现有基于深度学习的多种视觉算法,在对目标进行检测时的检测效果仍处于一个较低的水平,难以广泛应用于实际通用的视觉任务当中。而能够较好执行视觉任务的处理方法,仅能够针对包含信息量较少的、分辨率较低的图像进行处理,难以满足对动态大场景下采集的高分辨率图像的视觉处理需求。

技术实现思路

[0005]本专利技术提供一种动态大场景自适应智能处理方法,以对动态大场景下获取的高分辨率图像进行视觉处理,提升了视觉处理效率,并提高了图像处理结果的准确性。
[0006]第一方面,本专利技术实施例提供了一种动态大场景自适应智能处理方法,该方法包括:获取动态大场景下的原始图像,并将原始图像按预设比例缩小,获得待处理图像;将待处理图像输入预设的目标区域寻找网络模型,根据目标区域寻找网络模型的生成结果确定至少一个目标区域,目标区域寻找网络模型为采用设定训练方法训练的神经网络模型;将各目标区域输入目标识别检测器中进行位置检测,确定各目标区域中的目标位置框;按照各目标区域的尺度信息和预设比例,将相应的目标位置框关联至原始图像中。
[0007]第二方面,本专利技术实施例还提供了一种动态大场景自适应智能处理装置,该动态大场景自适应智能处理装置包括:图像获取模块,用于获取动态大场景下的原始图像,并将原始图像按预设比例缩小,获得待处理图像;目标区域确定模块,用于将待处理图像输入预设的目标区域寻找网络模型,根据目标区域寻找网络模型的生成结果确定至少一个目标区域,目标区域寻找网络模型为采用设定训练方法训练的神经网络模型;
位置框确定模块,用于将各目标区域输入目标识别检测器中进行位置检测,确定各目标区域中的目标位置框;位置框关联模块,用于按照各目标区域的尺度信息和预设比例,将相应的目标位置框关联至原始图像中。
[0008]第三方面,本专利技术实施例还提供了一种计算机设备,包括存储装置、处理器及存储在存储装置上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现如本专利技术任意实施例提供的方法。
[0009]第四方面,本专利技术实施例还提供了一种包含计算机可执行指令的存储介质,计算机可执行指令在由计算机处理器执行时用于执行如本专利技术任意实施例提供的方法。
[0010]本专利技术实施例通过获取动态大场景下的原始图像,并将原始图像按预设比例缩小,获得待处理图像;将待处理图像输入预设的目标区域寻找网络模型,根据目标区域寻找网络模型的生成结果确定至少一个目标区域,目标区域寻找网络模型为采用设定训练方法训练的神经网络模型;将各目标区域输入目标识别检测器中进行位置检测,确定各目标区域中的目标位置框;按照各目标区域的尺度信息和预设比例,将相应的目标位置框关联至原始图像中。通过采用上述技术方案,在获取到动态大场景下采集到的高分辨率的原始图像后,将原始图像进行缩小得到的待处理图像输入至预先训练好的目标区域寻找网络模型中,确定出待处理图像在多个尺度上去除无效背景后的目标区域,并通过目标识别检测器对各目标区域进行目标检测,得到各目标区域内包含目标的位置信息和目标的类别信息的目标位置框,进而根据原始图像的缩小比例以及目标位置框所在目标区域的尺度信息将各目标位置框对应关联至原始图像,实现原始图像中的目标识别。解决了难以对动态大场景下的高分辨率图像进行目标识别,识别速度慢且识别结果不够准确的问题,提升了对高分辨率图像视觉处理的处理效率,并提高了对高分辨率图像视觉处理的准确度。
附图说明
[0011]图1是本专利技术实施例一中的一种动态大场景自适应智能处理方法的流程图;图2是本专利技术实施例二中的一种动态大场景自适应智能处理方法的流程图;图3是本专利技术实施例二中的一种采用设定训练方法训练目标区域寻找网络模型的流程示意图;图4是本专利技术实施例二中的一种初始区域寻找网络模型对所输入图像训练样本进行处理的流程示意图;图5是本专利技术实施例二中的一种将膨胀中间结果与尺度中间结果输入尺度规范模块后的流程示意图;图6是本专利技术实施例二中的一种目标区域寻找网络模型的结构示例图;图7是本专利技术实施例三中的一种动态大场景自适应智能处理装置的结构示意图;图8是本专利技术实施例四中的一种计算机设备的结构示意图。
具体实施方式
[0012]下面结合附图和实施例对本专利技术作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本专利技术,而非对本专利技术的限定。另外还需要说明的是,为了便
于描述,附图中仅示出了与本专利技术相关的部分而非全部结构。此外,在不冲突的情况下,本专利技术中的实施例及实施例中的特征可以互相组合。
[0013]另外还需要说明的是,为了便于描述,附图中仅示出了与本专利技术相关的部分而非全部内容。在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各项操作(或步骤)描述成顺序的处理,但是其中的许多操作可以被并行地、并发地或者同时实施。此外,各项操作的顺序可以被重新安排。当其操作完成时所述处理可以被终止,但是还可以具有未包括在附图中的附加步骤。所述处理可以对应于方法、函数、规程、子例程、子程序等等。
[0014]实施例一图1为本专利技术实施例一提供的一种动态大场景自适应智能处理方法的流程图,本实施例可适用于对动态大场景下采集的高分辨率图像进行视觉处理的情况,该方法可以由动态大场景自适应智能处理装置来执行,该动态大场景自适应智能处理装置可以由软件和/或硬件来实现,该动态大场景自适应智能处理装置可以配置在计算设备上,具体包括如下步骤:S101、获取动态大场景下的原始图像,并将原始图像按预设比例缩小,获得待处理图像。
[0015]在本实施例中,动态大场景可理解为包含多个动态目标,分辨率较高,包含大量信息的情景;原始图像可理解为针对动态大场景下采集到的十亿像素级视频中的一个视频帧所对应的图像。
[0016]具体的,获取动态大场景下采集的十亿像素级视频,并将视频中需要进行处理的视频帧所对应的图像确定为原始图像,该原始图像所对应的大场景可为最大可覆盖数千平方千米的自然场景或同时覆盖数千至上万人的社会场景,该原始图像中可包括不同距离的同类目标可以达到100倍以上的尺度变化的多尺度信息,该原始图像可为接近十亿像素的,可对数百米外人脸进行识别的高分辨率图像,示例性的,该原始图像的尺寸可为26753像素*15本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种动态大场景自适应智能处理方法,其特征在于,包括:获取动态大场景下的原始图像,并将所述原始图像按预设比例缩小,获得待处理图像;将所述待处理图像输入预设的目标区域寻找网络模型,根据所述目标区域寻找网络模型的生成结果确定至少一个目标区域,所述目标区域寻找网络模型为采用设定训练方法训练的神经网络模型;将各所述目标区域输入目标识别检测器中进行位置检测,确定各所述目标区域中的目标位置框;按照各所述目标区域的尺度信息和所述预设比例,将相应的目标位置框关联至所述原始图像中。2.根据权利要求1所述的方法,其特征在于,采用设定训练方法训练目标区域寻找网络模型的步骤包括:将图像训练样本输入至初始区域寻找网络模型,提取膨胀中间结果及尺度中间结果,其中,所述图像训练样本包括真实图像以及与真实图像对应的标定图像,所述标定图像中包括所述真实图像中目标区域的真实坐标、所述目标区域膨胀后的膨胀坐标以及所述目标区域的缩放比例信息;根据所述膨胀中间结果与所述标定图像中对应的膨胀坐标,确定对应的第一损失函数;根据所述尺度中间结果与所述标定图像中对应的缩放比例信息,确定对应的第二损失函数;基于所述第一损失函数和所述第二损失函数对所述初始区域寻找网络模型进行训练,直到满足预设收敛条件获得目标区域寻找网络模型。3.根据权利要求2所述的方法,其特征在于,所述目标区域寻找网络模型至少包括骨干网络、目标区域推断模块、图像膨胀模块、尺度估计模块、尺度规范模块和目标区域输出模块;初始区域寻找网络模型对所输入图像训练样本进行处理的步骤,包括:将所述图像训练样本中的真实图像输入所述骨干网络,确定与所述真实图像对应的骨干特征;将所述骨干特征分别输入所述目标区域推断模块和所述尺度估计模块,将所述目标区域推断模块的输出确定为区域推断结果,将所述尺度估计模块的输出确定为尺度中间结果;将所述区域推断结果输入所述图像膨胀模块,以将所述区域推断结果对应的推断目标区域进行平滑,将所述图像膨胀模块的输出确定为膨胀中间结果;将所述膨胀中间结果与所述尺度中间结果输入所述尺度规范模块,以根据所述尺度中间结果确定所述膨胀中间结果对应的区域尺度信息,根据所述区域尺度信息以及预设尺度阈值对所述膨胀中间结果进行缩放,将所述尺度规范模块的输出确定为规范中间结果;将所述规范中间结果输入所述目标区域输出模块,以将满足所述预设尺度阈值的规范中间结果确定为所述目标区域输出模块的输出,并将所述目标区域输出模块的输出确定为所述目标区域寻找网络模型的生成结果。4.根据权利要求3所述的方法,其特征在于,将骨干特征输入所述目标区域推断模块,
将所述目标区域推断模块的输出确定为区域推断结果,包括:确定所述骨干特征中各像素点是否位于目标对象的区域内;将位于目标对象的区域内的像素点赋以第一像素值,并将其他像素点赋以第二像素值;将像素值为所述第一像素值的相邻像素点所组成的区域确定为推断目标区域,并将所述推断目标区域确定为区域推断结果,所述区域推断结果中包括至少一个推断目标区域。5.根据权利要求3所述的方法,其特征在于,所述将所述膨胀中间结果与所述尺度...

【专利技术属性】
技术研发人员:方璐王雪扬季梦奇王生进
申请(专利权)人:清华大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1