【技术实现步骤摘要】
一种基于深度学习目标检测的虚拟现实安防监控平台
[0001]本专利技术属于智能安防检测的
,尤其涉及基于深度学习目标检测的虚拟现实安防监控平台。
技术介绍
[0002]校园安全日益成为社会关注的热点。传统校园安防手段主要分为人防和物防,通过人员巡逻和实体防范进行安防管理。随着科学技术的不断进步,技术防范成为传统安防手段的补充和延申,信息化技术和校园安防的高效结合是提升校园安防力度的重要一环。
[0003]传统校园安防监控管理系统只是将实时监控画面在二维界面进行统一展示。这类系统更适用于监控画面的回看,并不利于安防人员的实时巡检,无法有效提高校园安防管理效率。YOLO系列目标检测算法虽然具有较高的检测精度和检测速度,但无法很好适应于恶劣天气条件下和低光状态下的目标检测任务。基于UE4引擎搭建真实校园的虚拟场景,再利用改进的目标检测算法对实时监控视频进行目标检测,可适应于多种恶劣天气和低光条件下的目标检测任务,将实时视频数据回传至虚拟校园平台,从而可以在虚拟场景中进行实时监控的查看。系统实时性高、界面展示直观且人机交互友好,有利于大规模应用。
[0004]基于BS架构的实时视频监控系统利用网络IP摄像头采集实时视频数据,利用 RTMP/RTSP协议将视频流传输给后台视频服务器,利用CGI、JavaScript技术实现多种智能终端登录浏览器显示监控画面。然而这类系统只是进行简单的视频数据回传,未与深度学习算法进行融合,且界面展示效果单一。RCNN目标检测算法采用选择性搜索算法产生若甘个可能包含物体的区 ...
【技术保护点】
【技术特征摘要】
1.一种基于深度学习目标检测的虚拟现实安防监控平台,其特征在于包括如下步骤:步骤1:基于Nginx搭建后台音视频服务器,利用RTMP协议获取远程实时视频数据,向虚拟终端进行实时视频数据响应;基于Flask框架搭建Web后台服务器,向音视频服务器路由地址拉取视频流数据;步骤2:构建不同天气状态图像数据集;采集多幅完好的天气状态图像并进行天气类别标注作为驱动深度神经网络训练的标签;天气状态种类分为雾天、雨天和晴天;步骤3:基于轻量级网络模型ShuffleNet训练天气状态分类模型,对步骤1获取的实时视频数据进行分帧处理,将每一帧的图像作为网络的输入,网络将输出三种天气状态分类结果;搭建轻量化神经网络模型ShuffleNet,并利用步骤2中构建的天气状态图像数据集进行训练;所述轻量化神经网络模型使用分组卷积提取特征,并对卷积后的通道进行重排,在降低计算量的同时保证模型效率;设计了一个ShuffleNet单元,利用1*1分组逐点卷积提取特征,然后进行通道重排;应用3*3深度卷积和分组逐点卷积匹配与之相连的跳跃连接的通道数;步骤4:设计并联三通道连接器,分为通道A、通道B和通道C对图像进行增强操作;将步骤3所得到的三种分类结果分别作为连接器的输入,通道A为除雨通道,该通道将集成除雨模型,输出除雨图像;通道B为除雾通道,该通道将集成除雾模型,输出除雾图像;通道C为空通道,将输出原始图像;三通道均集成暗光增强算法对暗光图像进行预处理;步骤5:将步骤4完成的图像增强输出作为YOLO v5检测网络的输入;所述YOLO v5的主干网络,由Shuffle channel和Shuffle block组成,同时在特征提取的上层结构中采用了4次slice操作组成了Focus层,将原模型中的普通卷积替换为深度可分离卷积,激活函数使用Swin激活函数;步骤6:基于UE4引擎开发虚拟终端;根据校园实景搭建虚拟校园场景,虚拟终端通过http协议分别获取实时视频数据和检测结果数据;开发虚拟场景漫游功能,安防人员登录虚拟终端后可以分别切换至第一人称视角和全局漫游视角对虚拟校园进行浏览;根据校园监控实际位点设置虚拟校园监控位点图标,根据http响应数据对图表进行不同状态渲染,利用射线检测原理实现用户对虚拟图标控制,弹出实时监控画面。2.根据权利要求1所述的虚拟现实安防监控平台,其特征在于上述步骤2的具体过程为:构建不同天气状态图像数据集;通过搜索引擎进行图像获取,数据集包括雾天、雨天、晴天3类天气,共9000幅图片,每类天气各3000幅图片,数据集面向多场景;运用镜像、翻转、裁剪、添加高斯噪声丰富数据集,将3类天气图片分别扩充至10000幅,将每一类天气数据选取20%作为测试集不做数据增强处理,其余80%数据进行数据增强,作为训练、验证集提升样本平衡与多样性。3.根据权利要求2所述的虚拟现实安防监控平台,其特征在于上述步骤3的具体过程为:基于轻量级网络模型ShuffleNet训练天气状态分类模型,对步骤1获取的实时视频数据进行分帧处理,将每一帧的图像作为网络的输入;同时采用通道混合帮助各组之间信息流通从而构建出轻量化ShuffleNet网络架构;此分类模型采用16个ShuffleNet单元和Leaky ReLU激活函数搭建天气状态分类模型。利用ImageNet数据集对该网络进行预训练,首先将训练集数据作为网络的输入,分别进行卷积运算提取图片特征,形成特征图,再通过Softmax特有的逐点分组卷积运算和通道
混合操作向后传播,经过若干卷积层和池化层后,使得softmax逼近网络从而预测出结果;网络的预测值和实际值作为损失函数的输入进行损失计算,利用梯度下降算法更新网络参数,通过不断迭代训练出最佳的天气分类模型。4.根据权利要求3所述的虚拟现实安防监控平台,其特征在于上述步骤4的具体过程为:步骤4.1:当天气状态分类模型判断图像为雨天状态时,图像将作为A通道的输入,通道A为除雨通道,该通道将集成除雨模型,输出除雨图像;对原始雨水图像I利用双边滤波算法将原始图像分解为低频部分ILf,利用I
‑
ILf得到图像的高频部分IHf;双边滤波器原理为:双边滤波器原理为:双边滤波器原理为:双边滤波器原理为:其中(i,j)为中心点坐标,f(i,j)为中心点坐标像素值;点(k,l)为中心点(i,j)邻域S中的任意一点,σ
d
和σ
r
为平滑参数;f(k,l)为((k,l)点的像素值,点(k,l)到点(i,j)的空间距离为d(i,j,k,l),灰度差域值矩阵为r(i,j,k,l),ω(i,j,k,l)为双边滤波的权重矩阵,各像素点经过双边滤波输出的像素值为g(i,j);高频部分IHF中包含了背景信息以及噪音,提取图像HOG特征并且通过稀疏矩阵编码以及字典学习得到高频图像字典;在HOG特征描述子中,定向梯度方向的分布被用作特征;在强度突然变化的区域周围的梯度幅度大,说明物体边缘比平面区域包含了更多的物体形状信息;对IHF进行取块并进行字典学习得到字典D,使用KMeans最近邻算法将字典分为两类分别为雨字典和几何字典;根据雨的先验信息对雨字典再次进行分类,将误分类部分移除得到最终的雨字典DR1;根据雨字典DR1恢复出高频图像的雨成分IHFR,利用IHF
‑
IHFR得到IHFG,并对IHFG再次进行双边滤波并使用BM3D算法进行去噪处理,得到新的几何分量IHFG,将IHFG与ILF相加得到最终的去雨结果;步骤4.2:通道B为除雾通道,该通道将集成除雾模型,输出除雾图像;采用的除雾模型是基于改进的DCP算法,在任何三通道...
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。