一种基于深度卷积分析的图片归类方法及播控平台技术

技术编号:32558566 阅读:12 留言:0更新日期:2022-03-05 12:00
本发明专利技术公开了一种基于深度卷积分析的图片归类方法及播控平台,属于图片分类技术领域,包括步骤:S1,收集图片后对图片类型进行规范化处理;S2,对图片进行缩放处理;S3,将图片转换为包含RGB三个通道值的像素信息矩阵;S4,基于卷积神经网络形成预训练模型,形成归类模型;S5,利用图片和标签对归类模型进行训练调优;S6,上传图片到最终归类模型进行分类预测。本发明专利技术解决了目前图片类型归类存在的人工缺陷、人力和时间成本两方面的问题,在实施例中提出的方法不仅相比于传统的机器学习方法各方面更优,而且相比于其他深度学习模型,也有着训练代价小、训练速度快、效果更优的特点。效果更优的特点。效果更优的特点。

【技术实现步骤摘要】
一种基于深度卷积分析的图片归类方法及播控平台


[0001]本专利技术涉及图片分类
,更为具体的,涉及基于深度卷积分析的图片归类方法及播控平台。

技术介绍

[0002]随着近些年电影的产量提升,对于播控平台来说,能自动有效获取大量影片的信息可大大减少人力和时间成本,也对做影片推荐提供了基础条件,进而吸引更多用户以及提高点播率。
[0003]但是,目前的影片类型的归类方式,存在如下问题:(1)对于待上架影片的相关信息处理,往往需要大量的人力和时间,产生了人力成本。
[0004](2)编辑人员的认知对于影片类型的判断会出现太多个人主观色彩,从而导致影片的类型判断错误,对于后期使用该影片类型来进行影片推荐,就可能造成推荐错误的情况。
[0005]现有技术中有提供关于解决上述问题的方案,例如公开号为CN105260398A的专利申请等,但是利用传统的图矩阵的数学变换来提取图片的特征,模型过于简单,不实用当下海量数据的处理需求,以及基于支持向量机构建分类模型,在处理多分类问题时存在边界更难划分的问题。还有的解决方案利用卷积模型处理海报特征,在一定程度上效果更好,但是直接利用VGG16模型,我们知道,图片内容分类(物体识别)与主题聚类(场景使用)显然是不同的业务场景,而原VGG16本质是一个分类模型,它是做图片中的物体识别的,本质是内容识别的模型,却被本领域普通人员直接用来处理主题分类,物体是一个有形的现实对象,而主题是一个抽象的概念,直接利用显然不合适,无法客观给出影片的类型。在现有方案中,还有人利用机器学习无监督方法k

means算法来聚类实现归类目的,但是存在缺点是对训练样本依赖性大,很容易出现聚类错误,而且训练代价大。

技术实现思路

[0006]本专利技术的目的在于克服现有技术的不足,提供一种基于深度卷积分析的图片归类方法及播控平台,具有训练代价小、训练速度快、效果更优的特点,不仅更客观给出图片的类型标签,而且能高效快速的完成大量图片的处理。
[0007]本专利技术的目的是通过以下方案实现的:一种基于深度卷积分析的图片归类方法,包括步骤:S1,收集图片后对图片类型进行规范化处理;S2,对规范化处理后的图片进行缩放处理;S3,将缩放处理后的图片转换为包含RGB三个通道值的像素信息矩阵;S4,基于卷积神经网络形成预训练模型,固定好预训练模型前第一设定数量层模型的参数保持不变,将最后第二设定数量层替换为双通道多分类模型架构,形成归类模型;
S5,基于形成的归类模型,将所述包含RGB三个通道值的像素信息矩阵输入,并结合标签权重匹配合并计算进行训练过程,利用图片和标签对归类模型进行训练调优,将最终归类模型保存;S6,上传图片到最终归类模型进行分类预测,利用双通道多分类模型架构结合标签权重匹配合并计算得到图片类型标签。
[0008]进一步地,在步骤S4中,所述第一设定数量为13,所述第二设定数量为3。
[0009]进一步地,在步骤S5中,包括如下步骤:S51,包含RGB三个通道值的像素信息矩阵经过两层2D卷积,且卷积后进行正规化和relu函数激活处理操作处理,再进行最大值池化处理;S52,依次重复进行多次步骤S51;S53,将经过步骤S52处理后得到的矩阵进行压平处理,然后进行第一概率性丢弃处理;S54,将进行第一概率性丢弃后的矩阵,输入到一个全连接层dense,再分别进行第二概率性丢弃处理;S56,将进行第二概率性丢弃的矩阵,输入到两个softmax概率分布最大化多分类全连接层,然后利用小批量随机梯度下降算法,结合双标签权重匹配合并计算损失值,经过多次训练直到模型收敛,得到最终的模型参数。
[0010]进一步地,在步骤S56中,所述双标签权重匹配的规则具体为:将第一标签为主类型,第二标签设为副类型,分别取两个通道各自最大概率所对应的标签,然后分别与真实标签对比,若相同则值取1,若不相同则值取0,然后将对应值再分别乘以对应主类型和副类型的权重,将乘以权重得到的对应数据相加之和作为双通道分类器的预测值y,然后将1

y的差值作为损失函数的损失值,然后进行多批次的训练微调。
[0011]进一步地,在步骤S1中,所述收集图片包括播控平台影片库中现有的上架影片的海报图片及相关信息,并搜集网络上大量的影片海报及相关信息;所规范化处理包括对影片类型进行规范化处理,其中只保留2个影片类型,并统计获取影片类型表。
[0012]进一步地,在步骤S2中,所述缩放处理包括将图片统一缩放至224*224,保持像素一致,并排除一些画面过于模糊的图片。
[0013]进一步地,在步骤S3中,缩放至统一规格后的图片的像素宽度为W为224,像素高度为H为224,将图片转换为W*H个包含RGB三个通道值的像素信息矩阵,表示为(W, H, 3)。
[0014]进一步地,所述预训练模型包括VGG16模型。
[0015]进一步地,第一设定数量为13,第二设定数量为3。
[0016]一种播控平台,包括处理器和可读存储介质,在可读存储介质中存储有程序,当程序被处理器加载时执行如上任一项所述方法。
[0017]本专利技术的有益效果包括:本专利技术解决了目前图片类型归类存在的人工缺陷、人力和时间成本两方面的问题,在实施例中提出的方法不仅相比于传统的机器学习方法各方面(提取图片表征、训练、速度、效果等)更优,而且相比于其他深度学习模型,也有着训练代价小、训练速度快、效果更优的特点。
[0018]通过本专利技术实施例的方法,可以实现自动根据图片的分析,生成图片的风格类型
标签,不仅更客观给出图片风格的类型标签,而且能高效快速的完成大量图片的处理。
附图说明
[0019]为了更清楚地说明本专利技术实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本专利技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
[0020]图1为将影片海报图片进行统一缩放的示意图;图2为图片转换RGB矩阵过程示意图;图3为双通道多分类模型结构示意图;图4为本专利技术实施例的方法步骤流程图。
具体实施方式
[0021]本说明书中所有实施例公开的所有特征,或隐含公开的所有方法或过程中的步骤,除了互相排斥的特征和/或步骤以外,均可以以任何方式组合和/或扩展、替换。
[0022]下面根据附图1~图4,对本专利技术的技术构思、解决的技术问题、工作原理、工作过程和有益效果作进一步详细、充分地说明。
[0023]本专利技术实施提供一种基于深度卷积分析的图片归类方法及播控平台,旨在解决
技术介绍
中的问题,具体而言,本专利技术的技术方案包括如下步骤:步骤一、整理播控平台影片库中现有的上架影片的海报图片及相关信息,并搜集网络上大量的影片海报及相关信息,并对影片类型进行规范化处理,可选的处理规则包括如下方式:只保留2个影片类型。统计获取影本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种基于深度卷积分析的图片归类方法,其特征在于,包括步骤:S1,收集图片后对图片类型进行规范化处理;S2,对规范化处理后的图片进行缩放处理;S3,将缩放处理后的图片转换为包含RGB三个通道值的像素信息矩阵;S4,基于卷积神经网络形成预训练模型,固定好预训练模型前第一设定数量层模型的参数保持不变,将最后第二设定数量层替换为双通道多分类模型架构,形成归类模型;S5,基于形成的归类模型,将所述包含RGB三个通道值的像素信息矩阵输入,并结合标签权重匹配合并计算进行训练过程,利用图片和标签对归类模型进行训练调优,将最终归类模型保存;S6,上传图片到最终归类模型进行分类预测,利用双通道多分类模型架构结合标签权重匹配合并计算得到图片类型标签。2.根据权利要求1所述的基于深度卷积分析的图片归类方法,其特征在于,在步骤S4中,所述第一设定数量为13,所述第二设定数量为3。3.根据权利要求1所述的基于深度卷积分析的图片归类方法,其特征在于,在步骤S5中,包括如下步骤:S51,包含RGB三个通道值的像素信息矩阵经过两层2D卷积,且卷积后进行正规化和relu函数激活处理操作处理,再进行最大值池化处理;S52,依次重复进行多次步骤S51;S53,将经过步骤S52处理后得到的矩阵进行压平处理,然后进行第一概率性丢弃处理;S54,将进行第一概率性丢弃后的矩阵,输入到一个全连接层dense,再分别进行第二概率性丢弃处理;S56,将进行第二概率性丢弃的矩阵,输入到两个softmax概率分布最大化多分类全连接层,然后利用小批量随机梯度下降算法,结合双标签权重匹配合并计算损失值,经过多次训练直到模型收敛,得到最终的模型参数。4.根据权利...

【专利技术属性】
技术研发人员:文俊吴雷
申请(专利权)人:成都橙视传媒科技股份公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1