一种基于深度学习的网络新闻配图匹配性检测方法技术

技术编号:21361598 阅读:29 留言:0更新日期:2019-06-15 09:22
本发明专利技术提供一种基于深度学习的网络新闻配图匹配性检测方法,该方法包括基于深度学习的新闻配图多描述生成;以及生成新闻配图描述的文字内容与新闻文字内容进行对比评分;对于生成新闻配图描述部分,采用卷积神经网络对新闻配图特征的提取,然后利用自然语言模型生成新闻配图的相关描述;对于评分体系部分,由于生成的图片描述和新闻文字内容长度和表达方式上的差异性,本发明专利技术提出解决方案,与改进的BLEU算法形成评分体系。评分体系对生成的图片描述和新闻文字内容进行对比评分,通过评分来判断图片与新闻内容是否相符。因此,可以更快速、更准确地发现图文不符的虚假信息,减少人工审核的时间,节省人力物力,净化网络环境。

A Matching Detection Method for Web News Mapping Based on Deep Learning

The invention provides a matching detection method for network news matching based on in-depth learning, which includes multi-description generation of news matching based on in-depth learning, comparison and scoring between text content of news matching description and news text content, extraction of features of news matching using convolutional neural network for generating news matching description, and then self-evaluation. However, the language model generates relevant descriptions of news maps; for the scoring system part, due to the differences in the length and expression of the generated pictures and news text content, the present invention proposes a solution and forms a scoring system with the improved BLEU algorithm. The scoring system compares the generated picture description with the news text content, and judges whether the picture matches the news content by scoring. Therefore, we can find out the false information which is not consistent with the image and text more quickly and accurately, reduce the time of manual audit, save manpower and material resources, and purify the network environment.

【技术实现步骤摘要】
一种基于深度学习的网络新闻配图匹配性检测方法
本专利技术属于信息检测
,涉及虚假信息检测,特别涉及一种基于深度学习的网络新闻配图匹配性检测方法。
技术介绍
以互联网为代表的数字技术与当今社会各领域深度融合、以智能手机为代表的移动设备大规模普及为手机新闻客户端的诞生和发展奠定了坚实基础。而大量新闻网站以及手机客户端为了吸引阅读量编辑了大量垃圾新闻,如标题党,图文不匹配等,从而导致虚假信息泛滥,误导群众思想。图文不匹配属于虚假信息范畴,目前采用人工举报审核制度来降低网站图文不匹配文章的占有率。各大网站比如百度云的图像审核,网易的易盾图像检测,检测方向也仅仅基于违法图片检测,并不涉及图文是否相关方向。就检测图文不匹配而言,目前已有的专利技术主要利用各大网站识图技术生成关键词,然后在文章里搜索生成的关键词,其没有对图片进行完整描述,导致准确率极低。
技术实现思路
为了克服上述现有技术的缺点,本专利技术的目的在于提供一种基于深度学习的网络新闻配图匹配性检测方法,通过深度学习技术对新闻配图生成描述,然后与新闻文字内容进行比对,来判断插图与新闻文字内容是否相符,从而解决虚假信息中图文不匹配的情况,去除虚假信息,有效净化网络环境。为了实现上述目的,本专利技术采用的技术方案是:一种基于深度学习的网络新闻配图匹配性检测方法,包括如下步骤:步骤1,提取新闻网页上的配图与文字内容,将提取的文字内容形成规范文档;步骤2,将提取的图片输入到神经网络模型中,对图片进行物体识别和场景识别,然后利用自然语言模型对图片中所有物体和场景生成若干相应的描述;步骤3,利用BLEU算法将生成的图片的多描述与新闻的文字内容进行比对,从而判断是否图片与新闻内容匹配。所述步骤1中的规范文档指的是符合语言规范的单句。所述步骤2中,神经网络模型包括一个卷积神经网络,一个密集定位层,一个识别网络层以及一个自然语言模型,其物体识别和场景识别过程如下:步骤2.1,将提取的图片输入到卷积神经网络进行特征提取并生成特征矩阵;步骤2.2,将卷积神经网络提取的特征向量再输入到密集定位层基于多目标识别技术对图片中的区域进行识别预测,生成初步的识别区域称为候选区域,数量为B;步骤2.3,将候选区域传输到识别网络层,将来自密集定位层的每个候选区域的特征变换为一个向量,并将其传送至识别网络的两个全连接层,对每一个候选区域生成一个长度统一的一维向量,将所有一维向量存储起来,组合成一个矩阵;步骤2.4,将得到的矩阵输入到基于LSTM的语言模型中,最终生成关于图片每一部分的具体描述。所述步骤2.2中,密集定位层收到所述特征矩阵,识别候选区域并且从每一个区域平滑地提取一个固定尺寸的表示,然后采用边界回归方法,利用FastR-CNN的参数得到锚点到候选区域的回归,即利用锚点的中心坐标和候选区域的长宽,以及预测出的四个标量来计算候选区域的中心和长宽,接着对候选区域进行二次抽样以减小代价,得到具有不同大小和宽高比的矩形框形式的候选区域,最后采用双线性插值法,从不同大小尺寸的候选区域中提取出固定尺寸的特征表示。所述步骤2.2中,借助一系列具有平移不变性的锚点(anchors)来识别候选区域的位置和大小,具体方法是:对于大小为W'×H'的特征图谱来说,将图谱中的每一个像素点都做为一个锚点(anchor),锚点数量为W'×H'个,将该点反向映射回原始图像W*H中,然后基于该锚点,画出不同宽高比和大小的若干个“锚框”(anchorbox),该“锚框”即候选区域,其具有固定尺寸的表示。目标检测算法通常会在输入图像中采样大量的区域,然后判断这些区域中是否包含感兴趣的目标,并调整区域边缘从而更准确地预测目标的真实边界框。不同的模型使用的区域采样方法可能不同,本专利技术中,以每个像素为中心生成多个大小和宽高比(aspectratio)不同的边界框。平移不变的锚点是指:如果选择图像中的连续范围作为池化区域,并且只是池化相同(重复)的隐藏单元产生的特征,那么,这些池化单元就具有平移不变性。这就意味着即使图像经历了一个小的平移之后,依然会产生相同的(池化的)特征。即,在物体检测中,具有平移不变性的特征,即使图像经过了平移,样例(图像)的标记仍然保持不变。所述预测出的四个标量是线性回归中锚框的四个位移参数,所述二次抽样是基于每个候选区域的置信分数进行区域采样,保留置信分数最高的候选区域。所述步骤2.3中,使用RELU激活函数和Dropout优化原则,将来自密集定位层的每个候选区域的特征变换为一个向量,并将其传送至两个全连接层,对每一个候选区域都会生成一个长度为D=4096的一维向量,最终生成B个长度为D的一维向量,组合形成一个B×D形状的矩阵。所述BLEU算法中,采用词频的对比方法,计算生成的配图描述的文字内容与新闻的文字内容的对比评分,高于设定阈值即为图文匹配,低于设定阈值即为图文不匹配。与现有技术相比,本专利技术的有益效果为:1、基于生成图片描述和新闻文字内容的长度差异性进行对比由于生成描述的文字长度的新闻文字内容长度的差异性,所以基于差异性提出相应对比方案,将生成的描述文字和新闻文字内容分别拆分为单句,然后每个单句依次进行比,对保留得分排名靠前的单句,最后求得平均值,即为最终的得分。2、基于单句描述和新闻文字内容差异性进行打分由于生成描述和新闻内容表达上差异性,使用原有BLEU算法打分准确率低。因此本专利技术提出适应性方案,调整参数,采用词频的对比方法确定最终得分。3、将图像描述技术和BLEU算法融合检测网络新闻配图匹配性首先对新闻网站进行图文的提取,文字内容形成规范文档,利用深度学习技术对图片进行多描述生成,生成的图片描述与新闻文字内容利用改进的BLEU算法进行对比打分,根据打分结果判断配图与新闻内容是否匹配。综上,本专利技术利用图片多描述生成机制,能够让图片描述变得更详细,将图片内容完整的表示出来,同时融合BLEU算法体系,对图片表示结果同新闻文字内容的进行对比评分,判断是否为虚假信息。由于对图片进行了完整的描述,因此大大提升了准确性。本专利技术可用于各大网站审核文章,在初期进行筛选过滤,从而大量节省人力物力。附图说明图1为本专利技术的整体技术流程图。图2为使用VGG-16结构的特征提取示意图。图3为基于Faster-RCNN的目标检测模型构建图。图4为适应本专利技术的BLEU应用方案。图5是本专利技术实施例中的新闻配图。图6是本专利技术实施例中的新闻配图。图7是对图5生成的多描述。图8是对图6生成的多描述。具体实施方式下面结合附图和实施例详细说明本专利技术的实施方式。参考图1,本专利技术简单工作流程如下;1.提取新闻网站的图片和新闻文字内容,新闻内容形成规范文档:即规范单句。2.设置图像描述生成的网络结构和模型参数。(1)卷积网络结构设置:使用VGG-16的网络结构,包含13层卷积核为3×3的卷积层和4层池化核为2×2的最大池化层。对于大小为3×W’×H’的图片,经过卷积网络后,输出结果是C×W'×H'的特征矩阵。(2)全卷积定位层设置:1)输入和输出输入:来自卷积网络的特征矩阵。输出:输出B个候选区域的向量(定长),每个特征向量都包含下面三个关键信息:候选区域的坐标:输出形式是一个的矩阵,每行代表一个候选区域的坐标候选区域的置信分数:一个长度本文档来自技高网...

【技术保护点】
1.一种基于深度学习的网络新闻配图匹配性检测方法,其特征在于,包括如下步骤:步骤1,提取新闻网页上的配图与文字内容,将提取的文字内容形成规范文档;步骤2,将提取的图片输入到神经网络模型中,对图片进行物体识别和场景识别,然后利用自然语言模型对图片中所有物体和场景生成若干相应的描述;步骤3,利用BLEU算法将生成的图片的多描述与新闻的文字内容进行比对,从而判断是否图片与新闻内容匹配。

【技术特征摘要】
1.一种基于深度学习的网络新闻配图匹配性检测方法,其特征在于,包括如下步骤:步骤1,提取新闻网页上的配图与文字内容,将提取的文字内容形成规范文档;步骤2,将提取的图片输入到神经网络模型中,对图片进行物体识别和场景识别,然后利用自然语言模型对图片中所有物体和场景生成若干相应的描述;步骤3,利用BLEU算法将生成的图片的多描述与新闻的文字内容进行比对,从而判断是否图片与新闻内容匹配。2.根据权利要求1所述基于深度学习的网络新闻配图匹配性检测方法,其特征在于,步骤1中的规范文档指的是符合语言规范的单句。3.根据权利要求1所述基于深度学习的网络新闻配图匹配性检测方法,其特征在于,所述神经网络模型包括一个卷积神经网络,一个密集定位层,一个识别网络层以及一个自然语言模型,其物体识别和场景识别过程如下:步骤2.1,将提取的图片输入到卷积神经网络进行特征提取并生成特征矩阵;步骤2.2,将卷积神经网络提取的特征矩阵再输入到密集定位层基于多目标识别技术对图片中的区域进行识别预测,生成初步的识别区域称为候选区域,数量为B;步骤2.3,将候选区域传输到识别网络层,将来自密集定位层的每个候选区域的特征变换为一个向量,并将其传送至识别网络的两个全连接层,对每一个候选区域生成一个长度统一的一维向量,将所有一维向量存储起来,组合成一个矩阵;步骤2.4,将得到的矩阵输入到基于LSTM的语言模型中,最终生成关于图片每一部分的具体描述。4.根据权利要求3所述基于深度学习的网络新闻配图匹配性检测方法,其特征在于,所述步骤2.2中,密集定位层收到所述特征矩阵,识别候选区域并且从每一个区域平滑地提取一个固定尺寸的表示,然后采用边界回归方法,利用FastR-CNN的参数得到锚点到候选区域的回归,即利用锚点的中心坐标和候选区域的长宽,以及预测出的四个标量来计算候选区域的中心和长宽,接着对候选区域进行二次抽样以减小代价,得到具有不同大小和宽高比的矩形框形式的候选区域,最后采用双线性插值法,从不同大小尺寸的候选区域中提取出固定尺寸的特征表示。5.根据权利要求4所述基于深度学习的网络新闻配图匹配性检测方法,其特征在于,所述步骤2.2中,借助一系列具有平移不变性的锚点(anchors)来识别候选区域的位置和大小,具体方法是:对于大小为W'×H'的特征向量来说,将图谱中的每一个像素点都做为一个锚点(anchor),锚点数量为W'×H'个,将该点反向映射回原始图像W*H中,然后基于该锚点,画出不同宽高比和大小的若干个“锚框”(anchorbox),该“锚框”即候选区域,其具有固定尺寸的表示。6.根据权利...

【专利技术属性】
技术研发人员:云静尚俊峰刘利民许志伟
申请(专利权)人:内蒙古工业大学
类型:发明
国别省市:内蒙古,15

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1