一种去除视频中颜色滤镜和拉伸效果的方法技术

技术编号:34140072 阅读:40 留言:0更新日期:2022-07-14 17:36
本发明专利技术公开了一种去除视频中颜色滤镜和拉伸效果的方法,包括以下步骤:收集视频中常见固定参照物及其外观属性数据,建设参照物数据仓库;视频分帧后取得每帧图片,通过裁剪算法和图片处理技术获取复杂图片的区域主题图片及对应的坐标范围;获取区域主题图片中是否包含固定参照物及参照物属性;获取单帧视频图片中,标记为参照物的物体的实际外观属性;将识别到的固定参照物属性与参照物数据仓库中的固定参照物属性对比,判定有无颜色、比例的调整,并记录单帧调整值;按调整值去除单帧图片的颜色和拉伸效果还原;并将还原后的单帧图片按顺序重新整合成视频。本发明专利技术为需要呈现真实视频的场景提供了解决方案。实视频的场景提供了解决方案。实视频的场景提供了解决方案。

【技术实现步骤摘要】
一种去除视频中颜色滤镜和拉伸效果的方法


[0001]本专利技术属于图像处理
,特别涉及一种去除视频中颜色滤镜和拉伸效果的方法。

技术介绍

[0002]目前,美颜处理功能的应用越来越广泛。但是在许多应用场景中,需要将去除视频中颜色滤镜和拉伸效果,现有的方法为:(1)基于现有的视频分帧工具或技术,将视频按帧分为众多图片。如电脑端工具PR、AE等,或前端代码组件库cv2等实现。(2)基于现有的图片识别和以图搜图技术,根据主题图片在图片库中找出相似图片。(3)基于现有的工具或组件库,将多张照片按顺序整合成视频,如Photoshop工具,java语言视觉处理组件库javacv等。
[0003]现有技术中还没有有效的视频去美颜的方法。

技术实现思路

[0004]本专利技术的目的是提供一种去除视频中颜色滤镜和拉伸效果的方法,以实现呈现真实视频的场景。
[0005]为实现上述目的,本专利技术采用如下技术方案:
[0006]一种去除视频中颜色滤镜和拉伸效果的方法,包括以下步骤:
[0007]步骤一,收集视频中常见固定参照物及其外观属性数据,建设参照物数据仓库;
[0008]步骤二,视频分帧后取得每帧图片,通过裁剪算法和图片处理技术获取复杂图片的区域主题图片及对应的坐标范围;
[0009]步骤三,通过图片识别和以图搜图技术,获取步骤二得到的区域主题图片中是否包含固定参照物及参照物属性;
[0010]步骤四,获取单帧视频图片中,标记为参照物的物体的实际外观属性;
[0011]步骤五,将识别到的固定参照物属性与参照物数据仓库中的固定参照物属性对比,判定有无颜色、比例的调整,并记录单帧调整值;
[0012]步骤六,按调整值去除单帧图片的颜色和拉伸效果还原;
[0013]步骤七,并将还原后的单帧图片按顺序重新整合成视频。
[0014]所述步骤一中,常见固定参照物指同一类别或型号外观属性一致的物体,外观属性数据包括颜色、宽度、厚度、各个方位照片及缩略图;参照物数据仓库的数据存储采用大数据量存贮中间件。
[0015]所述步骤二中,先将视频分帧,再通过裁剪算法和图片处理技术,将每帧的复杂图片分割为众多等比例的区域主题图片;裁剪算法如下:将单张图片分别按长、宽等比例裁剪为1份,2份,3份

,N份,及以图片中心点为对称点剪裁,对称剪裁后再按此方法重复对称剪裁。
[0016]所述步骤三中,根据步骤二裁剪的图片,在步骤一建设的参照物数据仓库中找寻是否有匹配的参照物及属性,记录搜索到的参照物是否匹配的结果,及参照物属性,参照物
属性包括颜色、宽度、高度。
[0017]所述步骤四中,结合步骤二得到的坐标范围,获取物体的外观属性并保存,其中,外观属性包括宽度、高度、颜色、旋转角度。
[0018]所述步骤五中,将步骤四的保存外观属性数据分别与步骤三的数据对比,并分别将变更后的颜色、拉伸的比例、当前帧数数据保存;
[0019]获取颜色的调整值按如下步骤:先分别获取图片中识别到的物体及对应参照物的色彩rgb值,再分别计算出偏差值,取偏差值的中位数做为色彩调整值;
[0020]获取某一区域内拉伸的比例的调整值,需分别获取图片中识别到的物体及对应参照物的宽、高及比例,选取正向物品,计算出物体在横纵方向的调整值。
[0021]所述步骤六中,对于颜色还原,按视频中所有参照物的色彩rgb差值中位数还原,即先分别获取每张图片中识别到的物体及对应参照物的色彩rgb值,再分别计算出偏差值,取偏差值的中位数作为色彩调整值,最后再将每张图片的rgb值按色彩调整值增减来还原;
[0022]对于拉伸效果还原,跟据图片中物体的尺寸差来判断视频有无拉伸,由于物体的都是正向方向,跟据宽度、高度的拉伸值,分别计算出物体所在区域的横、纵坐标的拉伸值,来进行整体图片的还原,以达到还原整体图片的效果。
[0023]有益效果:本专利技术提供了一种美颜视频中部分去美颜的方法,如滤镜、拉升、局部美颜等,为需要呈现真实视频的场景提供了解决方案。
附图说明
[0024]图1为本专利技术的方法流程图;
[0025]图2为裁剪算法的示意图;
[0026]图3为拉伸值的计算方法示意图。
具体实施方式
[0027]下面结合附图对本专利技术做更进一步的解释。
[0028]如图1所示,本专利技术的一种去除视频中颜色滤镜和拉伸效果的方法,包括以下步骤:
[0029]步骤一,收集视频中常见固定参照物及其外观属性数据,建设参照物数据仓库;
[0030]收集视频中常出现的固定参照物及其外观属性数据,常见的固定参照物指同一类别或型号外观属性基本一致的物体,如手机、餐具、桌椅等,外观属性数据包括颜色、宽度、厚度、各个方位照片及缩略图等。
[0031]数据存储方式不限,为支持大数据存储和提高搜索效率,可使用MongoDB、HBase等大数据量存贮中间件。
[0032]步骤二,视频分帧后取得每帧图片,通过裁剪算法和图片处理技术获取复杂图片的区域主题图片及对应的坐标范围;
[0033]先将视频分帧,可使用现有的视频分帧工具,如电脑端工具PR、AE等,或前端代码组件库cv2等实现。
[0034]再通过裁剪和图片处理技术,将每帧的复杂图片分割为众多等比例的区域主题图片,图片裁剪技术不限。如图2,图片分割算法如下:将单张图片分别按长、宽等比例裁剪为1
份,2份,3份

N份,及以图片中心点为对称点剪裁,对称剪裁后再按此方法重复对称剪裁。图片处理技术如OpenCv图片处理技术,根据定义的宽高,裁剪坐标,创建矩阵等步骤实现图片裁剪,获取该区域主题的图片并保存。
[0035]通过以下方法获取区域主题图片对应的坐标范围:
[0036]图片长度为a,宽度为b,剪裁后的图片长度最小为j,最小为k,剪裁的次数为n,左上角顶端坐标为(0,0),剪裁线两端的坐标为(x1,y1),(x2,y2)
[0037]按横向剪裁的顺序则:x1=a/n,y1=0;x2=a/n,y2=b;
[0038]按纵向剪裁的顺序则:x1=0,y1=b/n;x2=a,y2=b/n;
[0039]横纵向剪裁的方式,横、纵向顺序不限,计算方法和上述一致。当前是第n次横向剪裁,则x1=a/n,y1=0;x2=a/n,y2=b;当前是第n次纵向剪裁,则
[0040]x1=0,y1=b/n;x2=a,y2=b/n。
[0041]步骤三,通过图片识别和以图搜图技术,获取步骤二得到的区域主题图片中是否包含固定参照物及参照物属性;
[0042]通过现有的以图搜图等相关技术,根据裁剪的照片,在数据仓库中找寻是否有匹配的参照物及属性。可使用百度ocr或淘宝商城开放的现有api实现。记录搜索到的参照物是否匹配的结果,及参照物属性,如颜色、宽度、高度等。
[0043]步骤四,本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种去除视频中颜色滤镜和拉伸效果的方法,其特征在于:包括以下步骤:步骤一,收集视频中常见固定参照物及其外观属性数据,建设参照物数据仓库;步骤二,视频分帧后取得每帧图片,通过裁剪算法和图片处理技术获取复杂图片的区域主题图片及对应的坐标范围;步骤三,通过图片识别和以图搜图技术,获取步骤二得到的区域主题图片中是否包含固定参照物及参照物属性;步骤四,获取单帧视频图片中,标记为参照物的物体的实际外观属性;步骤五,将识别到的固定参照物属性与参照物数据仓库中的固定参照物属性对比,判定有无颜色、比例的调整,并记录单帧调整值;步骤六,按调整值去除单帧图片的颜色和拉伸效果还原;步骤七,并将还原后的单帧图片按顺序重新整合成视频。2.根据权利要求1所述的去除视频中颜色滤镜和拉伸效果的方法,其特征在于:所述步骤一中,常见固定参照物指同一类别或型号外观属性一致的物体,外观属性数据包括颜色、宽度、厚度、各个方位照片及缩略图;参照物数据仓库的数据存储采用大数据量存贮中间件。3.根据权利要求1所述的去除视频中颜色滤镜和拉伸效果的方法,其特征在于:所述步骤二中,先将视频分帧,再通过裁剪算法和图片处理技术,将每帧的复杂图片分割为众多等比例的区域主题图片;裁剪算法如下:将单张图片分别按长、宽等比例裁剪为1份,2份,3份

,N份,及以图片中心点为对称点剪裁,对称剪裁后再按此方法重复对称剪裁。4.根据权利要求1所述的去除视频中颜色滤镜和拉伸效果的方法,其特征在于:所述步骤三中,根据步骤二裁剪的图片,在步骤...

【专利技术属性】
技术研发人员:黄守枝赵振华
申请(专利权)人:江苏鑫合易家信息技术有限责任公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1