一种利用边缘特征的视频文本增强方法技术

技术编号:2944807 阅读:151 留言:0更新日期:2012-04-11 18:40
一种基于边缘采样的视频文本增强方法:(1)检测视频帧中出现的文本图像f;(2)对文本图像f进行颜色降维操作;(3)利用彩色空间的梯度算子计算文本图像f的梯度图;(4)将梯度图的相对高频部分作为边缘,将边缘像素对应的图像f的RGB值作为采样点,得到采样点集合P;(5)利用k-均值聚类算法将集合P的元素聚集为5个子类Q↓[j];(6)根据Q↓[j]计算子类采样点的均值和方差,作为平均颜色估计u↓[j]和分割半径T↓[j];(7)利用马氏距离度量将文本图像f分割为5个二值图像g↓[i];(8)对分割操作得到的二值图像g↓[i]进行连通域分析,从中挑选出包含文本的二值图像,作为文本图像f的文本增强结果。本发明专利技术能够较好的估计出文本和背景的颜色分布范围,同时即使在文本颜色不一致,或者背景颜色具有相似色调时,也能很好的将文本和背景分离开来,达到文本增强的目的。

【技术实现步骤摘要】

本专利技术涉及视频中的文本识别,特别是,属于多媒 体检索技术和数字图像处理领域。技术背景视频中的文本提供了和视频内容高度相关的信息,比如场景地点、事件时间,以及体育比 赛中的比分、运动员姓名等信息,但是相对于文档图像中的文本,视频中的文本识别面临以下 难点(1)由于电视制式、视频传输和存储的原因,视频图像分辨率较低;(2)视频中的文本 往往叠加在视频场景中。由于大多数商用光学字符识别(OCR, Optical Character Recognition)软件 只能处理具有干净背景的二值图像,所以在检测到视频中的文本区域以后,还必须将文本和背 景分离开来,得到具有干净背景的文本图像,然后才能进行OCR识别。关于图像二值化,已经 有了很多的相关工作,但是这些方法并不适用于视频文本的二值化操作。在"Victor Wuj Raghavan Manmathaj Edward M. Risemaa. TextFinder: an Automatic System to Detect and Recognize Text in Image. ffiEE Trans. Pattern anal. Machine Intelligence, 1999, V21(ll):1224-1229"中,Wu等人公开了一种利用局部阈值的方法分割图片中的文字的方法,由 于灰度图并不能反映彩色图像的边缘信息,且其采用的灰度直方图可能会具有多个波谷,该方 法对于稍微复杂的背景效果不理想。在"C.M Tsai and H.J Lee. Binarization of Color Document Images via Luminance and Saturation Color Features. IEEE Trans, on Image Processing, 2002, Vll(4), 2002"中,Tsai等人公开了一种基于 阈值的方法对图像中的文本进行分割的方法,其方法中采用了强度和饱和度两种特征,然而接 近黑色和白色时,饱和度值跳度较大,而文本像素的颜色大都是白色的,同时由于解压縮的影 响,文本像素的颜色往往会具有一定的渐变。所以该方法只是在高质量视频文本的分割中有效, 不能适应文本颜色具有较渐变的情况。在"Qixiang Ye, "Wen Gao, Qingming Huang, Automatic text segmentation from complex background, IEEE International Conference on Image Processing (ICIP 2004), Singapore, Oct.24-27, 2004, pp:2905-2908"中,Ye等人公开了一种基于采样规则获得文字像素并训练建立混合高斯模 型,最后使用建立的混合高斯模型和文字笔画的空域连接性综合在一起分割所有文字像素的方 法。但是视频中的像素颜色组合具有很多的变化,该混合高斯模型并不能完全预测,对于不同的测试图片集合,还需要对模型进行重新训练。中国专利申请00807661.8公开了一种"文本增强"的方法,该方法并没有涉及如何将视频中 检测到的文本如何从复杂的背景中分离出来。
技术实现思路
本专利技术的技术解决问题本专利技术能解决视频中的文本存在以下情况时的背景分离问题(1) 文本像素颜色不一致,具有渐变性;(2)背景中存在和文本像素颜色值类似的区域。本专利技术的 思路是事先根据边缘处的颜色信息估计出文本像素颜色的渐变范围以及背景像素的颜色值分布 情况,分别统计其平均值和方差作为分割种子点和分割半径,最终将文本从文本图像中分割出 来。分割后的文本图像具有干净的背景,能显著提高视频中文本的OCR识别率。本专利技术的技术解决方案 一种基于边缘采样的视频文本增强方法,包括以下步骤(1) 利用文本检测方法检测视频帧中出现的文本区域,记为文本图像/;(2) 对文本图像/进行颜色降维操作,其RGB通道值以8bit的高4位bit来代替;(3) 利用彩色空间的梯度算子计算文本图像/的梯度图;(4) 将梯度图的相对高频部分作为边缘,将边缘像素对应的文本图像/的RGB值作为种子 点,得到种子点集合尸,对于采样点集合P中的每一个元素A, P产(",,g,, 是一个三维矢 量;(5) 利用A-均值聚类算法将集合P的元素聚集为5个子类込(/'-l,2,…,5 );(6) 根据G.计算子类采样点的平均颜色估计^和分割半径?};(7) 利用马氏距离度量将马氏(Mahalanobis)距离文本图像/分割为5个二值图像&(/=1,-,5);(8) 对分割操作得到的二值图像&进行连通域分析,从中挑选出包含文本的二值图像,作为 文本图像/的文本增强结果。本专利技术的方法在步骤(2) - (6)中,充分利用了文本和背景具有高对比度的特点对文本和 背景的颜色分布进行采样,然后利用了数字图像处理领域中的图像分割技术,分离背景和文本。本专利技术与现有技术相比的优点在于事先根据边缘处的颜色信息估计出文本像素颜色的渐 变范围以及背景像素的颜色值分布情况,分别统计其平均值和方差作为分割种子点和分割半径, 可以容易的将背景和文本分割开来。解决了文本像素颜色不一致,具有渐变性以及背景中存在 和文本像素颜色值类似的区域时,文本和背景的分离问题,能显著提高视频中文本的OCR识别 率。附图说明图l为本专利技术方法的流程图;图2为本专利技术的基于边缘的采样示例,其中2a为原文本图像;2b为梯度图像.;2c为高频边缘图像;2d为边缘点对应的原图像中的像素;图3为图2a的分割结果示例图,其中3a、 3b、 3c、 3d为包含背景像素的分割结果;3e为 包含文本的正确分割结果。具体实施方式如图1所示,本专利技术具体实现方法如下-1. 利用文本检测算法,比如本专利技术专利申请人在"Chengjun Zhu, Yuanxin Ouyang, Lei Gao, Zhenyong Chen, Zhang Xiong, "An Automatic Video Text Detection, Localization and Extraction Approach", the 2th International Conference on Signal-Image Technology & Internet-Based Systems (SITIS 2006), http:Vwww.u-bourgogne.fr/SITIS/06/index.htmr中公开的文本检测算法,检测视频 中的文本区域,记为文本图像/;2. 对文本图像/进行颜色降维,将RGB通道中8bit中的低4位置为0,也是仅以高4位 bit代替该通道的值,该过程其实是一个对图像颜色空间进行重新量化的过程,由于低4位bit 的取值范围是0 15,所以其相当于以16为间距量化各通道的值,比如某个像素的R通道二进 制值为"UU01U",进行颜色降维后以"11U0000"代替。经过降维操作后,图像的在RGB颜色 空间的值分布复杂性大大降低,而图像的视觉效果并没有收到影响。3.计算文本图像/的梯度值将文本图像看着一个标量函数A:W),其梯度本文档来自技高网
...

【技术保护点】
一种基于边缘采样的视频文本增强方法,其特征在于包括以下步骤:    (1)利用文本检测方法检测视频帧中出现的文本区域,记为文本图像f;    (2)对文本图像f进行颜色降维操作,其RGB通道值以8bit的高4位bit来代替;    (3)利用彩色空间的梯度算子计算文本图像f的梯度图;    (4)将梯度图的相对高频部分作为边缘,将边缘像素对应的文本图像f的RGB值作为采样点,得到采样点集合P,对于采样点集合P中的每一个元素p↓[i],p↓[i]=(r↓[i],g↓[i],b↓[i])是一个三维矢量;    (5)利用k-均值聚类算法将集合P的元素聚集为5个子类Q↓[j],j=1,2,…,5;    (6)根据Q↓[j]计算子类采样点的平均颜色估计u↓[j]和分割半径T↓[j];    (7)利用马氏距离度量将马氏Mahalanobis距离文本图像f分割为5个二值图像g↓[i],i=1,…,5;    (8)对分割操作得到的二值图像g↓[i]进行连通域分析,从中挑选出包含文本的二值图像,作为文本图像f的文本增强结果。

【技术特征摘要】

【专利技术属性】
技术研发人员:朱成军李超刘伟熊璋
申请(专利权)人:北京航空航天大学
类型:发明
国别省市:11[中国|北京]

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1
相关领域技术
  • 暂无相关专利