基于神经网络的数字档案馆图像压缩、存储、恢复方法技术

技术编号:34248947 阅读:12 留言:0更新日期:2022-07-24 11:04
本发明专利技术公开了一种基于神经网络的数字档案馆图像压缩、存储、恢复方法,包括:将像素为H

Image compression, storage and recovery method of Digital Archives Based on Neural Network

【技术实现步骤摘要】
基于神经网络的数字档案馆图像压缩、存储、恢复方法


[0001]本专利技术属于图像处理领域,具体涉及一种基于神经网络的数字档案馆图像压缩、存储、恢复方法。

技术介绍

[0002]随着多媒体数据库特别是图像库的广泛使用,图像检索技术对现代数字档案馆建设具有十分重要的意义。
[0003]在数字档案馆中,一个典型场景下的图像检索流程涉及到3项具体的技术及其实现:图像的压缩、图像在数据库中的存储、压缩后图像数据的恢复。图像采用何种压缩方法决定了图像在数据库中的存储及相似度计算方法的选型。业界主流的图像压缩方法是将图像以jpg格式保存在文件中,jpg既是一种图像文件格式,也是一种图像压缩技术,jpg格式的图像文件可以以二级制数据流的形式直接存储在关系型数据库中,压缩后的图像数据相对于压缩前有较大的质量损失,以现有的技术无法从压缩后的数据恢复到压缩前的状态。
[0004]上述以jpg压缩技术为核心的图像压缩、图像存储、图像恢复流程,存在的缺陷是:jpg压缩是有损压缩,压缩率越高,图像质量的损失也就越严重,jpg图像的计算及存储的效率与图像质量不可兼顾,为了确保较高的计算效率以及占用较少的存储空间,而采用较高的压缩率,使得图像的质量损失严重,为了降低图像质量的损失而采用较低的压缩率,又会导致较低的计算效率以及占用更多的存储空间。其它常见的有损图像压缩技术也会存在类似的问题。
[0005]为了解决以jpg压缩技术为代表的传统图像压缩技术存在的上述缺陷,本专利创新性地提出了一种新的近似无损的图像压缩方法:设计一个3层的全连接神经网络,输入是原始图像的灰度值向量,输出是一个尺寸与输入一致且数值非常接近的灰度值向量,正常情况下的图像的像素都不低于100万像素,因此输入层和输出层的神经元的数量都不会低于100万,为了达到图像压缩的目的,中间的隐含层的神经元的数量远低于100万,图像从输入层转换到隐含层的过程中,神经元数量急剧降低,达到了数据压缩的目的,从隐含层转换到输出层,神经元的数量又恢复到与原始图像保持一致且输出值与原始灰度向量非常接近,这就意味着从隐含层的数据可以近似无损地恢复为原始图像数据。在海量的图像上训练这个3层的神经网络,训练完成后,对于新的待压缩的图像,首先将这这张图象输入进该神经网络中并进行从输入层到输出层的转换,并提取对应的隐含层数据,就得到了这张图象的无损压缩数据,该图像压缩后数据可以直接以浮点类型的形式存储在数据库中。提取对应的输出数据,就是从压缩后的数据恢复得到的图像数据,3层神经网络的训练确保了该图像的原始数据与压缩后恢复的数据非常接近,质量上的损失相较于传统的有损图像压缩技术非常小。

技术实现思路

[0006]针对现有技术的以上缺陷或改进需求,本专利技术要解决的是现有技术中以jpg压缩
技术为核心的图像压缩、图像存储、图像恢复流程,存在的缺陷是:jpg压缩是有损压缩,压缩率越高,图像质量的损失也就越严重,jpg图像的计算及存储的效率与图像质量不可兼顾的问题。
[0007]为了实现上述目的,本专利技术涉及一种基于神经网络的数字档案馆图像压缩、存储、恢复方法,包括如下步骤:步骤1:将像素为H
×
W的3通道彩色图像的灰度矩阵转换成向量;步骤2:设计一个输入层与输出层神经元数量相同且隐含层的神经元的数量远小于输入层神经元数量的3层的全连接神经网络;步骤3:采集彩色图像数据,在训练数据上通过反向传播算法求解这个无约束优化问题,训练步骤2中设计的全连接神经网络;该神经网络的损失函数是输入与输出的误差平方和;该神经网络的训练目标是损失函数的最小化;步骤4:将待压缩的彩色图像输入步骤3训练好的全连接神经网络中,进行从输入层到隐含层的转换并提取对应的隐含层数据,得到压缩后的图像数据;步骤5:在关系型数据库中新建与隐含层的神经元的数量相同的浮点类型的数值型字段,将步骤四中得到的压缩后的图像数据进行存储;步骤6:将压缩后的图像数据,进行隐含层到输出层的转换,即可进行图像数据的恢复。
[0008]进一步的,所述步骤1的具体方法为:对像素为H
×
W的3通道彩色图像进行向量化处理;彩色图像的3个通道按照红绿蓝的排列顺序对应着3个尺寸均为H
×
W的灰度值矩阵R、G、B,将这三个矩阵依次按行展开成3个灰度值向量,每个向量的长度都是H
×
W,再把这三个向量拼接成一个长度为3
×
H
×
W的灰度值向量;将这个长为3
×
H
×
W的灰度值向量记为x。
[0009]进一步的,所述步骤2的具体方法为:设计一个3层的全连接神经网络,输入层(第1层)和输出层(第3层)的神经元的数量均是3
×
H
×
W,中间层的神经元的数量是M,为了达到压缩图像的目的,要求M远小于3
×
H
×
W;在对神经网络进行训练之前各层的参数都是未知的。
[0010]进一步的,所述为了确保较高的图像压缩率,M的值不超过3
×
H
×
W的1/10。
[0011]进一步的,所述3层的全连接神经网络,该神经网络的输入层到隐含层的转换过程为:设隐含层(中间层)有M个神经元, M个神经元的非线性激活函数是:,则从输入层到隐含层的转换公式为:其中,行1列的矩阵存储隐含层个神经元的输出值,W是行
列参数矩阵,b是行1列的参数矩阵,其中参数矩阵W、b及个神经元的非线性激活函数:的参数都为未知待求量。
[0012]进一步的,所述3层的全连接神经网络,该神经网络的隐含层到输出层转换过程为:设输出层有3
×
H
×
W个神经元,它们的非线性激活函数是:则从隐含层到输出层的转换公式为:其中, 行1列的矩阵存储输出层个神经元的输出值,是行列参数矩阵,是行1列的参数矩阵,是代表从压缩后的数据中恢复的行1列的图像数据矩阵;其中参数矩阵、及输出层的个神经元的非线性激活函数的参数都为未知待求量。
[0013]进一步的,所述步骤3具体方法为:采集张尺寸均为的3通道的图像,设它们的灰度值列向量分别是,将输入进该神经网络后,对应的输出向量分别是,为了确保从压缩后的数据中能尽可能地恢复输入图像的原始数据,要求输入与输出尽可能地接近,针对该神经网络地训练设计了如下的损失函数:其中是向量与自身的点积运算,N是正整数,损失函数是对应图像的输入与输出之差的平方再求和,衡量了第i张训练图像的输入与输出之间的接近程度;使用反向传播算法来求解无约束优化问题:可以得到:W , b , W
out , b
out , f
middle,1 , f
middle,2 ,
ꢀ…ꢀ
, f
middle , M , f
out,1 , f
out,2 ,
ꢀ…ꢀ
, f
out,3
×
H
×...

【技术保护点】

【技术特征摘要】
1.一种基于神经网络的数字档案馆图像压缩、存储、恢复方法,其特征在于,包括如下步骤:步骤1:将像素为H
×
W的3通道彩色图像的灰度矩阵转换成向量;步骤2:设计一个输入层与输出层神经元数量相同且隐含层的神经元的数量远小于输入层神经元数量的3层的全连接神经网络;步骤3:采集彩色图像数据,在训练数据上通过反向传播算法求解这个无约束优化问题,训练步骤2中设计的全连接神经网络;该神经网络的损失函数是输入与输出的误差平方和;该神经网络的训练目标是损失函数的最小化;步骤4:将待压缩的彩色图像输入步骤3训练好的全连接神经网络中,进行从输入层到隐含层的转换并提取对应的隐含层数据,得到压缩后的图像数据;步骤5:在关系型数据库中新建与隐含层的神经元的数量相同的浮点类型的数值型字段,将步骤四中得到的压缩后的图像数据进行存储;步骤6:将压缩后的图像数据,进行隐含层到输出层的转换,即可进行图像数据的恢复。2.根据权利要求1所述的基于神经网络的数字档案馆图像压缩、存储、恢复方法,其特征在于,所述步骤1的具体方法为:对像素为H
×
W的3通道彩色图像进行向量化处理;彩色图像的3个通道按照红绿蓝的排列顺序对应着3个尺寸均为H
×
W的灰度值矩阵R、G、B,将这三个矩阵依次按行展开成3个灰度值向量,每个向量的长度都是H
×
W,再把这三个向量拼接成一个长度为3
×
H
×
W的灰度值向量;将这个长为3
×
H
×
W的灰度值向量记为x。3.根据权利要求1所述的基于神经网络的数字档案馆图像压缩、存储、恢复方法,其特征在于,所述步骤2的具体方法为:设计一个3层的全连接神经网络,输入层和输出层的神经元的数量均是3
×
H
×
W,中间层的神经元的数量是M,为了达到压缩图像的目的,要求M远小于3
×
H
×
W;在对神经网络进行训练之前各层的参数都是未知的。4.根据权利要求3所述的基于神经网络的数字档案馆图像压缩、存储、恢复方法,其特征在于,所述为了确保较高的图像压缩率,M的值不超过3
×
H
×
W的1/10。5.根据权利要求3所述的基于神经网络的数字档案馆图像压缩、存储、恢复方法,其特征在于,所述3层的全连接神经网络,该神经网络的输入层到隐含层的转换过程为:设隐含层有M个神经元, M个神经元的非线性激活函数是:,则从输入层到隐含层的转换公式为:其中,行1列的矩阵存储隐含层个神经元的输出值,W是行列参数矩阵,b是行1列的参数矩阵,其中参数矩阵W、...

【专利技术属性】
技术研发人员:周力余晓红
申请(专利权)人:武汉搜优数字科技有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1