当前位置: 首页 > 专利查询>河南大学专利>正文

一种基于Transformer的图像压缩方法技术

技术编号:35858166 阅读:48 留言:0更新日期:2022-12-07 10:46
本发明专利技术提供了一种基于Transformer的图像压缩方法,主要包括如下步骤:构建基于Transformer的深度图像压缩模型;建立用于深度压缩模型的训练集、验证集和测试集;最后将处理好的深度图像压缩数据集送入构建好的基于Transformer深度图像压缩模型进行训练;通过预设方式对基于Transformer深度图像压缩模型进行优化,并重复迭代训练及优化的过程,直至损失函数趋近于恒定值时停止迭代训练并输出优化后的基于Transformer深度图像压缩模型;利用训练好的Transformer深度图像压缩模型对图像进行压缩和重建并对压缩结果进行评价或进一步对其进行分析和理解。本发明专利技术所述方法使用了先进的Transformer特征提取网络显著提升压缩图像的质量,并在很大程度上节省图像存储开销。本发明专利技术在图像存储、传输、分析等领域具有重要的应用价值。具有重要的应用价值。具有重要的应用价值。

【技术实现步骤摘要】
一种基于Transformer的图像压缩方法


[0001]本专利技术涉及图像处理
,进一步涉及图像处理
中一种基于Transformer的图像压缩方法。

技术介绍

[0002]随着科学技术的飞速发展,数据压缩一直是一门重要的研究课题,对数据传输、数据存储有重大的影响。图像压缩是数据压缩技术在数字图像上的应用,其目的是减少图像数据中的冗余,实现更加高效的格式存储和传输数据。在传统的图像压缩方法中,图像压缩分为预测、变换、量化、熵编码等步骤,每一步均采用人工设计的算法分别进行优化,复杂度较高,不能够有针对性的对图像进行压缩,且效率不高。深度学习的出现使得图像压缩方法有了突破性的进展,特别是基于端到端的深度图像压缩,相比传统方法,端到端图像压缩可以进行联合优化,能够取得比传统方法更高的压缩效率。近两年,随着Transformer 的提出,带来了一种新的特征提取机制,将其用于端到端图像压缩是一种新的尝试。
[0003]湖北工业大学其拥有的专利技术专利技术申请“一种基于Attention多特征融合的图像压缩感知重建方法”(专利申请号:本文档来自技高网...

【技术保护点】

【技术特征摘要】
block的三个输出特征图,Z
i
的计算如公式(1)所示其中,Softmax是归一化函数,Z
i
为Transformer block的三个输出特征图,Q
i
,V
i
,K
i
为输入的三个特征向量,为输入的特征向量K的转置,dim为Transformer block输出的维度;步骤1.1.2:Fusion操作,具体的:将输入的特征图利用1
×
1的卷积核进行卷积,并对步骤1.1.1所述三个输出Z1、Z2、Z3拼接在一起利用1
×
1的卷积核进行卷积,保持输出特征图的通道数与输入特征图的通道数一致,得到融合后的特征图。3.根据权利要求1中所述的一种基于Transformer的图像压缩方法,其特征在于:所述的步骤1.2所述的在通道自回归熵模型中引入了窗口自注意力机制,设计了窗口自注意力层和卷积层相结合的超先验解码器,对潜在表示进行全局特征提取,得到更准确的边界信息,具体包括如下步骤:步骤1.2.1:将步骤1.1所述的生成的潜在表示送入由卷积模块与窗口自注意力模块交替堆叠形成的超先验编码器进行下采样处理,得到被压缩图像的超潜在表示;步骤1.2.2:将步骤1.2.1所述的生成的被压缩图像的超潜在表示进行量化、压缩...

【专利技术属性】
技术研发人员:李永军李博李耀罗金成张东明张大蔚李超越
申请(专利权)人:河南大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1