【技术实现步骤摘要】
一种基于Transformer的图像压缩方法
[0001]本专利技术涉及图像处理
,进一步涉及图像处理
中一种基于Transformer的图像压缩方法。
技术介绍
[0002]随着科学技术的飞速发展,数据压缩一直是一门重要的研究课题,对数据传输、数据存储有重大的影响。图像压缩是数据压缩技术在数字图像上的应用,其目的是减少图像数据中的冗余,实现更加高效的格式存储和传输数据。在传统的图像压缩方法中,图像压缩分为预测、变换、量化、熵编码等步骤,每一步均采用人工设计的算法分别进行优化,复杂度较高,不能够有针对性的对图像进行压缩,且效率不高。深度学习的出现使得图像压缩方法有了突破性的进展,特别是基于端到端的深度图像压缩,相比传统方法,端到端图像压缩可以进行联合优化,能够取得比传统方法更高的压缩效率。近两年,随着Transformer 的提出,带来了一种新的特征提取机制,将其用于端到端图像压缩是一种新的尝试。
[0003]湖北工业大学其拥有的专利技术专利技术申请“一种基于Attention多特征融合的图像压缩感知重建 ...
【技术保护点】
【技术特征摘要】
block的三个输出特征图,Z
i
的计算如公式(1)所示其中,Softmax是归一化函数,Z
i
为Transformer block的三个输出特征图,Q
i
,V
i
,K
i
为输入的三个特征向量,为输入的特征向量K的转置,dim为Transformer block输出的维度;步骤1.1.2:Fusion操作,具体的:将输入的特征图利用1
×
1的卷积核进行卷积,并对步骤1.1.1所述三个输出Z1、Z2、Z3拼接在一起利用1
×
1的卷积核进行卷积,保持输出特征图的通道数与输入特征图的通道数一致,得到融合后的特征图。3.根据权利要求1中所述的一种基于Transformer的图像压缩方法,其特征在于:所述的步骤1.2所述的在通道自回归熵模型中引入了窗口自注意力机制,设计了窗口自注意力层和卷积层相结合的超先验解码器,对潜在表示进行全局特征提取,得到更准确的边界信息,具体包括如下步骤:步骤1.2.1:将步骤1.1所述的生成的潜在表示送入由卷积模块与窗口自注意力模块交替堆叠形成的超先验编码器进行下采样处理,得到被压缩图像的超潜在表示;步骤1.2.2:将步骤1.2.1所述的生成的被压缩图像的超潜在表示进行量化、压缩...
【专利技术属性】
技术研发人员:李永军,李博,李耀,罗金成,张东明,张大蔚,李超越,
申请(专利权)人:河南大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。