当前位置: 首页 > 专利查询>西北大学专利>正文

基于密集特征融合和CycleGAN的戏曲服装迁移方法技术

技术编号:38756499 阅读:33 留言:0更新日期:2023-09-10 09:41
本发明专利技术公开了一种基于密集特征融合和CycleGAN的戏曲服装迁移方法:步骤1,根据公开数据集获取身体语义分割图、遮掩服装的模特图像、模特身上穿着服装和目标服装的组合图、模特身上穿着的形变服装和目标服装的形变服装的组合图,得到训练集;步骤2,构建DC

【技术实现步骤摘要】
基于密集特征融合和CycleGAN的戏曲服装迁移方法


[0001]本专利技术属于计算机视觉
,涉及一种基于密集特征融合和CycleGAN的戏曲服装迁移方法。

技术介绍

[0002]服装迁移,又称虚拟试衣,是一个前沿的热点研究方向。伴随着互联网技术的高速发展,网购服装、线上会议、线上观看戏剧、话剧和演唱会等已经成为了一种趋势。随着神经网络广泛应用于计算机视觉领域,服装迁移技术取得了快速发展,多种服装迁移网络相继被提出,迁移效果不断提升。服装迁移在合成最终图像上需满足:第一,合成图像中模特的身体部位和姿势与原始模特图像相同;第二,合成图片中目标服装应根据人的姿势和体形自然变形;第三,目标服装在迁移后的细节应清晰可见,包括颜色和纹路等低级特征,以及刺绣、logo等复杂特征;第四,不打算更换的衣物物品(如裤子、裙子)应保留原样式。由于服装在外观、图案、纹路等方面的多样性以及实际应用场景的复杂性,实现高还原度的服装迁移仍存在不少问题,如特征丢失、过度变形、存在伪影、计算资源消耗较高等。
[0003]传统的服装迁移方法主要通过构建人体和服装的本文档来自技高网...

【技术保护点】

【技术特征摘要】
1.一种基于密集特征融合和CycleGAN的戏曲服装迁移方法,其特征在于,包括如下步骤:步骤1,根据公开数据集VITON,获取身体语义分割图S、遮掩服装的模特图像I
m
、模特身上穿着服装和目标服装的组合图C、模特身上穿着的形变服装和目标服装的形变服装的组合图C
w
,得到训练集;步骤2,构建DC

VTON模型,包括密集特征融合生成器和两个判别器;其中,所述密集特征融合生成器包括交替分布的多个上下文感知归一化层和密集卷积层以及一个输出层,所述上下文感知归一化层和密集卷积层的个数相同;所述密集特征融合生成器中,每个网络层的输出均传递给后续所有层作为输入;所述上下文感知归一化层包括三个卷积层、一个批归一化模块,用于实现如下过程:步骤1采集到的四幅图像拼接得到的拼接图IC进入三个卷积网络得到归一化系数γ和偏差参数β,当前上下文感知归一化层的所接收到的前面所有层的结果进入批归一化模块进行归一化处理得到特征图X
B
,再通过下式得到当前上下文感知归一化层的输出X
C
,计算公式如下:X
C
=X
B

γ+β其中,

表示逐元素矩阵乘法,γ表示归一化系数,β表示偏差参数;步骤3,将训练集代入步骤2构建的DC

VTON模型进行循环一致性训练,得到训练好的DC

VTON模型;步骤4,将待迁移的穿着服装的模特图像和目标图像输入到训练好的DC

VTON模型中,得到迁移后的图像。2.如权利要求1所述的基于密集特征融合和CycleGAN的戏曲服装迁移方法,其特征在于,所述步骤1中:(1)身体语义分割图S,根据VITON中的模特图像I
t
人体解析器CorrPM生成;(2)遮掩服装的模特图像I
m
,采用下式计算得到:I
m
=I

【专利技术属性】
技术研发人员:陈莉翟洪颢谢飞高涵
申请(专利权)人:西北大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1