基于深度学习的古代破损纺织品图像的复原方法及系统技术方案

技术编号:37068041 阅读:10 留言:0更新日期:2023-03-29 19:45
本发明专利技术公开了基于深度学习的古代破损纺织品图像的复原方法及系统,涉及深度学习和计算机视觉领域,包括以下步骤:S1、建立数据集;S2、获取训练数据集;S3、判别生成图像;S4、图像修复。本发明专利技术根据古代纺织品具有重复性和规律性的特点利用改进后的深度卷积生成对抗网络来训练古代纺织品图像修复模型,实现对残损的古代纺织品图像的修复。古代纺织品图像的修复。古代纺织品图像的修复。

【技术实现步骤摘要】
基于深度学习的古代破损纺织品图像的复原方法及系统


[0001]本专利技术涉及深度学习和计算机视觉领域,尤其是基于深度学习的古代破损纺织品图像的复原方法及系统。

技术介绍

[0002]从现今留存下来的纺织品文物来看,古代先民们使用不同的纺织工艺来进行织造不同种类、不同材质、不同纹样的纺织品,并且从矿石、植物、动物等自然界中提取天然染料对织就的纺织品进行染色。这些精美的纺织品大多随墓葬出土,出土后的纺织品文物由于埋藏时间较长以及受到水蚀、霉菌、泥土、虫蛀等埋藏环境的影响,纺织品文物往往会出现扭曲、折叠、粘连、结构残缺、破损、褪色等问题。同时出土后的纺织品可能会带有污渍斑点,这些都影响了我们对古代纺织品文物的研究,需要专业的纺织品修复人员对其进行整理和修复。但是纺织品修复过程复杂繁琐,修复周期长,长时间的修复工作会导致纺织品文物的纤维强度下降,易发生脆化断裂,同时纺织品文物上的有害物质还会对修复人员的身体造成伤害。所以采用数字化的手法从古代纺织品文物的图像角度入手,引入深度学习的方法,对古代纺织品文物的图像进行修复是很有必要的。
[0003]然而,目前针对古代纺织品文物图像修复的方法均是基于纹理修复的Criminisi算法,这种方法首先是计算优先权来决定待修复的破损区域的顺序,再锁定纺织品完好的部位作为样本块,利用样本块进行古代纺织品破损区域的填充,虽然可以对一些纺织品文物的图像进行修复,但是复原的纺织品文物图像的信息较为浅层,提取不到纺织品文物图像的深层特征,并且面对纺织品文物较大的破损时容易出现修复后的纺织品文物图像纹理混乱、边缘不连贯等问题。
[0004]因此,提出一种基于深度学习的古代破损纺织品图像的复原方法及系统,来解决现有技术存在的困难,是本领域技术人员亟需解决的问题。

技术实现思路

[0005]有鉴于此,本专利技术提供了一种基于深度学习的古代破损纺织品图像的复原方法及系统,采用改进后的DCGAN模型进行古代纺织品图像的修复。
[0006]为了实现上述目的,本专利技术采用如下技术方案:
[0007]基于深度学习的古代破损纺织品图像的复原方法,包括以下步骤:
[0008]S1.建立数据集:收集古代纺织品图像,得到古代纺织品图像数据集;
[0009]S2.获取训练数据集:将古代纺织品图像数据集的部分数据作为训练样本,对该训练样本中的真实古代纺织品图像进行预处理后得到加噪声的古代纺织品图像,将加噪声的古代纺织品图像和真实古代纺织品图像作为训练数据集;
[0010]S3.判别生成图像:将加噪声的古代纺织品图像,输入生成模型中进行反卷积,得到生成的古代纺织品图像的相似图像;将生成的古代纺织品图像的相似图像和真实古代纺织品图像输入到判别器中,用以判别生成的古代纺织品图像的相似图像的真假,若为假则
重新训练生成模型,若为真则修复成功,得到改进后的DCGAN模型;
[0011]S4.图像修复:将待修复的古代纺织品图像数据输入到改进后的DCGAN模型中,得到接近真实的古代纺织品图像。
[0012]上述的方法,可选的,S1建立数据集步骤具体包括以下内容:
[0013]对纺织品种类进行编码,得出下列三层概念体系:第一层为编织和刺绣;第二层为几何、动物、植物和景器物;第三层将第二层的进一步细化分类。
[0014]上述的方法,可选的,S2获取训练数据集包括以下步骤:
[0015]S2获取训练数据集包括以下步骤:
[0016]S201,对S2中训练数据集中的数据的结构进行自动检测,计算纹样组合重复的距离,选择最优步长;
[0017]S202,输入大小为n的随机向量z,将其映射成特征图;
[0018]S203,将步骤S202中的随机向量z通过卷积层1、卷积层2、卷积层3、卷积层4得到生成古代纺织品图像的相似图像G(z)。
[0019]上述的方法,可选的,S203具体包括:
[0020]S203具体包括以下步骤:卷积层1、卷积层2、卷积层3、卷积层4的卷积核的尺寸均为3
×
3,步长采用自适应的方式进行选取,输出层采用Tanh激活函数,其它层采用ReLU激活函数。
[0021]上述的方法,可选的,S3中改进后的DCGAN模型的损失函数选择交叉熵损失函数,其公式如下:
[0022][0023]其中,x为真实的古代纺织品图像数据;z为输入的随机向量;p
data
为真实古代纺织品图像的数据分布;p
z
为生成的古代纺织品图像数据的分布;D(x)表示真实数据的判别结果;D(G(z))表示生成数据的判别结果。
[0024]上述的方法,可选的,S3具体包括以下内容:
[0025]训练时,先固定判别模型,训练生成模型,当生成模型生成的古代纺织品图像达到预设概率通过判别模型的判断后,再固定生成模型;进而训练判别模型,得到训练好的判别模型;训练好的生成模型与训练好的判别模型组成改进后的DCGAN模型。
[0026]可选的,基于深度学习的古代破损纺织品图像的复原系统,应用上述任一项的基于深度学习的古代破损纺织品图像的复原方法,包括:建立数据集模块、获取训练数据集模块、判别生成图像模块、图像修复模块;
[0027]建立数据集模块:收集古代纺织品图像,得到古代纺织品图像数据集;
[0028]获取训练数据集模块:与建立数据集模块输入端相连,将古代纺织品图像数据集的部分数据作为训练样本,对该训练样本中的真实古代纺织品图像进行预处理后得到加噪声的古代纺织品图像,将加噪声的古代纺织品图像和真实古代纺织品图像作为训练数据集;
[0029]判别生成图像模块:将加噪声的古代纺织品图像,输入生成模型中进行反卷积,得到生成的古代纺织品图像的相似图像;将生成的古代纺织品图像的相似图像和真实古代纺织品图像输入到判别器中,用以判别生成的古代纺织品图像的相似图像的真假,若为假则
重新训练生成模型,若为真则修复成功,得到改进后的DCGAN模型;
[0030]图像修复模块:与判别生成古代纺织品图像的相似图像模块输入端相连,将待修复的古代纺织品图像数据输入到改进后的DCGAN模型中,得到接近真实的古代纺织品图像。
[0031]上述的系统,可选的,还包括用户图像上传模块:用户上传古代纺织品图像数据,收集待修复的古代纺织品图像。
[0032]经由上述的技术方案可知,与现有技术相比,本专利技术的有益效果是:
[0033](1)本专利技术提出的基于深度学习的古代破损纺织品图像的复原方法及系统相比现有古代纺织品实物修复的方法来讲,可以减少修复的时间,纺织品脆弱易断裂,需要纺织品修复人员谨慎对待,人工对古代纺织品修复需要花费大量的时间,长时间的将古代纺织品暴露在空气中,会加速对纺织品的老化。从图像层面对古代纺织品进行数字化修复,也可以减少对古代纺织品的接触,避免直接接触古代纺织品实物,以防对纺织品的二次损毁。
[0034](2)本专利技术采用深度学本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.基于深度学习的古代破损纺织品图像的复原方法,其特征在于,包括以下步骤:S1.建立数据集:收集古代纺织品图像,得到古代纺织品图像数据集;S2.获取训练数据集:将古代纺织品图像数据集的部分数据作为训练样本,对该训练样本中的真实古代纺织品图像进行预处理后得到加噪声的古代纺织品图像,将加噪声的古代纺织品图像和真实古代纺织品图像作为训练数据集;S3.判别生成图像:将加噪声的古代纺织品图像,输入生成模型中进行反卷积,得到生成的古代纺织品图像的相似图像;将生成的古代纺织品图像的相似图像和真实古代纺织品图像输入到判别器中,用以判别生成的古代纺织品图像的相似图像的真假,若为假则重新训练生成模型,若为真则修复成功,得到改进后的DCGAN模型;S4.图像修复:将待修复的古代纺织品图像数据输入到改进后的DCGAN模型中,得到接近真实的古代纺织品图像。2.根据权利要求1所述的基于深度学习的古代破损纺织品图像的复原方法,其特征在于,S1建立数据集的具体内容为:对纺织品种类进行编码,得出下列三层概念体系:第一层为编织和刺绣;第二层为几何、动物、植物和景器物;第三层将第二层的进一步细化分类。3.根据权利要求1所述的基于深度学习的古代破损纺织品图像的复原方法,其特征在于,S2获取训练数据集包括以下步骤:S201,对S2中训练数据集中的数据的结构进行自动检测,计算纹样组合重复的距离,选择最优步长;S202,输入大小为n的随机向量z,将其映射成特征图;S203,将步骤S202中的随机向量z通过卷积层1、卷积层2、卷积层3、卷积层4得到生成古代纺织品图像的相似图像G(z)。4.根据权利要求3所述的基于深度学习的古代破损纺织品图像的复原方法,其特征在于,S203具体包括以下步骤:卷积层1、卷积层2、卷积层3、卷积层4的卷积核的尺寸均为3
×
3,步长采用自适应的方式进行选取,输出层采用Tanh激活函数,其它层采用ReLU激活函数。5.根据权利要求1所述的基于深度学习的古代破损纺织品图像的复原方法,其特征在于,S3中改进后的DCGAN模型的损失函数选择交叉...

【专利技术属性】
技术研发人员:沙莎魏宛彤罗磊江学为陶辉
申请(专利权)人:武汉纺织大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1