一种包装设计语言模型的训练方法、装置、介质及设备制造方法及图纸

技术编号:38392147 阅读:9 留言:0更新日期:2023-08-05 17:45
本发明专利技术涉及一种包装设计语言模型的训练方法、装置、设备及介质,属于包装设计技术领域,本发明专利技术技术方案主要包括:获取包装设计用语数据和预训练语言模型;对所述包装设计用语数据进行分词处理,以提取所述包装设计用语数据中的关键词、短语或者行业术语;将所述关键词、短语和行业术语进行去重之后加入所述预训练语言模型的词汇表中;获取自定义包装设计数据集;根据设定的损失函数和优化器,基于所述自定义包装设计数据集对所述预训练语言模型进行微调,以更新所述预训练语言模型的网络权重和所述词汇表中词汇对应的词向量,获得所述包装语言模型。包装语言模型。包装语言模型。

【技术实现步骤摘要】
一种包装设计语言模型的训练方法、装置、介质及设备


[0001]本专利技术属于包装设计
,具体而言涉及一种包装设计语言模型的训练方法、装置、介质及设备。

技术介绍

[0002]随着市场竞争的加剧,各种产品的包装设计越来越受到企业和消费者的重视。
[0003]传统的包装设计方法耗时、耗费人力物力,且设计师与客户沟通存在误解,导致设计效果与客户需求存在一定的差距。因此,能够提高设计效率并满足客户需求,具有重要的现实意义。
[0004]本专利技术的目的在于解决对于用户包装设计需求的信息理解问题。

技术实现思路

[0005]鉴于上述的分析,本专利技术实施例旨在提供一种包装设计语言模型的训练方法、装置、设备及介质,用以解决现有技术中用户包装设计需求的信息理解的问题。
[0006]本专利技术第一方面实施例提供一种包装设计语言模型的训练方法,包括以下步骤:获取包装设计用语数据和预训练语言模型;对所述包装设计用语数据进行分词处理,以提取所述包装设计用语数据中的关键词、短语或者行业术语;将所述关键词、短语和行业术语进行去重之后加入所述预训练语言模型的词汇表中;获取自定义包装设计数据集;根据设定的损失函数和优化器,基于所述自定义包装设计数据集对所述预训练语言模型进行微调,以更新所述预训练语言模型的网络权重和所述词汇表中词汇对应的词向量,获得所述包装语言模型。
[0007]在一些实施例中,在对所述包装设计用语数据进行分词处理之前还包括:对所述包装设计用语数据进行第一预处理,所述第一预处理包括去除HTML标签和特殊字符、进行数据清洗以及去除停用词。
[0008]在一些实施例中,所述分词处理包括采用文本处理工具对所述包装设计用语数据进行分词处理以获得分词结果,所述文本处理工具包括jieba分词或者THULAC。
[0009]在一些实施例中,所述关键词的提取方法包括基于BERT的TextRank或者BERT关键词抽取库从所述分词结果中提取所述关键词,所述BERT关键词抽取库包括Bert

extractive

keywords;所述短语和所述行业术语的提取包括,通过词性标注工具对所述分词结果进行词性分析,通过组合不同词性的词汇提取包含实际意义的短语和行业术语,所述词性标注工具包括jieba词性标注或者LTP。
[0010]在一些实施例中,所述获取自定义包装设计数据集,包括:
对包装设计行业数据进行第二预处理以使得所述包装设计行业数据满足所述预训练语言模型的输入格式,进而形成所述自定义包装设计数据集。
[0011]在一些实施例中,所述损失函数包括交叉熵损失或者均方差损失;所述优化器包括Adam或者SGD。
[0012]在一些实施例中,将所述自定义包装设计数据集划分为训练集和验证集,通过所述验证集对经过训练集微调后的所述预训练语言模型进行评估以获得准确率、召回率或者F1分,根据所述准确率、召回率或者F1分对所述微调的过程进行调整。
[0013]本专利技术第二方面实施例提供一种包装设计语言模型的训练装置,包括:第一获取模块,用于获取包装设计用语数据和预训练语言模型;分词和提取模块,用于对所述包装设计用语数据进行分词处理,以提取所述包装设计用语数据中的关键词、短语或者行业术语;去重模块,用于将所述关键词、短语和行业术语进行去重之后加入所述预训练语言模型的词汇表中;第二获取模块,用于获取自定义包装设计数据集;微调模块,用于根据设定的损失函数和优化器,基于所述自定义包装设计数据集对所述预训练语言模型进行微调,以更新所述预训练语言模型的网络权重和所述词汇表中词汇对应的词向量,获得所述包装语言模型。
[0014]本专利技术第三方面实施例提供一种电子设备,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时实现如上任一实施例所述的包装设计语言模型的训练方法。
[0015]本专利技术第四方面实施例提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上任一实施例所述的包装设计语言模型的训练方法。
[0016]本专利技术实施例至少具有以下有益效果:本专利技术提供的包装设计语言模型可以对包装设计专业术语和概念的理解,可有效完成人机交互、设计需求预测和设计案例生成等任务。本专利技术提供了一种实用、高性能的包装设计智能助手,有益于提升包装设计行业的工作效率。
附图说明
[0017]为了更清楚地说明本说明书实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书实施例中记载的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的附图。
[0018]图1为本专利技术第一方面实施例提供的包装设计语言模型的训练方法流程示意图;图2为本专利技术第二方面实施例提供的包装设计语言模型的训练装置架构示意图;图3为本专利技术第三方面实施例提供的电子设备架构示意图。
具体实施方式
[0019]为使本专利技术实施例的目的、技术方案和优点更加清楚,下面将结合本专利技术实施例
中的附图,对本专利技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本专利技术一部分实施例,而不是全部的实施例。需要说明的是,在不冲突的情况下,本公开中的实施方式及实施方式中的特征可以相互组合、分离、互换和/或重新布置。基于本专利技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本专利技术保护的范围。
[0020]这里使用的术语是为了描述具体实施例的目的,而不意图是限制性的。如这里所使用的,除非上下文另外清楚地指出,否则单数形式“一个(种、者)”和“所述(该)”也意图包括复数形式。此外,当在本说明书中使用术语“包含”和/或“包括”以及它们的变型时,说明存在所陈述的特征、整体、步骤、操作、部件、组件和/或它们的组,但不排除存在或附加一个或更多个其它特征、整体、步骤、操作、部件、组件和/或它们的组。还要注意的是,如这里使用的,术语“基本上”、“大约”和其它类似的术语被用作近似术语而不用作程度术语,如此,它们被用来解释本领域普通技术人员将认识到的测量值、计算值和/或提供的值的固有偏差。
[0021]以下通过具体实施例对本专利技术第一方面实施例提供的知识图谱构建和动态扩展方法进行介绍。请参阅图1,本专利技术第一方面实施例提供一种包装设计语言模型的训练方法,包括以下步骤:获取包装设计用语数据和预训练语言模型;对所述包装设计用语数据进行分词处理,以提取所述包装设计用语数据中的关键词、短语或者行业术语;将所述关键词、短语和行业术语进行去重之后加入所述预训练语言模型的词汇表中;获取自定义包装设计数据集;根据设定的损失函数和优化器,基于所述自定义包装设计数据集对所述预训练语言模型进行微调,以更新所述预训练语言模型的网络权重和所述词汇表中词汇对应的词向量,获得所述包装语言模型。
[0022]本专利技术实施例基于LLM(Lar本文档来自技高网
...

【技术保护点】

【技术特征摘要】
1.一种包装设计语言模型的训练方法,其特征在于,包括:获取包装设计用语数据和预训练语言模型;对所述包装设计用语数据进行分词处理,以提取所述包装设计用语数据中的关键词、短语或者行业术语;将所述关键词、短语和行业术语进行去重之后加入所述预训练语言模型的词汇表中;获取自定义包装设计数据集;根据设定的损失函数和优化器,基于所述自定义包装设计数据集对所述预训练语言模型进行微调,以更新所述预训练语言模型的网络权重和所述词汇表中词汇对应的词向量,获得所述包装语言模型。2.根据权利要求1所述的包装设计语言模型的训练方法,其特征在于:在对所述包装设计用语数据进行分词处理之前还包括:对所述包装设计用语数据进行第一预处理,所述第一预处理包括去除HTML标签和特殊字符、进行数据清洗以及去除停用词。3.根据权利要求1所述的包装设计语言模型的训练方法,其特征在于:所述分词处理包括采用文本处理工具对所述包装设计用语数据进行分词处理以获得分词结果,所述文本处理工具包括jieba分词或者THULAC。4.根据权利要求1所述的包装设计语言模型的训练方法,其特征在于:所述关键词的提取方法包括基于BERT的TextRank或者BERT关键词抽取库从所述分词结果中提取所述关键词,所述BERT关键词抽取库包括Bert

extractive

keywords;所述短语和所述行业术语的提取包括,通过词性标注工具对所述分词结果进行词性分析,通过组合不同词性的词汇提取包含实际意义的短语和行业术语,所述词性标注工具包括jieba词性标注或者LTP。5.根据权利要求1所述的包装设计语言模型的训练方法,其特征在于:所述获取自定义包装设计数据集,包括:对包装设...

【专利技术属性】
技术研发人员:陈彦郝晓伟
申请(专利权)人:大家智合北京网络科技股份有限公司
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1