【技术实现步骤摘要】
一种面向中文的预训练方法及系统
本专利技术涉及一种面向中文的预训练方法及系统,属于自然语言处理
技术介绍
通常来说,大多数基于深度学习的自然语言处理任务可以分为以下三个模块处理:数据处理、文本表征和特定任务模型。其中,数据处理模块和特定任务模型模块需要根据具体任务的不同做相应设计,而文本表征模块则可以作为一个相对通用的模块来使用。因此,预训练一个通用的文本表征模块来复用文本特征,这对于文本的迁移学习具有重要意义。近年来,随着深度学习方法的快速发展,自然语言处理领域的机器翻译、机器阅读理解、命名实体识别等多个方面都取得了重要突破。借助于深度学习技术,面向自然语言处理领域的预训练技术也取得了长足的进步。在自然语言处理领域的背景下,预训练技术是指通过使用大规模无监督的文本语料来训练深层网络结构,从而得到一组模型参数,这种深层网络结构通常被称为“预训练模型”;将预训练好的模型参数应用到后续的其他特定任务上,这些特定任务通常被称为“下游任务”。目前,面向中文的预训练语言模型主要面临着以下问题:(1)中英文语言特性的较大差异导致模型效果往往并不理想。大多数预训练模型都是面向英文设计的,在模型的网络结构、训练方法和下游任务应用方式等方面,都或多或少考虑了英文的语言特性,由于中英文在语言特性方面存在着较大差异,如果将其直接迁移到中文领域,其效果往往并不理想。(2)可获取的中文无监督语料存在明显的分级现象,在数据规模、质量、领域方面均存在较大差异,难以充分利用。通常来说,相对质量差的语料规模较 ...
【技术保护点】
1.一种面向中文的预训练系统,其特征在于:所述预训练系统包括模型参数配置模块、预训练模型生成模块和服务封装模块;其中:/n模型参数配置模块,用于显示用户界面,以供用户自定义中文预训练模型的各个参数,配置的参数包括是否在模型中引入模型调优方法、更改预训练模型的超参数、以及指定三种不同级别的无监督预训练语料,所述的无监督预训练语料包括大规模通用语料、高质量通用语料和特定领域语料;/n预训练模型生成模块,用于根据用户提供的模型配置文件训练中文预训练模型,所述的预训练模型为基于分级的预训练模型,同时使用了多种针对中文文本设计的模型调优方法,最终模型的网络结构和参数将以模型文件的形式保存下来;/n服务封装模块,用于在预训练模型生成模块训练生成的预训练模型文件的基础上,部署一个中文特征抽取服务;对中文特征抽取服务进行封装,并给用户提供相应的Docker镜像,用户通过在本地或者服务器端运行该镜像,就可以快速部署一个中文特征抽取器的服务,从而可以抽取中文文本的上下文相关的语义表示,并将其应用于下游的中文任务中。/n
【技术特征摘要】
1.一种面向中文的预训练系统,其特征在于:所述预训练系统包括模型参数配置模块、预训练模型生成模块和服务封装模块;其中:
模型参数配置模块,用于显示用户界面,以供用户自定义中文预训练模型的各个参数,配置的参数包括是否在模型中引入模型调优方法、更改预训练模型的超参数、以及指定三种不同级别的无监督预训练语料,所述的无监督预训练语料包括大规模通用语料、高质量通用语料和特定领域语料;
预训练模型生成模块,用于根据用户提供的模型配置文件训练中文预训练模型,所述的预训练模型为基于分级的预训练模型,同时使用了多种针对中文文本设计的模型调优方法,最终模型的网络结构和参数将以模型文件的形式保存下来;
服务封装模块,用于在预训练模型生成模块训练生成的预训练模型文件的基础上,部署一个中文特征抽取服务;对中文特征抽取服务进行封装,并给用户提供相应的Docker镜像,用户通过在本地或者服务器端运行该镜像,就可以快速部署一个中文特征抽取器的服务,从而可以抽取中文文本的上下文相关的语义表示,并将其应用于下游的中文任务中。
2.一种面向中文的预训练方法,其特征在于包括步骤如下:模型参数配置、预训练模型生成和服务封装;其中:
步骤S1:模型参数配置:显示用户界面,以供用户自定义中文预训练模型的各个参数,配置的参数包括是否在模型中引入模型调优方法、更改预训练模型的超参数、以及指定三种不同级别的无监督预训练语料,所述的无监督预训练语料包括大规模通用语料、高质量通用语料和特定领域语料;
步骤S2:预训练模型生成:根据用户提供的模型配置文件训练中文预训练模型,所述的预训练模型为基于分级的预训练模型,同时使用了多种针对中文文本设计的模型调优方法,最终模型的网络结构和参数将以模型文件的形式保存下来;
步骤S3:服务封装:在步骤S2训练生成的预训练模型文件的基础上,部署一个中文特征抽取服务;对中文特征抽取服务进行封装,并给用户提供相应的Docker镜像,用户通过在本地或者服务器端运行该镜像,就可以快速部署一个中文特征抽取器的服务,从而可以抽取中文文本的上下文相关的语义表示,并将其应用于下游的中文任务中。
3.根据权利要求2所述的面向中文的预训练方法,其特征在于:步骤S2所述的预训练模型生成,具体过程如下:
S2.1:配置文件加载:根据用户自定义的模型配置文件,决定是否在预训练模型中引入调优方法,从而加载预训练模型的网络结构和训练过程的超参数,以及不同级别的无监督训练语料;
S2.2:文本预处理:对用户自定义的无监督语料进行清洗和文本切分的预处理操作,将处理后的文本序列作为预训练模型的输入;
S2.3:模型训练:针对分层模型结构,使用不同级别的无...
【专利技术属性】
技术研发人员:李舟军,刘俊杰,肖武魁,覃维,陈小明,范宇,
申请(专利权)人:深圳智能思创科技有限公司,
类型:发明
国别省市:广东;44
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。