【技术实现步骤摘要】
用于隐私保护的模型微调方法以及风险控制方法
[0001]本专利技术涉及一种用户安全管理方法,尤其涉及一种风险控制方法。
技术介绍
[0002]随着手机支付等技术的普及与发展,用户既希望拥有丰富的用户体验,又希望自身的支付安全有所保障,因此在获取用户个性化信息的过程中,风险控制和安全算法识别的实时性问题在当下手机支付等领域中至关重要。
[0003]端模型指部署在端节点,例如用户的手机、平板电脑等用户设备上,用于用户侧推理的模型,与云模型相比更适合用于解决上述问题,其不仅具备较高的实时性,而且模型参数少,大大降低服务器端的链路压力和计算压力,实现轻量级工作。但轻量级的端模型在泛化能力上有所不足,可以采用个性化学习来实现端模型对不同分布的样本之间的自适应,最常用的个性化学习方法即通过少量的特定用户数据样本在一个预训练的模型上进行微调以实现对用户的个性化表征。
[0004]BitFit方法和LoRa方法是目前常用的两种端模型微调方法。然而,BitFit方法通过不修改预训练模型中参数的权重而只修改偏置实现微调,但同时丧失了预训练模型的部分泛化能力,且模型参数量少,很难拥有一个较好的表征搜索空间,也无法对用户样本进行保护;而LoRa方法通过建立旁路编解码网络进行微调,拥有较好的表征搜索空间,但由于样本不足,存在预训练模型无法充分训练甚至过拟合的问题,端模型的性能得不到保证。
[0005]鉴于此,希望获得一种新的用于隐私保护的模型微调方法,使用户样本的数量、端模型的泛化能力和计算开销三种因素获得平衡,同时能 ...
【技术保护点】
【技术特征摘要】
1.一种用于隐私保护的模型微调方法,应用于服务器端,所述方法包括:将自适应模块嵌入特征提取网络中,得到自适应模型;采用第一数据对所述自适应模型进行预训练,并在预训练过程中对所述自适应模块以外的自适应模型参数进行更新,以得到预训练模型;将所述预训练模型下发至用户端,以使用户端能够采用第二数据对所述预训练模型进行训练,并在训练过程中对所述自适应模块的参数进行更新,直至预训练模型收敛,得到用户端推理模型。2.如权利要求1所述的用于隐私保护的模型微调方法,所述将自适应模块嵌入特征提取网络中的步骤包括:基于线性层或卷积层构建所述自适应模块,将所述自适应模块嵌入特征提取网络中。3.如权利要求2所述的用于隐私保护的模型微调方法,所述基于线性层或卷积层构建所述自适应模块的步骤包括:基于卷积层构建CaSE模块,以作为所述自适应模块;所述CaSE模块包括卷积层和旁路池化层。4.如权利要求1所述的用于隐私保护的模型微调方法,所述将自适应模块嵌入特征提取网络中的步骤包括:将自适应模块嵌入特征提取网络的中间层之后。5.如权利要求1所述的用于隐私保护的模型微调方法,所述将自适应模块嵌入特征提取网络中的步骤包括:将所述自适应模块嵌入基于ResNet结构构建的特征提取网络中。6.如权利要求5所述的用于隐私保护的模型微调方法,将所述自适应模块嵌入基于ResNet结构构建的特征提取网络中的步骤包括:将所述自适应模块嵌入基于ResNet结构构建的特征提取网络的两个相邻卷积层的激活层之后。7.如权利要求1所述的用于隐私保护的模型微调方法,所述第一数据至少包括获取自服务器端的大数据。8.一种用于隐私保护的模型微调方法,应用于用户端,所述方法包括:接收服务器端下发的所述预训练模型,其中所述预训练模型是服务器端将自适应模块嵌入特征提取网络中得到自适应模型,再采用第一数据对所述自适应模型进行预训练,在预训练过程中对所述自适应模块以外的自适应模型参数进行更新而获得的;采用第二数据对所述预训练模型进行训练,在训练过程中对所述自适应模块的参数进行更新,直至预训练模型收敛,得到用户端推理模型。9.如权利要求8所述的用于隐私保护的模型微调方法,所述采用第二数据对所述预训练模型进行训练,在训练过程中对所述自适应模块的参数进行更新的步骤包括:采用第二数据对所述预训练模型进行训练,在训练过程中仅对所述自适应模块的参数进行更新,将预训练模型的其他参数当作常量。10.如权利要求8所述的用于隐私保护的模型微调方法,所述采用第二数据对所述预训练模型进行训练的步骤包括:采用第二数据对所述预训练模型进行差分隐私训练。
11.如权利要求10所述的用于隐私保护的模型微调方法,所述采用第二数据对所述预训练模型进行差分隐私训练,在训练过程中对所述自适应模块的参数进行更新的步骤包括:基于所述第二数据求解逐样本梯度;对所述逐样本梯度进行处理,得到处理后的梯度;采用所述处理后的梯度对所述预训练模型进行参数更新。12.如权利要求11所述的用于隐私保护的模型微调方法,对所述逐样本梯度进行处理的步骤包括:对所述逐样本梯度进行裁...
【专利技术属性】
技术研发人员:申书恒,张长浩,傅欣艺,王维强,
申请(专利权)人:支付宝杭州信息技术有限公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。