【技术实现步骤摘要】
本专利技术涉及机器学习模型训练,具体涉及一种基于损失控制的分类模型成员推理防御方法及系统。
技术介绍
1、在信息时代的快速发展中,机器学习(machine learning,ml)已成为众多领域不可或缺的基石,其在人脸识别、图像分析、自动驾驶和医学诊断等方面取得了显著的成就。随着模型参数的增加,ml模型展示出了卓越的记忆能力,能够精确地拟合训练数据,并有能力记住其中的敏感信息。这种能力虽然在很多应用中被视为优势,但同时也引发了隐私泄露的风险。当模型无意中记住并可能泄露敏感数据时,就会威胁到用户的隐私安全。尤其是在处理个人身份信息、医疗记录或任何形式的敏感数据时,这种风险变得尤为显著。
2、成员推理攻击(membership inference attack,mia)是一种针对ml模型的隐私攻击方法,旨在确定特定数据点是否被用于模型的训练集中。通过分析模型对特定样本的响应,攻击者可以推断出该样本是否为训练集的一部分,从而泄露关于数据成员身份的信息。此类攻击不仅揭示了个人的隐私信息,例如一个人的医疗记录是否被用于训练医院的诊断模
...【技术保护点】
1.一种基于损失控制的分类模型成员推理防御方法,其特征在于,包括:
2.根据权利要求1所述的一种基于损失控制的分类模型成员推理防御方法,其特征在于,
3.根据权利要求2所述的一种基于损失控制的分类模型成员推理防御方法,其特征在于,
4.根据权利要求1所述的一种基于损失控制的分类模型成员推理防御方法,其特征在于,构造软标签ti如下:
5.根据权利要求1所述的一种基于损失控制的分类模型成员推理防御方法,其特征在于,使用目标损失更新参数θ的计算公式为:
6.根据权利要求1所述的一种基于损失控制的分类模型成员推理防御
...【技术特征摘要】
1.一种基于损失控制的分类模型成员推理防御方法,其特征在于,包括:
2.根据权利要求1所述的一种基于损失控制的分类模型成员推理防御方法,其特征在于,
3.根据权利要求2所述的一种基于损失控制的分类模型成员推理防御方法,其特征在于,
4.根据权利要求1所述的一种基于损失控制的分类模型成员推理防御方法,其特征在于,构造软标签ti如下:
5.根据权利要求1所述的一种基于损失控制的分类模型成员推理防御方法,其特征在于,使用目标损失更新参数θ的计算公式为:
6.根据权利要求1所述的一种基于损失控制的分类模型成...
【专利技术属性】
技术研发人员:杨洪伟,何慧,张伟哲,卢仁浩,杨博,
申请(专利权)人:哈尔滨工业大学,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。