一种面向分子发现的多方协作联邦学习模型的方法技术

技术编号:45855879 阅读:12 留言:0更新日期:2025-07-19 11:15
本发明专利技术涉及联邦学习和分子发现领域,尤其是一种面向分子发现的多方协作联邦学习模型的方法。一种面向分子发现的多方协作联邦学习模型的方法在每个本地客户端引入异质差分隐私技术,确保分子局部模型参数在训练过程中得到保护。接着,保护后的局部模型参数信息被上传至中央服务器,通过Lanczos算法进行投影变换与加权平均,最终生成新的全局模型参数,下放至客户端进行多次通信更新训练。本发明专利技术利用异质差分隐私有效处理不同分子数据源的隐私保护问题,保障了分子数据隐私;同时采用Lanczos算法进行投影变换优化多方协作过程中的分子模型融合方式,生成新的全局模型参数,可提升分子模型的预测准确性。

【技术实现步骤摘要】

本申请涉及联邦学习和分子发现领域,尤其是涉及一种面向分子发现的多方协作联邦学习模型的方法


技术介绍

1、近年来,基于深度学习的分子筛选和生成方法已成为研究的热点,它通过构建神经网络模型来实现分子特征的自动提取与预测,显著提高了分子筛选和生成的效率和准确性。随着数据隐私和安全性问题的日益突出,传统的集中式训练模式面临严重的隐私泄露风险。

2、在涉及敏感数据(如分子数据、医疗数据等)的领域,如何在保证数据隐私的前提下进行有效的分子筛选和生成成为亟待解决的问题。因此,联邦学习作为一种新兴的分布式机器学习方法,通过将模型训练过程下放至各个客户端,避免了直接共享数据,从而有效保护了用户隐私。

3、目前,现有技术中公开的如论文“zhu,w.et al.federated learning ofmolecular properties with graph neural networks in a heterogeneoussetting.patterns 3,6(2022).”引入了一种federated learning with inst本文档来自技高网...

【技术保护点】

1.一种面向分子发现的多方协作联邦学习模型的方法,其特征在于:步骤如下:

2.根据权利要求1所述的一种面向分子发现的多方协作联邦学习模型的方法,其特征在于:步骤一中的所述全局模型参数是指一个用于分子筛选或生成的神经网络模型,将该神经网络模型下放至每个客户端。

3.根据权利要求2所述的一种面向分子发现的多方协作联邦学习模型的方法,其特征在于:所述神经网络模型是指图神经网络模型,用于分子筛选或生成任务,通过反向传播算法进行训练优化,具备处理分子结构特征及生成分子结构的能力;所述神经网络模型的输入层接收分子特征数据,输出层生成分子筛选或生成结果;在执行分子筛选任务时,模...

【技术特征摘要】

1.一种面向分子发现的多方协作联邦学习模型的方法,其特征在于:步骤如下:

2.根据权利要求1所述的一种面向分子发现的多方协作联邦学习模型的方法,其特征在于:步骤一中的所述全局模型参数是指一个用于分子筛选或生成的神经网络模型,将该神经网络模型下放至每个客户端。

3.根据权利要求2所述的一种面向分子发现的多方协作联邦学习模型的方法,其特征在于:所述神经网络模型是指图神经网络模型,用于分子筛选或生成任务,通过反向传播算法进行训练优化,具备处理分子结构特征及生成分子结构的能力;所述神经网络模型的输入层接收分子特征数据,输出层生成分子筛选或生成结果;在执行分子筛选任务时,模型的输出为分子与目标物质的匹配度评分,在执行分子生成任务时,模型的输出为符合特定约束条件的分子结构。

4.根据权利要求1所述的一种面向分子发现的多方协作联邦学习模型的方法,其特征在于:步骤二中的分子模型训练至收敛,在执行分子筛选任务时,通过使用优化器和分类损失函数来对模型进行迭代优化至收敛;在执行分子生成任务时,通过用优化器和负对数似然损失来对模型进行迭代优化至收敛。

5.根据权利要求1或4所述的一种面向分子发现的多方协作联邦学习模型的方法,其特征在于:步骤二中的异质差分隐私是指对安全性的不同客户数据端添加异质性的噪声保护机制,所述添加异质性的噪声保护机制的表达式如下:,其中,是噪声尺度,b是批量大小,是一个常数,是模型的学习率,是剪切阈值,是隐私预算;在安全性不同客户数据端添加异质性的噪声保护机制时,其中隐私预算从两个不同高斯分布采样得到,若高斯分布均值和方差会越小,则客户端数据安全性越高,反之高斯分布均值会越大,则客户端数据安全性越低。

6.根据权利要求5所述的一种面向分子发现...

【专利技术属性】
技术研发人员:吴宇恩章亮陈控
申请(专利权)人:中国科学技术大学
类型:发明
国别省市:

网友询问留言 已有0条评论
  • 还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。

1