【技术实现步骤摘要】
基于隐私计算的纵向联邦XGBoost特征衍生方法及相关设备
[0001]本公开涉及计算机
,尤其涉及一种基于隐私计算的纵向联邦XGBoost特征衍生方法、装置、电子设备及计算机可读存储介质。
技术介绍
[0002]为了提升LR(Logistic Regression,逻辑回归)模型的预测效果,在进行LR模型训练时,往往需要大量的特征数据,而实际场景中,由于数据来源受限,只能获得少量的特征数据,需要利用该部分少量的特征数据进行数据衍生,从而获得足量的满足模型训练要求的特征数据。
[0003]目前,相关技术中主要依靠人工经验通过特征筛选、特征组合等方式来构建衍生特征数据,不仅耗时耗力,且对模型预测效果提升的意义并不十分明显。当然也可通过FM(Factorization Machines,因子分解机)、FFM(Field
‑
aware Factorization Machine,场感知因子分解机)进行特征交叉,从原始特征数据中得到新的衍生特征数据,但FM和FFM只能做二阶的特征交叉,若要提升特征交叉 ...
【技术保护点】
【技术特征摘要】
1.一种基于隐私计算的纵向联邦XGBoost特征衍生方法,其特征在于,包括:获取基于隐私计算的联邦学习方法训练得到的XGBoost模型;基于所述XGBoost模型对待输入至逻辑回归LR模型的目标特征数据进行衍生,得到所述目标特征数据的衍生特征数据。2.根据权利要求1所述的基于隐私计算的纵向联邦XGBoost特征衍生方法,其特征在于,在获取基于隐私计算的联邦学习方法训练得到的XGBoost模型之前,所述方法还包括:基于隐私计算的联邦学习方法,对联邦学习发起方和联邦学习参与方提供的样本数据进行训练,得到满足预设条件的XGBoost模型,其中,所述联邦学习发起方拥有每个样本的标签和第一特征数据,所述联邦学习参与方拥有每个样本的第二特征数据。3.根据权利要求2所述的基于隐私计算的纵向联邦XGBoost特征衍生方法,其特征在于,基于隐私计算的联邦学习方法,对联邦学习发起方和联邦学习参与方提供的样本数据进行训练,得到满足预设条件的XGBoost模型,包括:联邦学习发起方计算每个样本的一阶导数和二阶导数;联邦学习发起方将一阶导数集合和二阶导数集合发送给联邦学习参与方;联邦学习参与方根据接收到的一阶导数集合和二阶导数集合,生成XGBoost模型的候选分裂点信息;联邦学习参与方将生成的候选分裂点信息,返回给联邦学习发起方;联邦学习发起方根据联邦学习参与方返回的候选分裂点信息,确定XGBoost模型的最优分裂点信息;联邦学习发起方将XGBoost模型的最优分裂点信息,发送给联邦学习参与方。4.根据权利要求3所述的基于隐私计算的纵向联邦XGBoost特征衍生方法,其特征在于,在联邦学习发起方将一阶导数集合和二阶导数集合发送给联邦学习参与方之前,所述方法还包括:联邦学习发起方使用同态加密技术对一阶导数集合和二阶导数集合进行加密;其中,所述联邦学习发起方将一阶导数集合和二阶导数集合发送给联邦学习参与方包括:联邦学习发起方将加密后的一阶导数集合和二阶导数集合,发送给联邦学习参与方;所述联邦学习参与方根据接收到的一阶导数集合和二阶导数集合,生成XGBoost模型的候选分裂点信息包括:联邦学习参与方根据加密后的一阶导数集合和二阶导数集合,生成XGBoost模型的候选分裂点信息。5...
【专利技术属性】
技术研发人员:崔琢,周一竞,黄翠婷,
申请(专利权)人:杭州博盾习言科技有限公司,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。