本发明属于计算机网络通信与机器学习,涉及一种纵向联邦学习系统构建方法及装置,具体涉及一种基于参与者选择与参数冻结的纵向联邦学习系统构建方法及装置。
背景技术:
1、纵向联邦学习(vfl)是一种允许地理上分布的数据参与方在保护其数据隐私的情况下,协同训练共享机器学习模型的技术。在vfl中,每个参与方持有相同实例的不同特征子集。这种方法在隐私敏感领域非常有用,如医疗和电子商务。随着vfl的规模扩大,训练效率受到从各参与方到中央服务器之间频繁的长距离通信的限制。这种通信通常在广域网(wan)上进行,带来了延迟和带宽的挑战。此外,现有一些异步vfl方案虽然加快了训练过程,但因模型陈旧性可能会降低模型的精度。因此,如何在保护隐私的同时提高vfl的训练效率和可扩展性成为一个关键问题。
2、在当前背景下,纵向联邦学习(vfl)面临的主要挑战包括通信延迟、模型陈旧性、参与者异质性、计算开销以及隐私保护与效率的平衡。广域网上的频繁通信导致训练效率降低,而异步方案可能导致模型更新不及时,影响精度。参与方的数据质量和硬件能力差异显著,可能导致训练不平衡。此外,评估参与者数据贡献的复杂计算增加了系统负担,同时需要在保护数据隐私的情况下有效减少通信量和计算负担。
技术实现思路
1、本发明的目的在于提供一种使用shapley值实现参与者选择和自适应参数冻结来实现纵向联邦学习系统构建方法及装置,来解决通信延迟、模型陈旧性、参与者异质性、计算开销以及隐私保护与效率的平衡。
2、本发明的方法采用的技术方案是:一种基于参与者选择与参数冻结的纵向联邦学习系统构建方法,所述纵向联邦学习系统,其客户端本地模型通过训练获得,训练过程包括以下步骤:
3、步骤1:在每轮训练开始时,根据每个参与者的统计贡献值φk(v)和处理时间tk,评估每个参与者的贡献,选择最优的参与者集;
4、步骤2:每个选定的参与者使用本地模型θk生成嵌入向量并将其发送给参数服务器;
5、步骤3:参数服务器接收所有参与者的嵌入向量进行聚合并计算损失函数l(θ),参数服务器更新全局模型参数θ0;
6、步骤4:检查每个参与者的本地模型参数变化量如果变化小于设定的阈值∈s,则按照预设冻结期冻结更新;
7、步骤5:在冻结期结束时,重新检查本地模型参数变化量如果变化超过阈值∈s,则恢复更新使其重新接收和应用从参数服务器返回的梯度更新;否则系统延长下一次的冻结期长度;
8、步骤6:在每隔n轮次后,重新评估参与者的统计贡献值,调整参与者选择策略,优化训练效率;其中n为预设值;
9、步骤7:重复上述步骤,直到模型达到预设的精度或达到最大轮次,结束训练。
10、作为优选,步骤1中,通过计算每个参与者的统计贡献值来评估其统计贡献,并结合处理时间tk来计算系统效用其中tk是参与者的处理时间,t是目标轮次时长,α是惩罚因子;参与者集合记为k={p1,p2,…,pn};所有可能的参与者子集记为s,不包括参与者k;子集s的效用记为s(v);|s|!计算参与者k在子集s中加入前后的排列组合权重,v(s)衡量仅由子集s中的参与者联合训练模型所带来的损失减少量,即子集s的统计贡献,{k}表示仅包含参与者k的集合;表示参与者k在训练轮次t中的统计贡献值;表示指示函数,用于判断参与者k的处理时间tk是否超过目标轮次时长t;如果tk>t,则应用惩罚因子α;利用在线探索-利用策略,通过对每个参与者的历史表现进行调整确保在初期探索多个参与者,随着训练的进行逐渐收敛到最优的参与者集,其中,ζ为探索参数,t为训练轮次,参与者k被选择的次数记为nk;最后系统根据系统效用对参与者进行排序,并选择贡献总和达到设定阈值∈的参与者用于当前轮次的训练。
11、作为优选,对时间超过预设值未被选择的参与者输出嵌入向量进行重新加权,权重为其中τk是参与者上次更新模型以来的时间。
12、作为优选,步骤3中,通过反向传播算法,服务器更新全局模型参数θ0;
13、具体实现包括以下子步骤:
14、步骤3.1:聚合并调整嵌入向量;
15、参数服务器ps接收来自选定参与者集合pt的所有嵌入向量对每个参与者k的嵌入向量应用衰减因子调整嵌入向量以减轻陈旧模型的影响,其中xi表示第i个数据样本,xt表示第t轮训练中使用的数据样本集:
16、将调整后的嵌入向量进行聚合,形成全局输入数
17、步骤3.2:前向传播与损失计算;
18、将聚合后的嵌入向量hagg输入到全局模型,生成预测结果计算综合损失函数l(θ)=l1(θ)+λ×l2(θ);
19、步骤3.3:反向传播与梯度计算;
20、对综合损失函数l(θ)进行反向传播,计算全局模型参数θ0的梯度
21、步骤3.4:更新全局模型参数θ0;
22、使用优化算法更新全局模型参数其中η是学习率;
23、步骤3.5:梯度发送与本地模型更新;
24、将计算得到的梯度发送给未被冻结的参与者k∈pt,以便其更新本地模型;各参与者接收梯度并使用反向传播更新其本地模型参数其中是参与者k对损失函数的梯度;
25、步骤3.6:动态调整贡献权重与学习率;
26、根据训练过程中的贡献度,动态调整权重系数λ,确保模型在不同训练阶段能有效平衡预测性能与贡献优化;
27、基于当前轮次的训练进展和模型收敛状态,动态调整学习率以加速收敛并避免震荡,其中η0是初始学习率,β是衰减系数,t是当前轮次。
28、作为优选,步骤3中,所述损失函数l(θ)=l1(θ)+λ×l2(θ),其中l1(θ)是预测损失,其中n是批次中的样本数量,c是类别数量,yi,c是第i个样本在类别c上的真实标签,是模型对第i个样本在类别c上的预测概率;l2(θ)是贡献调整损失函数,其中pt表示在当前轮次t中被选定的参与者集合,φk(v)表示参与者k对模型训练的贡献,θk表示参与者k的本地模型参数,θ0表示全局模型参数;λ是权重系数,用于平衡预测损失与贡献调整损失的重要性。
29、作为优选,步骤6中,如果某个参与者的shapley值高于预设值,则增加其参与训练的频率;否则减少其选择频率或暂时排除。
30、本发明还提供了一种基于参与者选择与参数冻结的纵向联邦学习系统构建装置,包括:
31、一个或多个处理器;
32、存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现所述的基于参与者选择与参数冻结的纵向联邦学习系统构建方法。
33、本发明还提供了一种基于参与者选择与参数冻结的纵向联邦学习系统构建产品,包括计算机程序指令,当所述计算机程序指令在计算机上运行时,使得计算机执行所述的基于参与者选择与参数冻结的纵向联邦学习系统构建方法。
34、相对于现有技术,本发明的有益效果是:
35、(1)本发明提出了基于shapley值的参与者选择机制。现有的纵向联邦学习(vfl)技术在选择参与者时,通常采用固定或随机选择策略,未能充分考虑各参与者对模型训练过程的实际贡献,导致通信成本高且训练效率低下。此外,现有方法也未能有效应对参与者硬件性能差异带来的计算瓶颈。本发明通过引入基于shapley值的参与者选择机制,首次在vfl中实现了对参与者统计贡献的精确评估,并结合硬件性能的综合考量,动态选择出对模型训练最有价值的参与者集。通过使用截断shapley方法,该机制显著降低了shapley值计算的复杂度,同时能够有效抵抗滞后者的影响,避免因参与者硬件性能差异而导致的训练延迟。此举不仅大幅减少了每轮训练中的通信开销,还提高了整个训练过程的效率,确保了在不损害模型精度的前提下,优化了资源利用和训练时间。
36、(2)本发明提出的自适应的参数冻结策略。现有的纵向联邦学习(vfl)技术在每轮训练中,所有参与者都会接收并应用从参数服务器返回的梯度更新,尽管部分参与者的模型参数已经趋于稳定。这种全参与策略导致了不必要的通信开销,延长了训练时间,并浪费了计算资源。本发明提出了一种自适应的参数冻结策略,针对那些模型参数变化量较小的参与者,系统会暂时冻结其模型更新过程,仅保留嵌入向量的生成和传输。这一策略通过对参数变化量的实时监测,实现了动态冻结和恢复机制,确保只有在模型参数变化显著时才进行更新操作,从而减少了不必要的梯度传输和计算负担。同时,该策略还通过动态调整冻结期的长度,以适应训练过程中模型参数变化的不同阶段,最大限度地减少通信和计算开销,显著提高了训练效率,并保持了模型的整体精度。这种自适应的参数冻结策略在优化通信和计算资源利用的同时,确保了联邦学习系统的高效性和可靠性。
37、(3)本发明提出动态调整参与者选择策略。现有的纵向联邦学习(vfl)技术通常采用固定的参与者选择策略,未能有效适应训练过程中各参与者贡献度的动态变化,导致模型在不同阶段无法充分利用每个参与者的数据价值,进而影响整体训练效率和模型性能。本发明提出了动态调整参与者选择策略,基于每隔若干轮次后对所有参与者的shapley值进行重新评估,实时反映参与者在当前训练阶段的实际贡献。通过这一动态调整机制,系统能够灵活调整参与者选择的频率和优先级,使得在每个训练阶段都能选取对模型更新贡献最大的参与者。这一策略不仅能够自动适应参与者数据及系统状态的变化,确保模型训练过程中始终利用最有价值的数据和计算资源,还能够防止某些参与者因贡献下降而持续参与训练,避免了资源浪费。最终,动态调整参与者选择策略显著提高了训练效率,优化了资源分配,确保了在不同训练阶段的模型收敛速度和最终性能。