联邦学习模型的更新方法、装置、电子设备及存储介质与流程

文档序号:24872139发布日期:2021-04-30 12:44阅读:135来源:国知局
联邦学习模型的更新方法、装置、电子设备及存储介质与流程

本发明涉及智能决策领域,尤其涉及一种联邦学习模型的更新方法、装置、电子设备及计算机可读存储介质。



背景技术:

现在人们越来越注重数据信息的安全性,为了保障大数据交换时的信息安全、保护终端数据和个人数据隐私,出现了在多参与方或多计算结点之间开展高效率的机器学习的方法,即联邦学习方法。

现有技术中,若有参与者在完成联邦模型训练后想要退出联邦系统,或是参与者希望移除一部分私有数据对联邦模型造成的影响,需要在将数据删除之后对联邦模型进行重新训练以更新联邦模型的参数。但是该方法在算力与通信方面的成本非常巨大,同时要联合各参与方给予配合,耗时耗力。因此,现有技术中,在移除数据之后,对联邦学习模型进行参数更新的效率不高。



技术实现要素:

本发明提供一种联邦学习模型的更新方法、装置及计算机可读存储介质,其主要目的在于解决联邦学习模型的更新效率低的问题。

为实现上述目的,本发明提供的一种应用于服务器端的联邦学习模型的更新方法,包括:

接收参与联邦学习的目标客户端发送的数据移除请求;

在从用于联邦学习模型的数据中删除所述移除数据之后,向参与所述参与联邦学习的所有客户端发送数据移除消息,以使得所述目标客户端根据梯度公式计算所述移除数据关于所述联邦学习模型的梯度参数,以及使得各个客户端根据矩阵公式计算各个客户端所包含的全量数据在所述移除数据移除之后所述联邦学习模型的损失函数的黑塞矩阵;

接收所述目标客户端发送的梯度参数和各个客户端发送的黑塞矩阵;

根据所述梯度参数、所述黑塞矩阵和预设模型参数公式计算更新参数;

利用所述更新参数对所述联邦学习模型进行更新。

可选地,所述预设模型参数公式包括:

其中,w(-m)为所述更新参数,w为所述联邦学习模型的参数向量,为第i个客户端的黑塞矩阵,δ为所述梯度参数,m为所述移除数据的个数,k为参与所述联邦学习的所有客户端的个数。

可选地,所述利用所述更新参数对所述联邦学习模型进行更新之后,所述方法还包括:

将更新后的所述联邦学习模型发送至参与联邦学习的所有客户端。

可选地,所述根据所述梯度参数、所述黑塞矩阵和预设模型参数公式计算更新参数之前,所述方法还包括:

判断所述梯度参数或所述黑塞矩阵是否为加密数据;

若所述梯度参数或所述黑塞矩阵中是加密数据,根据预设的解密公式对所述加密数据进行解密,得到解密后的梯度参数和黑塞矩阵。

可选地,所述根据预设的解密公式对所述加密数据进行解密,得到解密后的梯度参数和黑塞矩阵,包括:

所述预设的解密公式为:

m=l(cλmodn2)*μmodn

其中,m是解密后的梯度参数或者黑塞矩阵,c是指加密后的梯度参数或者黑塞矩阵,mod是指取模运算符,n=p×q,其中,p,q为满足pq与(p-1)(q-1)的最大公倍数为1的大质数,λ为卡迈克尔函数,μ为预设参数。

可选地,所述接收参与联邦学习的目标客户端发送的数据移除请求之后,所述方法还包括:

根据客户端的数量开启监听端口。

可选地,所述接收所述目标客户端发送的梯度参数和各个客户端发送的黑塞矩阵,包括:

获取所述监听端口;

利用预设的请求响应协议通过所述监听端口接收所述目标客户端发送的梯度参数和各个客户端发送的黑塞矩阵。

为了解决上述问题,本发明还提供一种应用于服务器端的联邦学习模型的更新装置,所述装置包括:

数据请求模块,用于接收参与联邦学习的目标客户端发送的数据移除请求;

消息发送模块,用于在从用于联邦学习模型的数据中删除所述移除数据之后,向参与所述参与联邦学习的所有客户端发送数据移除消息,以使得所述目标客户端根据梯度公式计算所述移除数据关于所述联邦学习模型的梯度参数,以及使得各个客户端根据矩阵公式计算各个客户端所包含的全量数据在所述移除数据移除之后所述联邦学习模型的损失函数的黑塞矩阵;

参数接收模块,用于接收所述目标客户端发送的梯度参数和各个客户端发送的黑塞矩阵;

更新参数计算模块,用于根据所述梯度参数、所述黑塞矩阵和预设模型参数公式计算更新参数;

模型更新模块,用于利用所述更新参数对所述联邦学习模型进行更新。

为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:

存储器,存储至少一个指令;及

处理器,执行所述存储器中存储的指令以实现上述所述的联邦学习模型的更新方法。

为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现上述所述的联邦学习模型的更新方法。

本发明实施例通过接收所述目标客户端发送的梯度参数和各个客户端发送的黑塞矩阵;并根据所述梯度参数、所述黑塞矩阵和预设模型参数公式计算更新参数;再利用所述更新参数对所述联邦学习模型进行更新。在将用于联邦学习的数据删除之后不仅无需重新训练联邦学习模型,并且可以保持联邦学习模型的可用性和准确性,提高了联邦学习模型更新的效率。同时,通过客户端并发计算梯度参数和梯度参数,有利于快速对联邦学习模型进行更新,同时也减轻了服务器端的运算压力,提高整体的运算效率。因此本发明提出的联邦学习模型的更新方法、装置、电子设备及计算机可读存储介质,可以解决联邦学习模型的更新效率低的问题。

附图说明

图1为本发明第一方法实施例提供的联邦学习模型的更新方法的流程示意图;

图2为本发明第二方法实施例提供的联邦学习模型的更新方法的流程示意图;

图3为本发明一实施例提供的联邦学习模型的更新装置的模块示意图;

图4为本发明一实施例提供的实现联邦学习模型的更新方法的电子设备的内部结构示意图;

本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。

具体实施方式

应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。

本申请实施例提供一种联邦学习模型的更新方法。所述联邦学习模型的更新方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述联邦学习模型的更新方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。

参照图1所示,为本发明第一方法实施例提供的联邦学习模型的更新方法的流程示意图。在本实施例中,所述联邦学习模型的更新方法应用于服务器端中,包括:

s11、接收参与联邦学习的目标客户端发送的数据移除请求。

本发明所述服务器为参与联邦学习的服务器。一个服务器可以对用多个客户端。

本发明实施例中,所述服务器端根据客户端的数量开启监听端口,以便与每一个客户端之间执行数据传输。

例如,客户端的数量为k,则服务器开启k个监听端口。

s12、在从用于联邦学习模型的数据中删除所述移除数据之后,向参与所述参与联邦学习的所有客户端发送数据移除消息,以使得所述目标客户端根据梯度公式计算所述移除数据关于所述联邦学习模型的梯度参数,以及使得各个客户端根据矩阵公式计算各个客户端所包含的全量数据在所述移除数据移除之后所述联邦学习模型的损失函数的黑塞矩阵。

本发明实施例中,若某个客户端存在移除数,则该客户端计算梯度参数,同时,每个参与联邦学习的客户端都计算得到黑塞矩阵(hessianmatrix),则可以得到多个黑塞矩阵。即包括目标客户端在内的其他客户端都进行计算,得到黑塞矩阵。

具体的,有关客户端计算的说明请参见本发明第二方法实施例中的描述。

s13、接收所述目标客户端发送的梯度参数和各个客户端发送的黑塞矩阵。

本发明实施例中,所述接收所述目标客户端发送的梯度参数和各个客户端发送的黑塞矩阵,包括:

获取所述监听端口;

利用预设的请求响应协议通过所述监听端口接收所述目标客户端发送的梯度参数和各个客户端发送的黑塞矩阵。

s14、根据所述梯度参数、所述黑塞矩阵和预设模型参数公式计算更新参数。

优选的,所述预设模型参数公式包括:

其中,w(-m)为所述更新参数,w为所述联邦学习模型的参数向量,为第i个客户端的黑塞矩阵,δ为所述梯度参数,m为所述移除数据的个数,k为参与所述联邦学习的所有客户端的个数。

本发明实施例中,所述根据所述梯度参数、所述黑塞矩阵和预设模型参数公式计算更新参数之前,所述方法还包括:

判断所述梯度参数或所述黑塞矩阵是否为加密数据;

若所述梯度参数或所述黑塞矩阵中是加密数据,根据预设的解密公式对所述加密数据进行解密,得到解密后的梯度参数和黑塞矩阵。

具体地,所述根据预设的解密公式对所述加密数据进行解密,得到解密后的梯度参数和黑塞矩阵,包括:

所述预设的解密公式为:

m=l(cλmodn2)*μmodn

其中,m是解密后的梯度参数或者黑塞矩阵,c是指加密后的梯度参数或者黑塞矩阵,mod是指取模运算符,n=p×q,其中,p,q为满足pq与(p-1)(q-1)的最大公倍数为1的大质数,λ为卡迈克尔函数,μ为预设参数。

详细地,利用所述公钥(n,g)对所述加密后的梯度参数或者黑塞矩阵进行解密处理,得到解密后的梯度参数或者黑塞矩阵。

详细地,所述利用所述更新参数对所述联邦学习模型进行更新之后,所述方法还包括:

将更新后的所述联邦学习模型发送至参与联邦学习的所有客户端。

本发明实施例通过接收所述目标客户端发送的梯度参数和各个客户端发送的黑塞矩阵;并根据所述梯度参数、所述黑塞矩阵和预设模型参数公式计算更新参数;再利用所述更新参数对所述联邦学习模型进行更新。在将用于联邦学习的数据删除之后不仅无需重新训练联邦学习模型,并且可以保持联邦学习模型的可用性和准确性,提高了联邦学习模型更新的效率。同时,通过客户端并发计算梯度参数和梯度参数,有利于快速对联邦学习模型进行更新,同时也减轻了服务器端的运算压力,提高整体的运算效率。因此本发明提出的联邦学习模型的更新方法可以解决联邦学习模型的更新效率低的问题。

图2所示的流程示意图描述了本发明第二方法实施例提供的联邦学习模型的更新方法。在本实施例中,所述联邦学习模型的更新方法应用于客户端,包括:

s21、当所述客户端存在移除用于联邦学习模型的移除数据时,获取所述联邦学习模型。

本发明实施例中,所述联邦学习模型可以是联邦线性模型或者联邦逻辑回归模型。

s22、根据梯度公式计算所述移除数据关于所述联邦学习模型的梯度参数,以及根据矩阵公式计算所述客户端所包含的全量数据在所述移除数据移除之后所述联邦学习模型的损失函数的黑塞矩阵。

进一步的,所述梯度公式包括第一梯度子公式和第二梯度子公式,所述矩阵公式包括第一矩阵子公式和第二矩阵子公式,所述获取所述联邦学习模型之后,所述方法还包括:

判断所述联邦学习模型的类型;

若所述联邦学习模型属于联邦线性模型,根据第一梯度子公式计算所述移除数据关于所述联邦学习模型的梯度参数,以及根据第一矩阵子公式计算所述客户端所包含的全量数据在所述移除数据移除之后所述联邦学习模型的损失函数的黑塞矩阵;

若所述联邦学习模型属于联邦逻辑回归模型,根据第二梯度子公式计算所述移除数据关于所述联邦学习模型的梯度参数,以及根据第二矩阵子公式计算所述客户端所包含的全量数据在所述移除数据移除之后所述联邦学习模型的损失函数的黑塞矩阵。

具体的,所述第一梯度子公式包括:

其中,δ为梯度参数,m为移除数据的个数,λ为正则化因子,w为所述联邦学习模型的参数向量,b为预设的损失扰动因子,xj和yj为模型的输入数据,t为预设参数。

具体的,所述第二梯度子公式包括:

其中,δ为梯度参数,m为移除数据的个数,w为所述联邦学习模型的参数向量,xj和yj为模型的输入数据,t为预设参数。

具体的,所述第一矩阵子公式包括:

其中,为黑塞矩阵,为损失函数,为客户端i包含的全量数据,为客户端i移除数据,xj和yj为模型的输入数据,m和t为预设参数。

本实施例中,所述联邦学习模型为联邦线性模型时,所述联邦学习模型的损失函数包括:

其中,为损失函数,λ为正则化因子,w为所述联邦学习模型的参数向量,b为预设的损失扰动因子,(x,y)为所述联邦学习模型的输入数据,n为参数联邦学习的客户端的个数。

具体的,所述第二矩阵子公式包括:

其中,为黑塞矩阵,为损失函数,为旋度。

本实施例中,所述联邦学习模型为联邦逻辑回归模型时,所述联邦学习模型的损失函数包括:

其中,为损失函数,x和y为模型的输入数据,t为预设参数。

s23、将所述梯度参数和所述黑塞矩阵发送至服务器端,以使所述服务器端根据所述梯度参数和所述黑塞矩阵更新所述联邦学习模型的参数。

本发明实施例中,当所述客户端与所述服务器为已连接状态时,将所述梯度参数和所述黑塞矩阵发送至服务器端,以使所述服务器端根据所述梯度参数和所述黑塞矩阵调整联邦学习模型的参数。

具体地,本发明实施例中,所述将所述梯度参数和所述黑塞矩阵发送至服务器端之前,所述方法还包括:

对所述梯度参数和所述黑塞矩阵进行加密计算。

进一步地,所述对所述梯度参数和所述黑塞矩阵进行加密计算,包括:

随机选取两个满足预设条件的大质数p,q,使得pq与(p-1)(q-1)的最大公倍数为1;

计算m=p×q,且满足λ(n)=lcm(p-1,q-1),其中,lcm为最小公倍数,λ为卡迈克尔函数;

随机选择一个小于n2的正整数g,并计算μ=(l9gλmodn2))-1modn;

根据所述n、g、λ,和μ,得到公钥为(n,g),私钥为(λ,μ);

利用所述私钥(λ,μ)对所述梯度参数和所述黑塞矩阵进行加密处理,得到加密后的梯度参数和黑塞矩阵。

其中,质数是指在大于1的自然数中,除了1和它本身以外不再有其他因数的自然数,所述大质数则是指满足质数定义的自然数中最大的一个或者多个。

进一步地,本发明实施例中,客户端将所述公钥传输给服务器,利用所述私钥(λ,μ)对所述梯度参数和黑塞矩阵进行加密处理,得到加密后的梯度参数和黑塞矩阵。

本发明实施例利用所述私钥对梯度参数和黑塞矩阵进行加密,提高了数据传输的安全性。

本发明实施例通过在客户端并行计算梯度参数和黑塞矩阵,减轻了服务器的计算压力,提高了获取梯度参数和黑塞矩阵的速度,再将计算得到的梯度参数和黑塞矩阵传输至服务器端,使服务器端能够快速地进行模型更新。因此本发明提出的联邦学习模型的更新方法可以解决联邦学习模型的更新效率低的问题。

如图3所示,是本发明一实施例提供的联邦学习模型的更新装置的功能模块图。

本发明所述联邦学习模型的更新装置可以被划分为第一联邦学习模型的更新装置100以及第二联邦学习模型的更新装置200。其中,所述第一联邦学习模型的更新装置100可以安装于服务器端中以及所述第二联邦学习模型的更新装置200可以安装在客户端中。

根据实现的功能,所述第一联邦学习模型的更新装置100可以包括数据请求模块101、消息发送模块102、参数接收模块103、更新参数模块104及模型更新模块105;以及所述第二联邦学习模型的更新装置200可以包括模型获取模块201、梯度与矩阵计算模块202及参数发送模块203。

本发明所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。

在本实施例中,所述第一联邦学习模型的更新装置100中和所述第二联邦学习模型的更新装置200各模块的功能如下:

所述数据请求模块101,用于接收参与联邦学习的目标客户端发送的数据移除请求;

所述消息发送模块102,用于在从用于联邦学习模型的数据中删除所述移除数据之后,向参与所述参与联邦学习的所有客户端发送数据移除消息,以使得所述目标客户端根据梯度公式计算所述移除数据关于所述联邦学习模型的梯度参数,以及使得各个客户端根据矩阵公式计算各个客户端所包含的全量数据在所述移除数据移除之后所述联邦学习模型的损失函数的黑塞矩阵;

所述参数接收模块103,用于接收所述目标客户端发送的梯度参数和各个客户端发送的黑塞矩阵;

所述更新参数计算模块104,用于根据所述梯度参数、所述黑塞矩阵和预设模型参数公式计算更新参数;

所述模型更新模块105,用于利用所述更新参数对所述联邦学习模型进行更新。

所述模型获取模块201,用于当所述客户端存在移除用于联邦学习模型的移除数据时,获取所述联邦学习模型;

所述梯度与矩阵计算模块202,用于根据梯度公式计算所述移除数据关于所述联邦学习模型的梯度参数,以及根据矩阵公式计算所述客户端所包含的全量数据在所述移除数据移除之后所述联邦学习模型的损失函数的黑塞矩阵;

所述参数发送模块203,用于将所述梯度参数和所述黑塞矩阵发送至服务器端,以使所述服务器端根据所述梯度参数和所述黑塞矩阵更新所述联邦学习模型的参数。

详细地,所述第一联邦学习模型的更新装置100各模块的具体实施方式如下:

所述数据请求模块101,用于接收参与联邦学习的目标客户端发送的数据移除请求。

本发明所述服务器为参与联邦学习的服务器。一个服务器可以对用多个客户端。

本发明实施例中,所述服务器端根据客户端的数量开启监听端口,以便与每一个客户端之间执行数据传输。

例如,客户端的数量为k,则服务器开启k个监听端口。

所述消息发送模块102,用于在从用于联邦学习模型的数据中删除所述移除数据之后,向参与所述参与联邦学习的所有客户端发送数据移除消息,以使得所述目标客户端根据梯度公式计算所述移除数据关于所述联邦学习模型的梯度参数,以及使得各个客户端根据矩阵公式计算各个客户端所包含的全量数据在所述移除数据移除之后所述联邦学习模型的损失函数的黑塞矩阵。

本发明实施例中,若某个客户端存在移除数,则该客户端计算梯度参数,同时,每个参与联邦学习的客户端都计算得到黑塞矩阵(hessianmatrix),则可以得到多个黑塞矩阵。即包括目标客户端在内的其他客户端都进行计算,得到黑塞矩阵。

具体的,有关客户端计算的说明请参见本发明第二方法实施例中的描述。

所述参数接收模块103,用于接收所述目标客户端发送的梯度参数和各个客户端发送的黑塞矩阵。

本发明实施例中,所述接收所述目标客户端发送的梯度参数和各个客户端发送的黑塞矩阵,包括:

获取所述监听端口;

利用预设的请求响应协议通过所述监听端口接收所述目标客户端发送的梯度参数和各个客户端发送的黑塞矩阵。

所述更新参数计算模块104,用于根据所述梯度参数、所述黑塞矩阵和预设模型参数公式计算更新参数。

优选的,所述预设模型参数公式包括:

其中,w(-m)为所述更新参数,w为所述联邦学习模型的参数向量,为第i个客户端的黑塞矩阵,δ为所述梯度参数,m为所述移除数据的个数,k为参与所述联邦学习的所有客户端的个数。

本发明实施例中,所述根据所述梯度参数、所述黑塞矩阵和预设模型参数公式计算更新参数之前,所述装置还包括解密模块,所述解密模块用于判断所述梯度参数或所述黑塞矩阵是否为加密数据;若所述梯度参数或所述黑塞矩阵中是加密数据,根据预设的解密公式对所述加密数据进行解密,得到解密后的梯度参数和黑塞矩阵。

具体地,所述根据预设的解密公式对所述加密数据进行解密,得到解密后的梯度参数和黑塞矩阵,包括:

所述预设的解密公式为:

m=l(cλmodn2)*μmodn

其中,m是解密后的梯度参数或者黑塞矩阵,c是指加密后的梯度参数或者黑塞矩阵,mod是指取模运算符,n=p×q,其中,p,q为满足pq与(p-1)(q-1)的最大公倍数为1的大质数,λ为卡迈克尔函数,μ为预设参数。

详细地,利用所述公钥(n,g)对所述加密后的梯度参数或者黑塞矩阵进行解密处理,得到解密后的梯度参数或者黑塞矩阵。

详细地,所述利用所述更新参数对所述联邦学习模型进行更新之后,所述装置还包括模型更新模块,所述模型更新模块105用于将更新后的所述联邦学习模型发送至参与联邦学习的所有客户端。

本发明实施例通过接收所述目标客户端发送的梯度参数和各个客户端发送的黑塞矩阵;并根据所述梯度参数、所述黑塞矩阵和预设模型参数公式计算更新参数;再利用所述更新参数对所述联邦学习模型进行更新。在将用于联邦学习的数据删除之后不仅无需重新训练联邦学习模型,并且可以保持联邦学习模型的可用性和准确性,提高了联邦学习模型更新的效率。同时,通过客户端并发计算梯度参数和梯度参数,有利于快速对联邦学习模型进行更新,同时也减轻了服务器端的运算压力,提高整体的运算效率。因此本发明提出的联邦学习模型的更新方法可以解决联邦学习模型的更新效率低的问题。

详细地,所述第二联邦学习模型的更新装置200各模块的具体实施方式如下:

所述模型获取模块201,用于当所述客户端存在移除用于联邦学习模型的移除数据时,获取所述联邦学习模型。

本发明实施例中,所述联邦学习模型可以是联邦线性模型或者联邦逻辑回归模型。

所述梯度与矩阵计算模块202,用于根据梯度公式计算所述移除数据关于所述联邦学习模型的梯度参数,以及根据矩阵公式计算所述客户端所包含的全量数据在所述移除数据移除之后所述联邦学习模型的损失函数的黑塞矩阵。

进一步的,所述梯度公式包括第一梯度子公式和第二梯度子公式,所述矩阵公式包括第一矩阵子公式和第二矩阵子公式,所述获取所述联邦学习模型之后,所述装置还包括所述梯度与矩阵计算模块202,所述梯度与矩阵计算模块202用于判断所述联邦学习模型的类型;若所述联邦学习模型属于联邦线性模型,根据第一梯度子公式计算所述移除数据关于所述联邦学习模型的梯度参数,以及根据第一矩阵子公式计算所述客户端所包含的全量数据在所述移除数据移除之后所述联邦学习模型的损失函数的黑塞矩阵;若所述联邦学习模型属于联邦逻辑回归模型,根据第二梯度子公式计算所述移除数据关于所述联邦学习模型的梯度参数,以及根据第二矩阵子公式计算所述客户端所包含的全量数据在所述移除数据移除之后所述联邦学习模型的损失函数的黑塞矩阵。

具体的,所述第一梯度子公式包括:

其中,δ为梯度参数,m为移除数据的个数,λ为正则化因子,w为所述联邦学习模型的参数向量,b为预设的损失扰动因子,xj和yj为模型的输入数据,t为预设参数。

具体的,所述第二梯度子公式包括:

其中,δ为梯度参数,m为移除数据的个数,w为所述联邦学习模型的参数向量,xj和yj为模型的输入数据,t为预设参数。

具体的,所述第一矩阵子公式包括:

其中,为黑塞矩阵,为损失函数,为客户端i包含的全量数据,为客户端i移除数据,xj和yj为模型的输入数据,m和t为预设参数。

本实施例中,所述联邦学习模型为联邦线性模型时,所述联邦学习模型的损失函数包括:

其中,为损失函数,λ为正则化因子,w为所述联邦学习模型的参数向量,b为预设的损失扰动因子,(x,y)为所述联邦学习模型的输入数据,n为参数联邦学习的客户端的个数。

具体的,所述第二矩阵子公式包括:

其中,为黑塞矩阵,为损失函数,为旋度。

本实施例中,所述联邦学习模型为联邦逻辑回归模型时,所述联邦学习模型的损失函数包括:

其中,为损失函数,x和y为模型的输入数据,t为预设参数。

所述参数发送模块203,用于将所述梯度参数和所述黑塞矩阵发送至服务器端,以使所述服务器端根据所述梯度参数和所述黑塞矩阵更新所述联邦学习模型的参数。

本发明实施例中,当所述客户端与所述服务器为已连接状态时,将所述梯度参数和所述黑塞矩阵发送至服务器端,以使所述服务器端根据所述梯度参数和所述黑塞矩阵调整联邦学习模型的参数。

具体地,本发明实施例中,所述将所述梯度参数和所述黑塞矩阵发送至服务器端之前,所述装置还包括加密模块204,所述加密模块204用于:

对所述梯度参数和所述黑塞矩阵进行加密计算。

进一步地,所述对所述梯度参数和所述黑塞矩阵进行加密计算,包括:

随机选取两个满足预设条件的大质数p,q,使得pq与(p-1)(q-1)的最大公倍数为1;

计算n=p×q,且满足λ(n)=lcm(p-1,q-1),其中,lcm为最小公倍数,λ为卡迈克尔函数;

随机选择一个小于n2的正整数g,并计算μ=(l(gλmodn2))-1modn;

根据所述n、g、λ,和μ,得到公钥为(n,g),私钥为(λ,μ);

利用所述私钥(λ,μ)对所述梯度参数和所述黑塞矩阵进行加密处理,得到加密后的梯度参数和黑塞矩阵。

其中,质数是指在大于1的自然数中,除了1和它本身以外不再有其他因数的自然数,所述大质数则是指满足质数定义的自然数中最大的一个或者多个。

进一步地,本发明实施例中,客户端将所述公钥传输给服务器,利用所述私钥(λ,μ)对所述梯度参数和黑塞矩阵进行加密处理,得到加密后的梯度参数和黑塞矩阵。

本发明实施例利用所述私钥对梯度参数和黑塞矩阵进行加密,提高了数据传输的安全性。

本发明实施例通过在客户端并行计算梯度参数和黑塞矩阵,减轻了服务器的计算压力,提高了获取梯度参数和黑塞矩阵的速度,再将计算得到的梯度参数和黑塞矩阵传输至服务器端,使服务器端能够快速地进行模型更新。因此本发明提出的联邦学习模型的更新方法可以解决联邦学习模型的更新效率低的问题。

如图4所示,是本发明一实施例提供的实现联邦学习模型的更新方法的电子设备的结构示意图。

所述电子设备1可以包括处理器10、存储器11和总线,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如联邦学习模型的更新程序12。

其中,所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:sd或dx存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(smartmediacard,smc)、安全数字(securedigital,sd)卡、闪存卡(flashcard)等。进一步地,所述存储器11还可以既包括电子设备1的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如联邦学习模型的更新程序12的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。

所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(centralprocessingunit,cpu)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(controlunit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如联邦学习模型的更新程序等),以及调用存储在所述存储器11内的数据,以执行电子设备1的各种功能和处理数据。

所述总线可以是外设部件互连标准(peripheralcomponentinterconnect,简称pci)总线或扩展工业标准结构(extendedindustrystandardarchitecture,简称eisa)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。

图4仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图4示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。

例如,尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、wi-fi模块等,在此不再赘述。

进一步地,所述电子设备1还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如wi-fi接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接。

可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器(display)、输入单元(比如键盘(keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是led显示器、液晶显示器、触控式液晶显示器以及oled(organiclight-emittingdiode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。

应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。

所述电子设备1中的所述存储器11存储的联邦学习模型的更新程序12是多个指令的组合,在所述处理器10中运行时,可以实现:

详细地,当所述电子设备为服务器端电子设备时,所述联邦学习模型的更新方法包括:

接收参与联邦学习的目标客户端发送的数据移除请求;

在从用于联邦学习模型的数据中删除所述移除数据之后,向参与所述参与联邦学习的所有客户端发送数据移除消息,以使得所述目标客户端根据梯度公式计算所述移除数据关于所述联邦学习模型的梯度参数,以及使得各个客户端根据矩阵公式计算各个客户端所包含的全量数据在所述移除数据移除之后所述联邦学习模型的损失函数的黑塞矩阵;

接收所述目标客户端发送的梯度参数和各个客户端发送的黑塞矩阵;

根据所述梯度参数、所述黑塞矩阵和预设模型参数公式计算更新参数;

利用所述更新参数对所述联邦学习模型进行更新。

进一步地,当所述电子设备为客户端电子设备时,所述联邦学习模型的更新方法包括:

当所述客户端存在移除用于联邦学习模型的移除数据时,获取所述联邦学习模型;

根据梯度公式计算所述移除数据关于所述联邦学习模型的梯度参数,以及根据矩阵公式计算所述客户端所包含的全量数据在所述移除数据移除之后所述联邦学习模型的损失函数的黑塞矩阵;

将所述梯度参数和所述黑塞矩阵发送至服务器端,以使所述服务器端根据所述梯度参数和所述黑塞矩阵更新所述联邦学习模型的参数。

具体地,所述处理器10对上述指令的具体实现方法可参考图1至图4对应实施例中相关步骤的描述,在此不赘述。

进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。所述计算机可读存储介质可以是易失性的,也可以是非易失性的。例如,所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、u盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(rom,read-onlymemory)。

本发明还提供一种计算机可读存储介质,所述可读存储介质存储有计算机程序,所述计算机程序在被电子设备的处理器所执行时,可以实现:

详细地,当所述电子设备为服务器端电子设备时,所述联邦学习模型的更新方法包括:

接收参与联邦学习的目标客户端发送的数据移除请求;

在从用于联邦学习模型的数据中删除所述移除数据之后,向参与所述参与联邦学习的所有客户端发送数据移除消息,以使得所述目标客户端根据梯度公式计算所述移除数据关于所述联邦学习模型的梯度参数,以及使得各个客户端根据矩阵公式计算各个客户端所包含的全量数据在所述移除数据移除之后所述联邦学习模型的损失函数的黑塞矩阵;

接收所述目标客户端发送的梯度参数和各个客户端发送的黑塞矩阵;

根据所述梯度参数、所述黑塞矩阵和预设模型参数公式计算更新参数;

利用所述更新参数对所述联邦学习模型进行更新。

进一步地,当所述电子设备为客户端电子设备时,所述联邦学习模型的更新方法包括:

当所述客户端存在移除用于联邦学习模型的移除数据时,获取所述联邦学习模型;

根据梯度公式计算所述移除数据关于所述联邦学习模型的梯度参数,以及根据矩阵公式计算所述客户端所包含的全量数据在所述移除数据移除之后所述联邦学习模型的损失函数的黑塞矩阵;

将所述梯度参数和所述黑塞矩阵发送至服务器端,以使所述服务器端根据所述梯度参数和所述黑塞矩阵更新所述联邦学习模型的参数。

在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。

所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。

另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。

对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。

因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。

本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。

此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。

最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1