联邦学习建模优化方法、设备、可读存储介质及程序产品

文档序号:1964433 发布日期:2021-12-14 浏览:12次 >En<

阅读说明:本技术 联邦学习建模优化方法、设备、可读存储介质及程序产品 (Federal learning modeling optimization method, apparatus, readable storage medium, and program product ) 是由 康焱 吴岳洲 于 2021-09-29 设计创作,主要内容包括:本申请公开了一种联邦学习建模优化方法、设备、可读存储介质及程序产品,应用于第一设备,所述联邦学习建模优化方法包括:依据特征提取模型生成第一训练样本对应的第一样本特征,并依据特征生成模型生成第一噪音数据和第一真实分类标签共同对应的第二样本特征;依据第一真实分类标签、第一样本特征以及第二样本特征,迭代训练得到特征生成模型;将特征生成模型和分类模型发送至第二设备,以供第二设备构建目标全局特征生成模型和目标全局分类模型;依据目标全局特征生成模型,对特征提取模型和目标全局分类模型进行迭代优化,得到目标特征提取模型和目标分类模型。本申请解决了联邦学习方法存在泄露参与方数据隐私的风险的技术问题。(The application discloses a federated learning modeling optimization method, equipment, a readable storage medium and a program product, which are applied to first equipment, wherein the federated learning modeling optimization method comprises the following steps: generating a first sample characteristic corresponding to the first training sample according to the characteristic extraction model, and generating a second sample characteristic corresponding to the first noise data and the first real classification label together according to the characteristic generation model; performing iterative training according to the first real classification label, the first sample characteristic and the second sample characteristic to obtain a characteristic generation model; sending the feature generation model and the classification model to second equipment so that the second equipment can construct a target global feature generation model and a target global classification model; and generating a model according to the target global features, and performing iterative optimization on the feature extraction model and the target global classification model to obtain a target feature extraction model and a target classification model. The method and the device solve the technical problem that the federated learning method has the risk of revealing the privacy of the data of the participants.)

联邦学习建模优化方法、设备、可读存储介质及程序产品

技术领域

本申请涉及金融科技(Fintech)的人工智能技术领域,尤其涉及一种联邦学习建模优化方法、设备、可读存储介质及程序产品。

背景技术

随着金融科技,尤其是互联网科技金融的不断发展,越来越多的技术(如分布式、人工智能等)应用在金融领域,但金融业也对技术提出了更高的要求,如对金融业对应待办事项的分发也有更高的要求。

随着计算机软件和人工智能、大数据云服务应用的不断发展,目前,在联邦学习场景中每个参与方维护一个本地模型和一个全局模型。各个参与方通过本地模型学习本地特有的知识,通过全局模型共享所有参与方的知识,然后各个参与方将本地模型和全局模型聚合在一起。但是这种方法的缺点是联邦服务器可以通过各个参与方的全局模型反推出参与方的原始数据,因此有数据泄露的风险,也即,现有的联邦学习方法存在泄露参与方数据隐私的风险。

发明内容

本申请的主要目的在于提供一种联邦学习建模优化方法、设备、可读存储介质及程序产品,旨在解决现有技术中联邦学习方法存在泄露参与方数据隐私的风险的技术问题。

为实现上述目的,本申请提供一种联邦学习建模优化方法,所述联邦学习建模优化方法应用于第一设备,所述联邦学习建模优化方法包括:

获取训练好的特征提取模型和分类模型,并提取第一训练样本、第一噪音数据、所述第一训练样本对应的第一真实分类标签;

获取所述特征提取模型针对于所述第一训练样本生成的第一样本特征,以及待训练特征生成模型针对于所述第一噪音数据和所述第一真实分类标签生成的第二样本特征;

通过所述分类模型对所述第二样本特征进行分类以及通过待训练样本区分模型对所述第一样本特征与所述第二样本特征进行样本区分,在固定所述特征提取模型和所述分类模型的情况下对所述待训练特征生成模型进行迭代优化,得到特征生成模型;

将所述特征生成模型和所述分类模型发送至第二设备,以供第二设备依据各所述第一设备发送的特征生成模型,迭代优化聚合各所述特征生成模型得到的全局特征生成模型以及聚合各所述分类模型得到的全局分类模型,得到目标全局特征生成模型和目标全局分类模型;

接收所述第二设备发送的目标全局特征生成模型和目标全局分类模型,并依据所述目标全局特征生成模型,对所述特征提取模型和所述目标全局分类模型进行迭代优化,得到目标特征提取模型和目标分类模型。

本申请提供一种联邦学习建模优化方法,所述联邦学习建模优化方法应用于第二设备,所述联邦学习建模优化方法包括:

接收各第一设备发送的特征生成模型和分类模型,并将各所述特征生成模型聚合为全局特征生成模型以及将各所述分类模型聚合为全局分类模型;

提取噪音数据和所述噪音数据对应的真实分类标签;

依据所述噪音数据和所述真实分类标签,通过对所述全局特征生成模型和所述全局分类模型进行迭代训练,以及通过在所述全局特征生成模型与各所述特征生成模型之间进行知识蒸馏,迭代优化所述全局特征生成模型和所述全局分类模型,得到目标全局特征生成模型和目标全局分类模型;

将所述目标全局特征生成模型和所述目标全局分类模型分别反馈至各所述第一设备,以供所述第一设备依据所述目标全局特征生成模型,对所述特征生成模型对应的特征提取模型和所述目标全局分类模型进行迭代优化,得到目标特征提取模型和目标分类模型。

本申请还提供一种联邦学习建模优化装置,所述联邦学习建模优化装置为虚拟装置,且所述联邦学习建模优化装置应用于第一设备,所述联邦学习建模优化装置包括:

提取模块,用于获取训练好的特征提取模型和分类模型,并提取第一训练样本、第一噪音数据、所述第一训练样本对应的第一真实分类标签;

特征生成模块,用于获取所述特征提取模型针对于所述第一训练样本生成的第一样本特征,以及待训练特征生成模型针对于所述第一噪音数据和所述第一真实分类标签生成的第二样本特征;

迭代训练模块,用于通过所述分类模型对所述第二样本特征进行分类以及通过待训练样本区分模型对所述第一样本特征与所述第二样本特征进行样本区分,在固定所述特征提取模型和所述分类模型的情况下对所述待训练特征生成模型进行迭代优化,得到特征生成模型;

发送模块,用于将所述特征生成模型和所述分类模型发送至第二设备,以供第二设备依据各所述第一设备发送的特征生成模型,迭代优化聚合各所述特征生成模型得到的全局特征生成模型以及聚合各所述分类模型得到的全局分类模型,得到目标全局特征生成模型和目标全局分类模型;

迭代优化模块,用于接收所述第二设备发送的目标全局特征生成模型和目标全局分类模型,并依据所述目标全局特征生成模型,对所述特征提取模型和所述目标全局分类模型进行迭代优化,得到目标特征提取模型和目标分类模型。

本申请还提供一种联邦学习建模优化装置,所述联邦学习建模优化装置为虚拟装置,且所述联邦学习建模优化装置应用于第二设备,所述联邦学习建模优化装置包括:

模型聚合模块,用于接收各第一设备发送的特征生成模型和分类模型,并将各所述特征生成模型聚合为全局特征生成模型以及将各所述分类模型聚合为全局分类模型;

提取模块,用于提取噪音数据和所述噪音数据对应的真实分类标签;

迭代优化模块,用于依据所述噪音数据和所述真实分类标签,通过对所述全局特征生成模型和所述全局分类模型进行迭代训练,以及通过在所述全局特征生成模型与各所述特征生成模型之间进行知识蒸馏,迭代优化所述全局特征生成模型和所述全局分类模型,得到目标全局特征生成模型和目标全局分类模型;

反馈模块,用于将所述目标全局特征生成模型和所述目标全局分类模型分别反馈至各所述第一设备,以供所述第一设备依据所述目标全局特征生成模型,对所述特征生成模型对应的特征提取模型和所述目标全局分类模型进行迭代优化,得到目标特征提取模型和目标分类模型。

本申请还提供一种联邦学习建模优化设备,所述联邦学习建模优化设备为实体设备,所述联邦学习建模优化设备包括:存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的所述联邦学习建模优化方法的程序,所述联邦学习建模优化方法的程序被处理器执行时可实现如上述的联邦学习建模优化方法的步骤。

本申请还提供一种可读存储介质,所述可读存储介质上存储有实现联邦学习建模优化方法的程序,所述联邦学习建模优化方法的程序被处理器执行时实现如上述的联邦学习建模优化方法的步骤。

本申请还提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如上述的联邦学习建模优化方法的步骤。

本申请提供了一种联邦学习建模优化方法、设备、可读存储介质及程序产品,相比于现有技术采用的在联邦学习场景中每个参与方维护一个本地模型和一个全局模型。各个参与方通过本地模型学习本地特有的知识,通过全局模型共享所有参与方的知识,然后各个参与方将本地模型和全局模型聚合在一起的技术手段,本申请首先获取训练好的特征提取模型和分类模型,并提取第一训练样本、第一噪音数据、所述第一训练样本对应的第一真实分类标签,进而获取所述特征提取模型针对于所述第一训练样本生成的第一样本特征,以及待训练特征生成模型针对于所述第一噪音数据和所述第一真实分类标签生成的第二样本特征,进而通过所述分类模型对所述第二样本特征进行分类以及通过待训练样本区分模型对所述第一样本特征与所述第二样本特征进行样本区分,在固定所述特征提取模型和所述分类模型的情况下对所述待训练特征生成模型进行迭代优化,得到特征生成模型,实现了构建携带特征提取模型的模型知识的特征生成模型的目的,同时特征生成模型又不直接依据参与方的原始样本数据进行构建,进而将所述特征生成模型和所述分类模型发送至第二设备,以供第二设备依据各所述第一设备发送的特征生成模型,迭代优化聚合各所述特征生成模型得到的全局特征生成模型以及聚合各所述分类模型得到的全局分类模型,得到目标全局特征生成模型和目标全局分类模型,进而由于特征生成模型不直接依据参与方的原始样本数据进行构建,进而第二设备无法反推出第一设备的原始样本数据,进而接收所述第二设备发送的目标全局特征生成模型,并依据所述目标全局特征生成模型,对所述特征提取模型和所述分类模型进行迭代优化,使得特征提取模型和分类模型可以学习到目标全局特征生成模和目标全局分类模型所携带的所有参与方的知识,进而得到目标特征提取模型和目标分类模型,实现了促使本地模型学习全局模型的模型知识,也即实现了通过全局模型共享所有参与方的知识的目的,同时又没有泄露本地的原始样本数据,所以克服了联邦服务器可以通过各个参与方的全局模型反推出参与方的原始数据,因此有数据泄露的风险的技术缺陷,降低了联邦学习中泄露参与方隐私数据泄露的风险。

附图说明

此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。

为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。

图1为本申请联邦学习建模优化方法第一实施例的流程示意图;

图2为本申请联邦学习建模优化方法中构建特征生成模型的流程示意图;

图3为本申请联邦学习建模优化方法第二实施例的流程示意图;

图4为本申请联邦学习建模优化方法中所述第二设备构建目标全局特征提取模型和目标全局分类模型的流程示意图;

图5为本申请实施例中联邦学习建模优化方法涉及的硬件运行环境的设备结构示意图。

本申请目的实现、功能特点及优点将结合实施例,参照附图做进一步说明。

具体实施方式

应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。

本申请实施例提供一种联邦学习建模优化方法,应用于第一设备,在本申请联邦学习建模优化方法的第一实施例中,参照图1,所述联邦学习建模优化方法包括:

步骤S10,获取训练好的特征提取模型和分类模型,并提取第一训练样本、第一噪音数据、所述第一训练样本对应的第一真实分类标签;

在本实施例中,需要说明的是,所述联邦学习建模优化方法应用于联邦学习场景,所述联邦学习场景可以为横向联邦学习场景,所述第一设备为联邦学习的参与方,所述第二设备为联邦学习的联邦服务器,所述特征提取模型和所述分类模型为第一设备本地迭代训练好的本地模型,所述第一噪音数据用于与第一真实分类标签混合作为待训练特征生成模型的输入,进而即使第二设备依据训练好的特征生成模型反推参与方的隐私数据,得到的也是第一噪音数据和第一真实分类标签的混合体,无法得到参与方的第一真实分类标签,可降低第一真实分类标签的泄露风险。

另外,所述特征提取模型和所述分类模型本地迭代训练的过程如下:

提取本地训练样本以及本地训练样本对应的本地分类标签,进而将本地训练样本依次通过待训练特征提取模型和待训练分类模型,得到训练输出分类标签,进而依据所述训练输出分类标签和所述本地训练样本对应的本地分类标签,计算模型损失,若模型损失收敛,则将待训练特征提取模型作为特征提取模型以及将待训练分类模型作为分类模型,若模型损失未收敛,则依据模型损失计算的模型梯度,更新待训练特征提取模型和待训练分类模型,并返回执行步骤:提取本地训练样本以及本地训练样本对应的本地分类标签。

步骤S20,获取所述特征提取模型针对于所述第一训练样本生成的第一样本特征,以及待训练特征生成模型针对于所述第一噪音数据和所述第一真实分类标签生成的第二样本特征;

在本实施例中,具体地,依据所述特征提取模型,对所述第一训练样本进行特征提取,得到第一样本特征,以及依据待训练特征生成模型,将第一噪音数据和第一真实分类标签共同转换为第二样本特征。

步骤S30,通过所述分类模型对所述第二样本特征进行分类以及通过待训练样本区分模型对所述第一样本特征与所述第二样本特征进行样本区分,在固定所述特征提取模型和所述分类模型的情况下对所述待训练特征生成模型进行迭代优化,得到特征生成模型;

在本实施例中,具体地,通过所述分类模型对所述第二样本特征进行分类,在固定所述分类模型的情况下迭代更新所述待训练特征生成模型,以及通过所述样本区分模型对所述第一样本特征和所述第二样本特征进行样本区分,在固定所述特征提取模型的情况下,迭代更新待训练特征生成模型与待训练样本区分模型,以优化所述待训练特征生成模型,得到特征生成模型。

其中,所述通过所述分类模型对所述第二样本特征进行分类以及通过待训练样本区分模型对所述第一样本特征与所述第二样本特征进行样本区分,在固定所述特征提取模型和所述分类模型的情况下对所述待训练特征生成模型进行迭代优化,得到特征生成模型的步骤包括:

步骤S31,通过所述分类模型对所述第二样本特征进行分类,以及通过待训练第一样本区分模型对所述第一样本特征和所述第二样本特征进行样本区分,计算第一分类损失以及样本区分损失;

在本实施例中,需要说明的是,样本区分模型为用区分样本特征对应的样本是真实样本还是由噪音数据以及标签组成的混合构造样本。

具体地,通过所述分类模型对所述第二样本特征进行分类,得到第一预测分类标签,并依据所述第一预测分类标签和所述第一真实分类标签,计算第一分类损失。另外,依据待训练第一样本区分模型,分别对所述第一样本特征和所述第二样本特征进行样本区分,得到各第一样本区分预测结果,进而依据各第一样本区分结果、第一样本特征对应的真实样本区分标签和第二样本特征对应的真实样本区分标签,计算样本区分损失。

其中,所述通过所述分类模型对所述第二样本特征进行分类,以及通过待训练第一样本区分模型对所述第一样本特征和所述第二样本特征进行样本区分,计算第一分类损失以及样本区分损失的步骤包括:

步骤S311,依据所述分类模型,对所述第二样本特征进行分类,得到第一预测分类标签;

步骤S312,依据所述第一预测分类标签和所述第一真实分类标签,计算第一分类损失;

在本实施例中,具体地,依据所述分类模型,对所述第二样本特征进行分类,得到第一预测分类标签,进而依据所述第一预测分类标签和所述第一真实分类标签之间的差异度,通过预设损失函数,计算第一分类损失,其中,所述预设损失函数可以为L2损失函数或者交叉熵损失函数等。

步骤S313,依据所述样本区分模型,分别对所述第一样本特征和所述第二样本特征进行二分类,得到二分类结果;

在本实施例中,需要说明的是,所述样本区分模型可以为二分类模型,用于对第一样本特征和第二样本特征进行二分类,以实现对第一样本特征和第二样本特征的样本区分,例如,假设真实的二分类标签分别为标签0和1,其中,0表示对应的样本特征为特征生成模型的输出,1表示对应的样本特征为特征提取模型的输出,而样本区分模型的输出二分类标签可以表示为对应的样本特征为特征提取模型的输出的概率值。

步骤S314,依据所述二分类结果以及所述第一样本特征和所述第二样本特征共同对应的正负样本标签,计算所述样本区分损失。

在本实施例中,需要说明的是,所述二分类结果包括第一样本特征对应的第一二分类结果和第二样本特征对应的第二二分类结果,所述正负样本标签为设置的真实二分类标签,例如可设置第一样本特征对应的真实二分类标签为正样本标签,具体可为1,可设置第二样本特征对应的真实二分类标签为负样本标签,具体可为0,另外,也可设置第二样本特征对应的真实二分类标签为正样本标签,具体可为1,可设置第一样本特征对应的真实二分类标签为负样本标签,具体可为0。

具体地,依据所述第一二分类结果与第一样本特征在所述正负样本标签中对应的真实二分类标签之间的差异度,通过预设损失函数计算第一二分类损失;依据所述第二二分类结果与第二样本特征在所述正负样本标签中对应的真实二分类标签之间的差异度,通过预设损失函数计算第二二分类损失,进而对所述第一二分类损失和所述第二二分类损失进行聚合,得到所述样本区分损失,其中聚合的方式可以为求平均以及加权求和等。

步骤S32,依据所述第一分类损失和所述样本区分损失,迭代优化所述待训练特征生成模型,得到所述特征生成模型。

在本实施例中,具体地,依据所述第一分类损失和所述样本区分损失计算的模型梯度,通过预设模型更新方法,迭代更新待训练特征生成模型与待训练样本区分模型,以优化待训练特征生成模型,直至所述待训练特征生成模型满足预设迭代更新结束条件,得到特征生成模型,其中,所述预设迭代更新结束条件可以为模型损失收敛或者达到最大迭代次数阈值。

其中,所述依据所述第一分类损失和所述样本区分损失,迭代优化所述待训练特征生成模型,得到所述特征生成模型的步骤包括:

步骤S321,判断所述第一分类损失和所述样本区分损失是否均收敛;

在本实施例中,具体地,将第一分类损失和样本区分损失聚合为模型总损失,并判断所述模型总损失是否收敛,以实现判断所述第一分类损失和所述样本区分损失是否均收敛,其中,模型总损失收敛,则第一分类损失和样本区分损失均收敛,否则,第一分类损失和样本区分损失未均收敛。

步骤S322,若均收敛,则将所述待训练特征生成模型作为所述特征生成模型;

步骤S323,若未均收敛,则基于所述第一分类损失和所述样本区分损失计算的模型梯度,更新所述待训练特征生成模型,以及基于所述样本区分损失计算的模型梯度,更新所述待训练第一样本区分模型,返回执行步骤:提取第一训练样本、第一噪音数据、所述第一训练样本对应的第一真实分类标签。

在本实施例中,若均收敛,则将所述待训练特征生成模型作为所述特征生成模型,若未均收敛,则依据所述模型总损失相对于待训练特征生成模型的模型梯度,更新待训练特征生成模型,以及依据所述模型总损失相对于待训练第一样本区分模型的模型梯度,更新待训练第一样本区分模型,同时保持特征提取模型和分类模型固定不变,返回执行步骤:提取第一训练样本、第一噪音数据、所述第一训练样本对应的第一真实分类标签,以继续进行下一轮迭代优化。

如图2所示为本申请实施例中构建特征生成模型的流程示意图,其中,x为所述第一训练样本,也即为数据,z为所述第一噪音数据,也即为噪音,y为所述第一真实分类标签,也即为标签,f为所述第一样本特征,g为所述第二样本特征,为所述第一预测分类标签,Ltask为所述第一分类损失。

步骤S40,将所述特征生成模型和所述分类模型发送至第二设备,以供第二设备依据各所述第一设备发送的特征生成模型,迭代优化聚合各所述特征生成模型得到的全局特征生成模型以及聚合各所述分类模型得到的全局分类模型,得到目标全局特征生成模型和目标全局分类模型;

在本实施例中,具体地,将所述特征生成模型和所述分类模型发送至第二设备,以供第二设备依据各所述第一设备发送的特征生成模型,迭代优化聚合各所述特征生成模型得到的全局特征生成模型以及聚合各所述分类模型得到的全局分类模型,得到目标全局特征生成模型和目标全局分类模型,具体地,获取噪音数据和真实分类标签,并将各所述特征生成模型聚合为全局特征生成模型,以及将各所述分类模型聚合为全局分类模型,进而依据所述噪音数据和真实分类标签,通过对全局特征生成模型以及全局分类模型进行迭代训练,以及在各所述特征生成模型与全局特征生成模型之间进行知识蒸馏,迭代优化全局特征生成模型和全局分类模型,得到目标全局特征生成模型和目标全局分类模型,其中,知识蒸馏的目的在于促使全局特征生成模型学习各特征生成模型的模型知识,以学习所有参与方的知识。

另外地,需要说明的是,各第一设备的本地样本数据通常为非独立同分布,也即各第一设备所具备的特征不完全相同,进而各第一设备构建的本地模型通常会存在差异性,若直接将本地模型聚合为全局模型,则会由于各第一设备的数据的非独立同分布的性质而造成各特征生成模型在聚合过程中互相干扰,进而导致全局模型的性能下降,而本申请实施例中,在聚合得到全局模型之后,通过在全局模型和各本地模型之间进一步进行知识蒸馏,使得全局模型进一步学习各本地模型的模型知识,提升全局模型的性能,进而可解决由于各联邦学习参与方的样本数据的非独立同分布而带来的模型性能下降问题。

另外,若各第一设备的本地样本数据为独立同分布的,则可将各所述特征生成模型聚合得到全局特征生成模型直接作为目标全局特征生成模型,以及将各所述分类模型聚合得到全局分类模型直接作为目标全局分类模型,其中,聚合的方式包括求平均以及加权求和等。

步骤S50,接收所述第二设备发送的目标全局特征生成模型和目标全局分类模型,并依据所述目标全局特征生成模型,对所述特征提取模型和所述目标全局分类模型进行迭代优化,得到目标特征提取模型和目标分类模型。

在本实施例中,具体地,接收所述第二设备发送的目标全局特征生成模型和目标全局分类模型,并将所述分类模型替换更新为目标全局分类模型,进而通过对所述特征提取模型和所述目标全局分类模型进行迭代更新,以及在固定所述目标全局特征生成模型的情况下,在所述目标全局特征生成模型与特征提取模型之间进行知识蒸馏,对所述特征提取模型和所述目标全局分类模型进行迭代优化,得到目标特征提取模型和目标分类模型,其中,步骤S50的目的在于使得特征提取模型可通过目标全局特征生成模型学习所有参与方的知识,也即共享所有参与方的知识,且促使目标全局分类模型与特征提取模型相适配。

其中,所述依据所述目标全局特征生成模型,对所述特征提取模型和所述目标全局分类模型进行迭代优化,得到目标特征提取模型和目标分类模型的步骤包括:

步骤S51,提取第二训练样本、第二噪音数据以及所述第二训练样本对应的第二真实分类标签;

步骤S52,获取所述特征提取模型针对于所述第二训练样本生成的本地样本特征,以及获取所述目标全局特征生成模型针对于所述第二噪音数据和所述第二真实分类标签生成的全局样本特征;

在本实施例中,具体地,依据特征提取模型,对所述第二训练样本进行特征提取,得到本地样本特征,并依据目标全局特征生成模型,将所述第二噪音数据和所述第二真实分类标签共同转换为全局样本特征。

步骤S53,依据所述第二真实分类标签以及所述目标全局分类模型针对于所述本地样本特征生成的第二预测分类标签,计算第二分类损失;

在本实施例中,具体地,依据所述目标全局分类模型,对所述本地样本特征进行分类,得到第二预测分类标签,进而依据所述第二预测分类标签与所述第二真实分类标签之间的差异度,通过预设损失函数计算第二分类损失。

步骤S54,依据所述本地样本特征和所述全局样本特征之间的相似度,计算特征相似度损失;

在本实施例中,需要说明的是,样本特征通常为张量,例如向量以及矩阵等,进而所述本地样本特征和所述全局样本特征之间的相似度可以由所述本地样本特征与所述全局样本特征之间的距离表示。。

具体地,依据所述本地样本特征和所述全局样本特征之间的距离,计算距离损失,并将所述距离损失作为特征相似度损失,其中,所述特征相似度损失用于更新特征提取模型,以促使特征提取模型输出与目标全局特征生成模型一致的样本特征,进而实现促使特征提取模型学习目标全局特征生成模型的模型知识的目的,而目标全局特征生成模型具备所有参与方的知识,进而实现了共享所有参与方的知识的目的。

步骤S55,依据所述第二分类损失和所述特征相似度损失,在固定所述目标全局特征生成模型的情况下迭代优化所述特征提取模型和所述目标全局分类模型,得到所述目标特征提取模型和所述目标分类模型。

在本实施例中,具体地,判断所述第二分类损失和所述特征相似度损失是否均收敛,若均收敛,则将所述特征提取模型作为目标特征提取模型,以及将所述目标全局分类模型作为目标分类模型,若未均收敛,则固定所述目标全局特征生成模型不变,并依据所述第二分类损失和所述特征相似度损失共同组成的总损失相对于特征提取模型的模型梯度,更新所述特征提取模型,以及依据所述第二分类损失相对于目标全局分类模型的模型梯度,更新所述目标全局分类模型,并返回执行步骤:提取第二训练样本、第二噪音数据以及所述第二训练样本对应的第二真实分类标签,以进行下一轮迭代。

另外地,需要说明的是,为了保护联邦学习中的数据隐私,目前可以再同态加密环境下进行联邦学习,但是,同态加密所涉及的计算开销极大,而本申请实施例中第一设备和第二设备中涉及的数据为明文数据,所以,相比于基于同态加密进行联邦学习的方式,明显降低了计算开销,进而提升了联邦学习的效率。另外为了保护联邦学习中的数据隐私,目前可以基于多方安全计算进行联邦学习,但是,多方安全计算所涉及的计算开销与通信开销极大,而本申请实施例中第一设备和第二设备中涉及的数据均为完整的明文数据,并不涉及多方安全计算中的秘密共享过程,所以,相比于基于多方安全计算进行联邦学习的方式,明显降低了计算开销与通信开销,提升了联邦学习的效率;另外,为了保护联邦学习中的数据隐私,目前可以基于差分隐私进行联邦学习,但是差分隐私需要通过添加噪声来实现隐私保护,会影响模型的可用性以及准确性,而本申请实施例明显未直接在特征提取模型和分类模型中添加噪声,仅仅只是利用噪声数据和标签一起输入特征生成模型来模拟特征提取模型的输出,所以不影响特征提取模型和分类模型的准确度以及可用行,所以相比于基于差分隐私进行联邦学习的方式,提升了联邦学习模型的可用性以及准确度。

其中,所述依据所述第二分类损失和所述特征相似度损失,在固定所述目标全局特征生成模型的情况下迭代优化所述特征提取模型和所述目标全局分类模型,得到所述目标特征提取模型和所述目标分类模型的步骤包括:

步骤S551,若所述目标全局特征生成模型和所述目标全局分类模型满足预设联邦结束条件,则依据所述第二分类损失和所述特征相似度损失,在固定所述目标全局特征生成模型的情况下迭代更新所述特征提取模型和所述目标全局分类模型,得到所述目标特征提取模型和所述目标分类模型;

在本实施例中,具体地,若接收到第二设备发送的联邦学习结束通知信息,则判定所述目标全局生成模型和所述目标全局分类模型满足预设联邦结束条件,进而依据所述第二分类损失和所述特征相似度损失,在固定所述目标全局特征生成模型的情况下迭代更新所述特征提取模型和所述目标全局分类模型,得到所述目标特征提取模型和所述目标分类模型,其中,所述依据所述第二分类损失和所述特征相似度损失,在固定所述目标全局特征生成模型的情况下迭代更新所述特征提取模型和所述目标全局分类模型,得到所述目标特征提取模型和所述目标分类模型的具体实现过程,可参照上述步骤S55中的步骤,在此不再赘述。

步骤S552,若所述目标全局特征生成模型和所述目标全局分类模型未满足预设联邦结束条件,则依据所述第二分类损失和所述特征相似度损失,在固定所述目标全局特征生成模型的情况下迭代更新所述特征提取模型和所述目标全局分类模型,并返回执行步骤:提取第一训练样本、第一噪音数据、所述第一训练样本对应的第一真实分类标签。

在本实施例中,具体地,若未接收到第二设备发送的联邦学习结束通知信息,则判定所述目标全局特征生成模型和所述目标全局分类模型未满足预设联邦结束条件,进而判定所述第二分类损失和所述特征相似度损失是否均收敛,若均收敛,则返回执行步骤:提取第一训练样本、第一噪音数据、所述第一训练样本对应的第一真实分类标签,以进行下一轮联邦学习迭代,若未均收敛,则依据所述第二分类损失和所述特征相似度损失,在固定所述目标全局特征生成模型的情况下更新所述特征提取模型和所述目标全局分类模型,并返回执行步骤:提取第二训练样本、第二噪音数据、所述第二训练样本对应的第二真实分类标签,以进行下一轮模型迭代更新。

另外,需要说明的是,所述联邦学习建模方法可用于图像处理领域,所述联邦学习建模优化方法还包括:

步骤Q10,获取训练好的图像特征提取模型和图像分类模型,并提取第一训练图像样本、第一图像噪音数据、所述第一训练图像样本对应的第一真实图像分类标签;

步骤Q20,获取所述图像特征提取模型针对于所述第一训练图像样本生成的第一图像样本特征,以及待训练图像特征生成模型针对于所述第一图像噪音数据和所述第一真实图像分类标签生成的第二图像样本特征;

步骤Q30,通过所述图像分类模型对所述第二图像样本特征进行图像分类以及通过待训练图像样本区分模型对所述第一图像样本特征与所述第二图像样本特征进行图像样本区分,在固定所述图像特征提取模型和所述图像分类模型的情况下对所述待训练图像特征生成模型进行迭代优化,得到图像特征生成模型;

步骤Q40,将所述图像特征生成模型和所述图像分类模型发送至第二设备,以供第二设备依据各所述第一设备发送的图像特征生成模型,迭代优化聚合各所述图像特征生成模型得到的全局图像特征生成模型以及聚合各所述图像分类模型得到的全局图像分类模型,得到目标全局图像特征生成模型和目标全局图像分类模型;

步骤Q50,接收所述第二设备发送的目标全局图像特征生成模型和目标全局图像分类模型,并依据所述目标全局图像特征生成模型,对所述图像特征提取模型和所述目标全局图像分类模型进行迭代优化,得到目标图像特征提取模型和目标图像分类模型。

在本实施例中,需要说明的是,所述特征提取模型可以为图像特征提取模型,所述分类模型可以为图像分类模型,所述第一训练样本可以为第一训练图像样本,所述第一噪音数据可以为第一图像噪音数据,所述第一真实分类标签可以为第一真实图像分类标签,所述待训练特征生成模型可以为待训练图像特征生成模型,所述第二样本特征可以为第二图像样本特征,所述待训练样本区分模型可以为待训练图像样本区分模型,所述特征生成模型可以为图像特征生成模型,所述目标全局特征生成模型可以为目标全局图像特征生成模型,所述目标全局分类模型可以为目标全局图像分类模型,所述目标特征提取模型可以为目标图像特征提取模型,所述目标分类模型可以为目标图像分类模型。步骤Q10至步骤Q50的具体实施过程可参照步骤S10至步骤S50中的内容,在此不再赘述。

本申请实施例获取训练好的图像特征提取模型和图像分类模型,并提取第一训练图像样本、第一图像噪音数据、所述第一训练图像样本对应的第一真实图像分类标签,进而获取所述图像特征提取模型针对于所述第一训练图像样本生成的第一图像样本特征,以及待训练图像特征生成模型针对于所述第一图像噪音数据和所述第一真实图像分类标签生成的第二图像样本特征,进而通过所述图像分类模型对所述第二图像样本特征进行图像分类以及通过待训练图像样本区分模型对所述第一图像样本特征与所述第二图像样本特征进行图像样本区分,在固定所述图像特征提取模型和所述图像分类模型的情况下对所述待训练图像特征生成模型进行迭代优化,得到图像特征生成模型,实现了构建携带图像特征提取模型的模型知识的特征生成模型的目的,同时特征生成模型又不直接依据参与方的原始样本数据进行构建。将所述图像特征生成模型和所述图像分类模型发送至第二设备,以供第二设备依据各所述第一设备发送的图像特征生成模型,迭代优化聚合各所述图像特征生成模型得到的全局图像特征生成模型以及聚合各所述图像分类模型得到的全局图像分类模型,得到目标全局图像特征生成模型和目标全局图像分类模型。而由于特征生成模型不直接依据参与方的原始图像样本数据进行构建,所以第二设备无法反推出第一设备的原始样本数据。接收所述第二设备发送的目标全局图像特征生成模型和目标全局图像分类模型,并依据所述目标全局图像特征生成模型,对所述图像特征提取模型和所述目标全局图像分类模型进行迭代优化,使得图像特征提取模型和图像分类模型可以学习到目标全局图像特征生成模和目标全局图像分类模型所携带的所有参与方的知识,进而得到目标图像特征提取模型和目标图像分类模型,实现了通过全局模型共享所有参与方的知识的目的,同时又没有泄露参与方本地的原始样本数据,也即在实现基于联邦学习构建图像特征提取模型以及图像分类模型的同时,又降低了各参与方泄露自身的原始图像样本数据的风险。解决了构建图像特征提取模型以及图像分类模型时的“数据孤岛”问题,在保护各方原始图像样本数据的数据隐私的同时,提升了图像特征提取模型和图像分类模型的准确度。

相比于基于同态加密,以联邦学习的方式构建图像处理模型(图像特征生成模型以及图像分类模型),明显降低了计算开销,提升了基于联邦学习构建图像处理模型的效率。相比于基于多方安全计算,以联邦学习的方式构建图像处理模型,明显降低了计算开销与通信开销,提升了基于联邦学习构建图像处理模型的效率;相比于基于差分隐私,以联邦学习的方式构建图像处理模型,本申请实施例中明显未直接在图像特征提取模型和图像分类模型中添加噪声,仅仅只是利用噪声数据和标签一起输入图像特征生成模型来模拟图像特征提取模型的输出,所以不影响图像特征提取模型和图像分类模型的准确度以及可用行,所以提升了基于联邦学习构建的图像处理模型的可用性以及准确度。

本申请实施例提供了一种联邦学习建模优化方法,相比于现有技术采用的在联邦学习场景中每个参与方维护一个本地模型和一个全局模型。各个参与方通过本地模型学习本地特有的知识,通过全局模型共享所有参与方的知识,然后各个参与方将本地模型和全局模型聚合在一起的技术手段,本申请实施例首先获取训练好的特征提取模型和分类模型,并提取第一训练样本、第一噪音数据、所述第一训练样本对应的第一真实分类标签,进而获取所述特征提取模型针对于所述第一训练样本生成的第一样本特征,以及待训练特征生成模型针对于所述第一噪音数据和所述第一真实分类标签生成的第二样本特征,进而通过所述分类模型对所述第二样本特征进行分类以及通过待训练样本区分模型对所述第一样本特征与所述第二样本特征进行样本区分,在固定所述特征提取模型和所述分类模型的情况下对所述待训练特征生成模型进行迭代优化,得到特征生成模型,实现了构建携带特征提取模型的模型知识的特征生成模型的目的,同时特征生成模型又不直接依据参与方的原始样本数据进行构建,进而将所述特征生成模型和所述分类模型发送至第二设备,以供第二设备依据各所述第一设备发送的特征生成模型,迭代优化聚合各所述特征生成模型得到的全局特征生成模型以及聚合各所述分类模型得到的全局分类模型,得到目标全局特征生成模型和目标全局分类模型,进而由于特征生成模型不直接依据参与方的原始样本数据进行构建,进而第二设备无法反推出第一设备的原始样本数据,进而接收所述第二设备发送的目标全局特征生成模型,并依据所述目标全局特征生成模型,对所述特征提取模型和所述分类模型进行迭代优化,使得特征提取模型和分类模型可以学习到目标全局特征生成模和目标全局分类模型所携带的所有参与方的知识,进而得到目标特征提取模型和目标分类模型,实现了促使本地模型学习全局模型的模型知识,也即实现了通过全局模型共享所有参与方的知识的目的,同时又没有泄露本地的原始样本数据,所以克服了联邦服务器可以通过各个参与方的全局模型反推出参与方的原始数据,因此有数据泄露的风险的技术缺陷,降低了联邦学习中泄露参与方隐私数据泄露的风险。

进一步地,参照图3,在本申请另一实施例中,所述联邦学习建模优化方法应用于第二设备,所述联邦学习建模优化方法包括:

步骤A10,接收各第一设备发送的特征生成模型和分类模型,并将各所述特征生成模型聚合为全局特征生成模型以及将各所述分类模型聚合为全局分类模型;

步骤A20,提取噪音数据和所述噪音数据对应的真实分类标签;

在本实施例中,需要说明的是,聚合的方式包括求平均以及加权求和等。每一第一设备均需要维护一特征生成模型以及分类模型,其中,所述特征生成模型为根据噪音数据和真实分类标签模拟对应的特征提取模型的输出特征的模型,所述特征提取模型的输出特征是对真实分类标签对应的样本进行特征提取得到的模型输出结果,其中,所述特征生成模型的输出与所述特征提取模型的输出可被样本区分模型区分。同时对于同一样本及对应的噪音以及标签,所述特征生成模型的输出与对应的特征提取模型的输出通过分类模型可生成相同的分类标签。所述第一设备构建所述特征生成模型的具体过程可参照上述步骤S10至步骤S30中的具体内容,在此不再赘述。

步骤A30,依据所述噪音数据和所述真实分类标签,通过对所述全局特征生成模型和所述全局分类模型进行迭代训练,以及通过在所述全局特征生成模型与各所述特征生成模型之间进行知识蒸馏,迭代优化所述全局特征生成模型和所述全局分类模型,得到目标全局特征生成模型和目标全局分类模型;

在本实施例中,具体地,依据所述噪音数据和所述真实分类标签,对所述全局特征生成模型和全局分类模型进行迭代训练,以计算全局分类损失,并在所述全局特征生成模型与各所述特征生成模型之间进行知识蒸馏,以计算知识蒸馏损失,进而依据所述全局分类损失和所述知识蒸馏损失,迭代优化所述全局特征生成模型和所述全局分类模型,得到目标全局特征生成模型和目标全局分类模型。

其中,所述在所述全局特征生成模型与各所述特征生成模型之间进行知识蒸馏,以计算知识蒸馏损失的步骤包括:

依据各所述特征生成模型,分别将所述噪音数据和所述真实分类标签共同转换为本地生成特征,以及依据全局特征生成模型,将所述噪音数据和所述真实分类标签共同转换为全局生成特征,其中,一所述特征生成模型输出一所述本地生成特征,进而依据每一本地生成特征与所述全局生成特征之间的距离,计算特征距离损失值,并将各所述特征距离损失值聚合为知识蒸馏损失,其中,聚合的方式可以为求平均或者加权求和等。

其中,所述依据所述噪音数据和所述真实分类标签,通过对所述全局特征生成模型和所述全局分类模型进行迭代训练,以及通过在所述全局特征生成模型与各所述特征生成模型之间进行知识蒸馏,迭代优化所述全局特征生成模型和所述全局分类模型,得到目标全局特征生成模型和目标全局分类模型的步骤包括:

步骤A31,依据各所述特征生成模型,分别将所述噪音数据以及所述真实分类标签共同转换为各本地生成特征,以及依据所述全局特征生成模型,将所述噪音数据和所述真实分类标签共同转换为全局生成特征;

在本实施例中,需要说明的是,每一特征生成模型均以噪音数据和真实分类标签作为输入,输出一对应的本地生成特征。

步骤A32,依据所述真实分类标签以及通过全局分类模型对所述全局生成特征进行分类生成的全局预测分类标签,计算全局分类损失;

在本实施例中,具体地,依据全局分类模型,对归一化后的全局生成特征进行分类,得到全局预测分类标签,进而依据所述真实分类标签和所述全局预测分类标签之间的差异度,通过预设损失函数计算全局分类损失,其中,所述预设损失函数可以为L2损失函数或者交叉熵损失函数等。

步骤A33,依据各所述本地生成特征和所述全局生成特征之间的相似度,计算全局特征相似度损失;

在本实施例中,具体地,依据各所述本地生成特征和所述全局生成特征之间的距离,通过预设损失函数计算全局特征距离损失值,进而将各所述全局特征距离损失值聚合为全局特征相似度损失。

其中,所述依据各所述本地生成特征和所述全局生成特征之间的相似度,计算全局特征相似度损失的步骤包括:

步骤A331,对各所述本地生成特征进行归一化,得到各第一归一化特征;

步骤A332,对所述全局生成特征进行归一化,得到第二归一化特征;

在本实施例中,具体地,依据预设归一化指数函数,将各所述本地生成特征归一化为对应的第一归一化特征,以及将所述全局生成特征归一化为对应的第二归一化特征,其中,需要说明的是,由于各第一设备的样本数据之间通常为非独立同分布,进而第一设备各自依据样本数据构建的特征生成模型通常存在一定的差异性,所以,各特征生成模型的输出通常也存在一定的差异性,无法直接计算相似度,进而需要将各本地生成特征和全局生成特征进行归一化。

步骤A333,依据各所述第一归一化特征与所述第二归一化特征之间的相似度,计算所述全局特征相似度损失。

在本实施例中,具体地,计算各所述第一归一化特征的均值,得到全局均值特征,进而依据所述全局均值特征与所述第二归一化特征之间的距离,计算全局距离损失值,并将所述全局距离损失值作为所述全局特征相似度损失,也即为知识蒸馏损失,实现了在联邦学习中各参与方的样本数据非独立同分布时,在全局模型和各本地模型之间进行知识蒸馏的目的。

步骤A34,依据所述全局特征相似度损失和所述全局分类损失,迭代优化所述全局特征生成模型和所述全局分类模型,得到所述目标全局特征生成模型和所述目标全局分类模型。

在本实施例中,具体地,判断所述全局特征生成模型和所述全局分类模型是否满足预设模型迭代更新次数,若满足,则将所述全局特征生成模型作为目标全局特征生成模型,以及将所述全局分类模型作为目标全局分类模型,若不满足,则依据所述全局分类损失计算的模型梯度,更新所述全局分类模型,以及依据所述全局特征相似度损失以及所述全局分类损失共同计算的模型梯度,更新所述全局特征生成模型,并返回执行步骤:提取噪音数据和所述噪音数据对应的真实分类标签,以进行下一轮模型更新迭代,其中,所述预设模型迭代更新次数为预设设置的模型更新次数阈值,一旦达到该阈值,则第二设备需要向第一设备发送目标全局特征生成模型和目标全局分类模型。

其中,在所述将所述目标全局特征生成模型和所述目标全局分类模型分别反馈至各所述第一设备的步骤之前,所述联邦学习建模优化方法还包括:

步骤B10,判断所述目标全局特征生成模型和所述目标全局分类模型是否满足预设联邦迭代结束条件;

步骤B20,若满足,则通知各所述第一设备本次联邦学习建模结束,并执行步骤:将所述目标全局特征生成模型和所述目标全局分类模型分别反馈至各所述第一设备。

在本实施例中,需要说明的是,所述预设联邦迭代结束条件可以为模型损失收敛或者迭代最大联邦迭代次数等。

具体地,判断所述目标全局特征生成模型和所述目标全局分类模型是否满足预设联邦迭代结束条件;若所述目标全局特征生成模型和所述目标全局分类模型满足预设联邦迭代结束条件,则通知各所述第一设备本次联邦学习建模结束,并执行步骤:将所述目标全局特征生成模型和所述目标全局分类模型分别反馈至各所述第一设备,以结束本次联邦学习建模;若所述目标全局特征生成模型和所述目标全局分类模型不满足预设联邦迭代结束条件,则直接执行步骤:将所述目标全局特征生成模型和所述目标全局分类模型分别反馈至各所述第一设备,以进行下一轮联邦学习迭代。

步骤A40,将所述目标全局特征生成模型和所述目标全局分类模型分别反馈至各所述第一设备,以供所述第一设备依据所述目标全局特征生成模型,对所述特征生成模型对应的特征提取模型和所述目标全局分类模型进行迭代优化,得到目标特征提取模型和目标分类模型。

在本实施例中,具体地,将所述目标全局特征生成模型和所述目标全局分类模型分别反馈至每一第一设备,进而所述第一设备将本地的分类模型替换更新为目标全局分类模型,并通过对所述特征提取模型和所述目标全局分类模型进行迭代更新,以及在固定所述目标全局特征生成模型的情况下,在所述目标全局特征生成模型与特征提取模型之间进行知识蒸馏,对所述特征提取模型和所述目标全局分类模型进行迭代优化,得到目标特征提取模型和目标分类模型,其中,第一设备生成目标特征提取模型以及目标分类模型的具体过程可参照步骤S51至步骤S55中的具体内容,在此不再赘述。

如图4所示为所述第二设备构建目标全局特征提取模型和目标全局分类模型的流程示意图,其中,客户端为所述第一设备,softmax为所述预设归一化指数函数,生成模型为所述特征生成模型,全局生成模型为所述全局特征生成模型,z为所述噪音数据,y为所述真实分类标签,KL为所述知识蒸馏损失,也即为全局特征相似度损失。

本申请实施例提供了一种联邦学习建模优化方法,相比于现有技术采用的在联邦学习场景中每个参与方维护一个本地模型和一个全局模型。各个参与方通过本地模型学习本地特有的知识,通过全局模型共享所有参与方的知识,然后各个参与方将本地模型和全局模型聚合在一起的技术手段,本申请实施例首先接收各第一设备发送的特征生成模型和分类模型,并将各所述特征生成模型聚合为全局特征生成模型以及将各所述分类模型聚合为全局分类模型,进而提取噪音数据和所述噪音数据对应的真实分类标签,进而依据所述噪音数据和所述真实分类标签,通过对所述全局特征生成模型和所述全局分类模型进行迭代训练,以及通过在所述全局特征生成模型与各所述特征生成模型之间进行知识蒸馏,迭代优化所述全局特征生成模型和所述全局分类模型,得到目标全局特征生成模型和目标全局分类模型,其中,由于第一设备并未直接将特征提取模型发送至第二设备,而是将模拟特征提取模型的输出的特征生成模型发送至第二设备,而由于特征生成模型的输入为噪音数据以及标签,进而即使第二设备拥有特征生成模型,也无法反推出第一设备的样本以及标签,进而将所述目标全局特征生成模型和所述目标全局分类模型分别反馈至各所述第一设备,以供所述第一设备依据所述目标全局特征生成模型,对所述特征生成模型对应的特征提取模型和所述目标全局分类模型进行迭代优化,得到目标特征提取模型和目标分类模型,其中,第一设备可利用全局特征生成模型来优化特征提取模型,而由于特征生成模型为模拟特征提取模型的输出模型,进而在优化特征提取模型的过程中可促使特征提取模型可学习全局特征生成模型模型知识,实现了依据全局特征生成模型共享所以参与方的知识的目的,同时又不会泄露本地的数据隐私,所以克服了联邦服务器可以通过各个参与方的全局模型反推出参与方的原始数据,因此有数据泄露的风险的技术缺陷,降低了联邦学习中泄露参与方隐私数据泄露的风险。

参照图5,图5是本申请实施例方案涉及的硬件运行环境的设备结构示意图。

如图5所示,该联邦学习建模优化设备可以包括:处理器1001,例如CPU,存储器1005,通信总线1002。其中,通信总线1002用于实现处理器1001和存储器1005之间的连接通信。存储器1005可以是高速RAM存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储设备。

可选地,该联邦学习建模优化设备还可以包括矩形用户接口、网络接口、摄像头、RF(Radio Frequency,射频)电路,传感器、音频电路、WiFi模块等等。矩形用户接口可以包括显示屏(Display)、输入子模块比如键盘(Keyboard),可选矩形用户接口还可以包括标准的有线接口、无线接口。网络接口可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。

本领域技术人员可以理解,图5中示出的联邦学习建模优化设备结构并不构成对联邦学习建模优化设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。

如图5所示,作为一种计算机存储介质的存储器1005中可以包括操作系统、网络通信模块以及联邦学习建模优化程序。操作系统是管理和控制联邦学习建模优化设备硬件和软件资源的程序,支持联邦学习建模优化程序以及其它软件和/或,程序的运行。网络通信模块用于实现存储器1005内部各组件之间的通信,以及与联邦学习建模优化系统中其它硬件和软件之间通信。

在图5所示的联邦学习建模优化设备中,处理器1001用于执行存储器1005中存储的联邦学习建模优化程序,实现上述任一项所述的联邦学习建模优化方法的步骤。

本申请联邦学习建模优化设备具体实施方式与上述联邦学习建模优化方法各实施例基本相同,在此不再赘述。

本申请实施例还提供一种联邦学习建模优化装置,所述联邦学习建模优化装置应用于第一设备,所述联邦学习建模优化装置包括:

提取模块,用于获取训练好的特征提取模型和分类模型,并提取第一训练样本、第一噪音数据、所述第一训练样本对应的第一真实分类标签;

特征生成模块,用于获取所述特征提取模型针对于所述第一训练样本生成的第一样本特征,以及待训练特征生成模型针对于所述第一噪音数据和所述第一真实分类标签生成的第二样本特征;

迭代训练模块,用于通过所述分类模型对所述第二样本特征进行分类以及通过待训练样本区分模型对所述第一样本特征与所述第二样本特征进行样本区分,在固定所述特征提取模型和所述分类模型的情况下对所述待训练特征生成模型进行迭代优化,得到特征生成模型;

发送模块,用于将所述特征生成模型和所述分类模型发送至第二设备,以供第二设备依据各所述第一设备发送的特征生成模型,迭代优化聚合各所述特征生成模型得到的全局特征生成模型以及聚合各所述分类模型得到的全局分类模型,得到目标全局特征生成模型和目标全局分类模型;

迭代优化模块,用于接收所述第二设备发送的目标全局特征生成模型和目标全局分类模型,并依据所述目标全局特征生成模型,对所述特征提取模型和所述目标全局分类模型进行迭代优化,得到目标特征提取模型和目标分类模型。

可选地,所述迭代训练模块还用于:

通过所述分类模型对所述第二样本特征进行分类,以及通过待训练第一样本区分模型对所述第一样本特征和所述第二样本特征进行样本区分,计算第一分类损失以及样本区分损失;

依据所述第一分类损失和所述样本区分损失,迭代优化所述待训练特征生成模型,得到所述特征生成模型。

可选地,所述迭代训练模块还用于:

依据所述分类模型,对所述第二样本特征进行分类,得到第一预测分类标签;

依据所述第一预测分类标签和所述第一真实分类标签,计算第一分类损失;

依据所述样本区分模型,分别对所述第一样本特征和所述第二样本特征进行二分类,得到二分类结果;

依据所述二分类结果以及所述第一样本特征和所述第二样本特征共同对应的正负样本标签,计算所述样本区分损失。

可选地,所述迭代优化模块还用于:

提取第二训练样本、第二噪音数据以及所述第二训练样本对应的第二真实分类标签;

获取所述特征提取模型针对于所述第二训练样本生成的本地样本特征,以及获取所述目标全局特征生成模型针对于所述第二噪音数据和所述第二真实分类标签生成的全局样本特征;

依据所述第二真实分类标签以及所述目标全局分类模型针对于所述本地样本特征生成的第二预测分类标签,计算第二分类损失;

依据所述本地样本特征和所述全局样本特征之间的相似度,计算特征相似度损失;

依据所述第二分类损失和所述特征相似度损失,在固定所述目标全局特征生成模型的情况下迭代优化所述特征提取模型和所述目标全局分类模型,得到所述目标特征提取模型和所述目标分类模型。

可选地,所述迭代优化模块还用于:

若所述目标全局特征生成模型和所述目标全局分类模型满足预设联邦结束条件,则依据所述第二分类损失和所述特征相似度损失,在固定所述目标全局特征生成模型的情况下迭代更新所述特征提取模型和所述目标全局分类模型,得到所述目标特征提取模型和所述目标分类模型;

若所述目标全局特征生成模型和所述目标全局分类模型未满足预设联邦结束条件,则依据所述第二分类损失和所述特征相似度损失,在固定所述目标全局特征生成模型的情况下迭代更新所述特征提取模型和所述目标全局分类模型,并返回执行步骤:提取第一训练样本、第一噪音数据、所述第一训练样本对应的第一真实分类标签。

本申请联邦学习建模优化装置的具体实施方式与上述联邦学习建模优化方法各实施例基本相同,在此不再赘述。

本申请实施例还提供一种联邦学习建模优化装置,所述联邦学习建模优化装置应用于第二设备,所述联邦学习建模优化装置包括:

模型聚合模块,用于接收各第一设备发送的特征生成模型和分类模型,并将各所述特征生成模型聚合为全局特征生成模型以及将各所述分类模型聚合为全局分类模型;

提取模块,用于提取噪音数据和所述噪音数据对应的真实分类标签;

迭代优化模块,用于依据所述噪音数据和所述真实分类标签,通过对所述全局特征生成模型和所述全局分类模型进行迭代训练,以及通过在所述全局特征生成模型与各所述特征生成模型之间进行知识蒸馏,迭代优化所述全局特征生成模型和所述全局分类模型,得到目标全局特征生成模型和目标全局分类模型;

反馈模块,用于将所述目标全局特征生成模型和所述目标全局分类模型分别反馈至各所述第一设备,以供所述第一设备依据所述目标全局特征生成模型,对所述特征生成模型对应的特征提取模型和所述目标全局分类模型进行迭代优化,得到目标特征提取模型和目标分类模型。

可选地,所述迭代优化模块还用于:

依据各所述特征生成模型,分别将所述噪音数据以及所述真实分类标签共同转换为各本地生成特征,以及依据所述全局特征生成模型,将所述噪音数据和所述真实分类标签共同转换为全局生成特征;

依据所述真实分类标签以及通过全局分类模型对所述全局生成特征进行分类生成的全局预测分类标签,计算全局分类损失;

依据各所述本地生成特征和所述全局生成特征之间的相似度,计算全局特征相似度损失;

依据所述全局特征相似度损失和所述全局分类损失,迭代优化所述全局特征生成模型和所述全局分类模型,得到所述目标全局特征生成模型和所述目标全局分类模型。

可选地,所述迭代优化模块还用于:

对各所述本地生成特征进行归一化,得到各第一归一化特征;

对所述全局生成特征进行归一化,得到第二归一化特征;

依据各所述第一归一化特征与所述第二归一化特征之间的相似度,计算所述全局特征相似度损失。

可选地,所述联邦学习建模优化装置还用于:

判断所述目标全局特征生成模型和所述目标全局分类模型是否满足预设联邦迭代结束条件;

若满足,则通知各所述第一设备本次联邦学习建模结束,并执行步骤:将所述目标全局特征生成模型和所述目标全局分类模型分别反馈至各所述第一设备。

本申请联邦学习建模优化装置的具体实施方式与上述联邦学习建模优化方法各实施例基本相同,在此不再赘述。

本申请实施例提供了一种可读存储介质,且所述可读存储介质存储有一个或者一个以上程序,所述一个或者一个以上程序还可被一个或者一个以上的处理器执行以用于实现上述任一项所述的联邦学习建模优化方法的步骤。

本申请可读存储介质具体实施方式与上述联邦学习建模优化方法各实施例基本相同,在此不再赘述。

本申请实施例提供了一种计算机程序产品,且所述计算机程序产品包括有一个或者一个以上计算机程序,所述一个或者一个以上计算机程序还可被一个或者一个以上的处理器执行以用于实现上述任一项所述的联邦学习建模优化方法的步骤。

本申请计算机程序产品具体实施方式与上述联邦学习建模优化方法各实施例基本相同,在此不再赘述。

以上仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利处理范围内。

26页详细技术资料下载
上一篇:一种医用注射器针头装配设备
下一篇:一种工业互联网设备智能管控远程运维平台

网友询问留言

已有0条留言

还没有人留言评论。精彩留言会获得点赞!

精彩留言,会给你点赞!