使用同义资料的联邦学习方法与流程

未命名 09-24 阅读:61 评论:0


1.本发明涉及联邦学习技术领域,特别是涉及一种使用同义资料的联邦学习方法。


背景技术:

2.联邦学习(federated learning,fl)通过中央协作(orchestration)的跨设备及分散式学习(distributed learning)解决许多隐私和资料共享的问题。现有的联邦学习方法大多假设客户之间的协作设置可以容忍客户(moderator)临时断开其与协调者(moderator)之间的连接。
3.然而,实际上,由于商业竞争或其他非技术原因,可能会发生客户长时间缺席或离开的情况。当资料在客户之间不平衡、偏斜(skewed)或非独立且相同分布(non independent and identically distributed,non-iid)时,性能下降可能会很严重。
4.当协调者需要评估模型并将其发布给消费者时会出现另一个问题。由于协调者无法访问私人的客户资料,当客户停止协作时,代表性资料将丢失,从而导致联邦学习的梯度更新大程度的偏差和长期训练退化。在训练过程中记住梯度的简单方法不是一个合适的解决方案,因为随着迭代的进行,梯度很快地变得不具代表性。


技术实现要素:

5.鉴于以上所述现有技术的缺点,本发明的目的在于提出一种使用同义资料(synonym)的联邦学习方法,这是一种联邦学习框架,通过在协调者合成代表性客户资料解决客户离开的问题。
6.为了达到上述目的及其他相关目的,本发明提供一种使用同义资料的联邦学习方法,包括:协调装置发送通用模型至多个客户装置中的每一个;客户装置中的每一个执行训练程序,包括:编码器移除私有资料中的隐私部分并将私有资料编码为摘要;依据私有资料、摘要及通用模型训练客户模型;及发送摘要及客户模型的客户参数至协调装置,客户参数关联于客户模型中的权重;协调装置判断客户装置中的缺席客户装置;同义资料产生器依据缺席客户装置对应的摘要产生同义资料;协调装置依据同义资料及缺席客户装置对应的摘要训练替代模型;以及协调装置依据替代模型的替代参数及缺席客户装置以外的每一客户装置的客户参数执行聚合运算产生更新参数以更新通用模型。
7.以上的关于本发明内容的说明及以下的实施方式的说明用以示范与解释本发明的精神与原理,并且提供本发明的专利申请范围更进一步的解释。
附图说明
8.图1显示为本发明的使用同义资料的联邦学习系统于一实施例中的方块图;
9.图2显示为本发明的私有资料、摘要以及同义资料的关系于一实施例中的示意图;
10.图3及图4显示为本发明的使用同义资料的联邦学习系统于一实施例中的概观图;
11.图5显示为本发明的客户模型于一实施例中的内部架构图;
12.图6显示为本发明的替代模型于一实施例中的内部架构图;
13.图7显示为本发明的私有资料、摘要、同义资料以及特征的连接结果的空间和映射于一实施例中的示意图;
14.图8显示为本发明的使用同义资料的联邦学习方法于一实施例中的流程图;
15.图9显示为图8中步骤s2于一实施例中的细部流程图;
16.图10显示为图9中步骤s21于一实施例中的细部流程图;
17.图11显示为图8中步骤s5于一实施例中的细部流程图;
18.图12显示为本发明的使用同义资料的联邦学习方法于另一实施例中的流程图;
19.图13显示为图12中步骤s7于一实施例中的细部流程图;以及
20.图14、图15、图16及图17分别显示为本发明的通用模型的准确率在四种训练场景的有效性于一实施例中的示意图。
21.符号说明
22.ci,cj:客户装置
23.mo:协调装置
24.g:同义资料产生器
25.ε:编码器
26.m1,i1,j1:处理器
27.m2,i2,j2:通讯电路
28.m3,i3,j3:储存电路
29.pi,pj:私有资料
30.d,di,dj:摘要
31.s,si,sj:同义资料
32.mi,mj:客户模型
33.m:通用模型
34.替代模型
35.u:消费者
36.客户模型的第一特征撷取器
37.客户模型的第二特征撷取器
38.客户模型的第一特征撷取器输出的第一特征
39.客户模型的第二特征撷取器输出的第二特征
40.ci:客户模型的分类器
41.预测结果
42.f
p
:替代模型的第一特征撷取器
43.fd:替代模型的第二特征撷取器
44.f
p
:替代模型的第一特征撷取器输出的第一特征
45.fd:替代模型的第二特征撷取器输出的第二特征
46.c:替代模型的分类器
47.a,a0,b,f:空间
48.ε(si):同义资料摘要
49.s1-s7,s21-23,s211-s214,s51-s54,s71-s74:步骤
50.c0,c1,c2,c3:客户装置
具体实施方式
51.以下在实施方式中详细叙述本发明的详细特征以及特点,其内容足以使任何熟悉相关技艺者了解本发明的技术内容并据以实施,且根据本说明书所揭露的内容、权利要求书及图示,任何熟悉相关技艺者可轻易地理解本发明相关的构想及特点。以下的实施例进一步详细说明本发明的观点,但非以任何观点限制本发明的范畴。
52.本发明的实施例的详细说明中包含多个技术名词,以下为这些技术名词的定义:
53.客户:一个端点(endpoint),提供资料以加入分散式训练或联邦学习,又称为客户装置。
54.协调者(moderator):一个服务提供者,从多个客户收集模型以聚合成一个用于提供服务的通用模型,又称为协调装置。
55.私有资料(private data):由客户持有且需要被保护的资料。
56.摘要(digest):一种可共享的代表性资料,用于代表私有资料。摘要中不包含隐私部分。摘要的维度通常低于私有资料,但不以此为限。
57.同义资料(synonym):一种不需考量隐私问题的私有资料的代替物。同义资料和私有资料的域(domain)通常是相同的。
58.客户模型:每个客户拥有的模型。
59.通用模型:协调者拥有的模型,由客户模型聚合而成。
60.随机梯度下降(stochastic gradient decent,sgd):一种优化程序,基于预定义的损失函数更新机器学习模型的参数。
61.联邦学习(federated learning,fl):一种协作训练架构,用于训练机器学习模型,不共享客户资料以保护资料隐私。
62.机器学习:一个研究领域,使计算机能够在没有明确编写程序的情况下学习。
63.损失函数:优化程序的目标函数,用于训练机器学习模型。
64.本发明提出一种使用同义资料的联邦学习系统及一种使用同义资料的联邦学习方法。
65.图1显示为本发明的使用同义资料的联邦学习系统于一实施例中的方块图。如图1所示,使用同义资料的联邦学习系统包括一协调装置mo及多个客户装置ci,cj。协调装置mo可通讯连接多个客户装置ci,cj中的每一个。在一实施例中,可采用下列装置中的一个作为协调装置mo或客户装置ci,cj:服务器、个人计算机、行动运算装置以及任何用于训练机器学习模型的电子装置。
66.协调装置mo包括处理器m1、通讯电路m2以及储存电路m3。处理器m1电性连接通讯电路m2,储存电路m3电性连接处理器m1及通讯电路m2。
67.同义资料产生器g用以依据缺席客户装置对应的摘要产生同义资料。在一实施例中,同义资料产生器g是运行在处理器m1上的软件,但本发明不限制用于执行同义资料产生
器g的硬件。同义资料产生器g可以储存于储存电路m3或处理器m1的内部存储器。同义资料产生器g的细节于后文述及编码器ε时再一并说明。
68.处理器m1用以判断客户装置ci,cj中的缺席客户装置。在一实施例中,处理器m1检查通讯电路m2与每一客户装置ci,cj的通讯连线状况,从而判断客户装置ci,cj中的一或多个是否断开连线,成为缺席客户装置。处理器m1更用以初始化通用模型,依据同义资料及缺席客户装置对应的摘要训练替代模型,以及依据替代模型的替代参数及缺席客户装置以外的每一客户装置的客户参数执行聚合(aggregation)运算产生更新参数以更新通用模型。在一实施例中,所述替代参数、客户参数及更新参数分别是这些参数对应的神经网络模型的梯度(gradient)。详言之,替代参数为替代模型的梯度,客户参数关联于客户模型中的权重,例如是客户模型的梯度,且更新参数为通用模型的梯度。在一实施例中,所述聚合运算采用fedavg算法。在其他实施例中,所述聚合运算采用fedprox算法或fednora算法。
69.本发明提出的使用同义资料的联邦学习系统(可称为fedsyn架构)可以在训练通用模型时,一并训练同义资料产生器g。在一实施例中,由处理器m1负责通用模型及同义资料产生器g的训练。在一实施例中,由于同义资料产生器g可以从摘要中合成同义资料,同义资料产生器g应该被保护以避免来自任何客户装置ci,cj的非预期存取,从而避免潜在的资料泄漏或对抗性攻击(adversarial attack)。例如利用客户装置ci的账户类型或金钥限制存取。
70.通讯电路m2用以发送通用模型至每一客户装置ci,cj。储存电路m3用以储存所有客户装置ci,cj发送至协调装置mo的摘要、同义资料、通用模型、替代模型。在一实施例中,储存电路m3更用以储存编码器ε。
71.客户装置ci,cj的每一个的硬件架构基本上相同,在此采用图1中的客户装置ci为例说明。客户装置ci包括处理器i1、通讯电路i2以及储存电路i3。处理器i1电性连接编码器ε及通讯电路i2,储存电路i3电性连接处理器i1及通讯电路i2。
72.编码器ε用以移除私有资料中的隐私部分并将私有资料编码为摘要。本发明不限制私有资料的类型。例如:私有资料是集成电路图,且隐私部分是集成电路图中的关键电路设计。例如:私有资料是产品设计图、隐私部分是产品标志(logo)。当私有资料是影像时,编码器ε例如是影像处理工具,提供剪裁(crop)隐私部分的功能。当私有资料是包括个人身份信息的文本时,编码器ε用于转换原始资料,例如降低资料维度、遮蔽特定字符串等。需注意编码器ε不能过度扰乱资料,例如增加过度的噪声,使其无法被利用。在一实施例中,可采用自动编码器(autoencoder)中的编码器实作本发明所述的编码器ε。在一实施例中,同义资料的维度等于私有资料的维度。另外,在一实施例中,前述的通讯电路m2更用以发送编码器ε至每一客户装置ci,cj。换言之,协调装置mo与每一客户装置ci,cj拥有相同的编码器ε。在一实施例中,编码器ε是运行在处理器i1上的软件,但本发明不限制用于执行编码器ε的硬件。编码器ε可以储存于储存电路i3或处理器i1的内部存储器。
73.处理器i1,j1用以依据私有资料、摘要及通用模型训练客户模型。在一实施例中,可以采用下列装置中的一个作为处理器i1,j1:特殊应用集成电路(application specific integrated circuit,asic)、数位信号处理器(digital signal processor,dsp)、现场可程序化逻辑闸阵列(field programmable gate array,fpga)及系统芯片(system-on-a-chip,soc)、深度学习加速器(deep learning accelerator)。协调装置mo的处理器m1也可
以采用上述装置中的一个。
74.通讯电路i2,j2用以发送摘要及客户参数至协调装置。在一实施例中,通讯电路i2,j2可以采用有线网络或无线网络。协调装置mo的通讯电路m2通常与通讯电路i2,j2采用的网络种类相同。
75.储存电路i3,j3用以储存私有资料、摘要、通用模型以及客户模型。在一实施例中,可以采用下列装置中的一个作为或储存电路i3,j3:动态随机存取存储器(dynamic random access memory,dram)、静态随机存取存储器(static random access memory,sram)、双倍资料率同步动态随机存取存储器(double data rate synchronous dynamic random access memory,ddr sdram)、快闪存储器及硬盘。协调装置mo的储存电路m3也可以采用上述装置中的一个。
76.请参考图2。图2显示为本发明的私有资料、摘要以及同义资料的关系于一实施例中的示意图,并以客户装置ci为例。如图2所示,编码器ε以客户装置ci的私有资料pi作为输入,并输出摘要di;同义资料产生器g以摘要di作为输入,并输出同义资料si。如此一来,可以在客户装置ci的外部共享或储存摘要di以进行联邦学习的训练。摘要和同义词的使用是多样化的,而且适用于大多数现有架构,可在各种应用中执行联邦学习的训练。
77.图3及图4显示为本发明的使用同义资料的联邦学习系统于一实施例中的概观图,而且图3及图4分别代表训练过程中的两个相异时间点。图4对应的时间点晚于图3对应的时间点。
78.在图3代表的时间点,客户装置ci,cj皆存在并各自进行训练。
79.编码器ε将私有资料pi编码为摘要di,然后将摘要di发送至协调装置mo。客户装置ci依据私有资料pi、摘要di及通用模型m训练客户模型mi。注意在图3代表的时间点之前,客户装置ci已从协调装置mo接收通用模型m。
80.编码器ε将私有资料pj编码为摘要dj,然后将摘要dj发送至协调装置mo。客户装置cj依据私有资料pj、摘要dj及通用模型m训练客户模型mj。注意在图3代表的时间点之前,客户装置cj已从协调装置mo接收通用模型m。
81.协调装置mo从客户装置ci,cj接收摘要di,dj并储存。协调装置mo从客户装置ci,cj接收客户模型mi,mj的客户参数,并依据这些客户参数执行聚合运算产生更新参数以更新通用模型m。最终,训练完成的通用模型可部署在消费者u的装置上使用。
82.在图4代表的时间点,客户装置ci存在,且其运作与图3的相同,但客户装置cj离开而成为缺席客户装置。而为了避免通用模型m的准确率受缺席客户装置cj影响,协调装置mo的同义资料产生器g依据缺席客户装置cj对应的摘要dj产生同义资料sj,协调装置mo再依据同义资料sj及缺席客户装置cj对应的摘要dj训练替代模型,以及依据替代模型的替代参数及缺席客户装置以外的每一客户装置ci的客户参数执行聚合运算产生更新参数以更新通用模型m。
83.如图3及图4所示,在联邦学习的训练期间,上述实施例处理潜在的客户缺席的方式是将每个客户装置ci,cj的私有资料pi,pj编码为摘要di,dj。当客户装置(如cj)离开时,协调装置mo产生同义资料sj来表示存储的摘要dj中的私有资料pj以继续训练。
84.在本发明提出的使用同义资料的联邦学习系统中的每个客户装置ci,cj都在本地端对训练用的私有资料进行编码以产生摘要,所有摘要被发送到协调装置mo储存。因此,即
使任何客户装置之后离开,联邦学习的训练仍然可以继续进行。
85.请参考图4、图5及图6。图5显示为本发明的客户模型于一实施例中的内部架构图,并以客户装置ci的客户模型mi为例说明。图6显示为本发明的替代模型于一实施例中的内部架构图,并以图4所示的缺席客户装置的替代模型为例说明。
86.如图5所示,客户装置ci的客户模型mi包括第一特征撷取器第二特征撷取器以及分类器ci。第一特征撷取器以私有资料pi作为输入,并输出第一特征第二特征撷取器以摘要di作为输入,并输出第二特征分类器ci以第一特征及第二特征的连接结果(concatenation)作为输入,并输出预测结果
87.如图6所示,协调装置mo的替代模型包括第一特征撷取器f
p
、第二特征撷取器fd以及分类器c。第一特征撷取器f
p
以同义资料sj作为输入,并输出第一特征f
p
。第二特征撷取器fd以摘要dj作为输入,并输出第二特征fd。分类器c以第一特征f
p
及第二特征fd的连接结果作为输入,并输出预测结果
88.如图5及图6所示,替代模型具有与客户模型mi相同的结构,此结构主要由两个特征撷取器与一个分类器组成,但使用不同的资料存取。因为协调装置mo无法存取私有资料pj,但是可以存取摘要dj,因此可以使用同义资料产生器g产生同义资料sj以继续训练。
89.在一般的联邦学习中,客户模型的训练发生在每个客户装置。对应于客户模型的客户参数(如梯度)被发送到协调装置,然后被聚合以更新通用模型。在使用同义资料的联邦学习系统中,当客户装置ci可用时,客户模型mi使用私有资料pi及其摘要di进行训练,如图5所示。对应于客户模型的客户参数被发送到协调装置mo,对应于所有客户装置ci,cj的客户参数被聚合以产生用于更新通用模型m的更新参数,其中缺席客户装置(以客户装置cj为例)应提供的客户参数由协调装置mo产生的替代模型提供,如图6所示。
90.在使用同义资料的联邦学习系统中,替代模型和客户模型mi具有相同的架构,其中一个差异是资料存取。当客户装置cj可用时,其私有资料pj用于产生用于训练的摘要dj。每当客户装置cj缺席,协调装置mo便以摘要dj为缺席客户装置cj重建同义资料sj以继续训练。如此一来,无论客户装置cj是否存在,本发明提出的使用同义资料的联邦学习系统的训练都不会中断。
91.图7显示为本发明的私有资料、摘要、同义资料以及特征的连接结果的空间和映射于一实施例中的示意图,并且展示用于投影到不同空间的编码器ε、同义资料产生器g以及特征撷取器fd,f
p

92.如图7所示,所有客户装置ci的私有资料pi及同义资料si形成空间a,空间a中的所有资料中属于同一分类的资料形成空间a0。将a中的所有资料,包含私有资料pi及同义资料si,以编码器ε转换后形成空间b;其中私有资料pi位于客户装置ci上,同义资料si位于协调装置mo上,由同义资料产生器g依据私有资料pi产生。
93.协调装置mo使用第一特征撷取器f
p
产生第一特征f
p
,使用第二特征撷取器fd产生第二特征fd,第一特征f
p
及第二特征fd的连接结果{f
p
,fd}形成空间f。
94.如图7所示,客户装置ci将空间a0中的私有资料pi以第一特征撷取器撷取出第
一特征将空间b中的摘要di以第二特征撷取器撷取出第二特征这两个特征的连接结果为协调装置mo将空间a0中的同义资料si以第一特征撷取器f
p
撷取出第一特征f
p
,将空间b中的摘要di以第二特征撷取器fd撷取出第二特征fd,这两个特征的连接结果为{f
p
,fd}。所有连接结果形成空间f。空间f0代表在空间f的多个连接结果中具有相同分类的连接结果所形成的空间。图7代表客户装置ci训练的客户模型会和协调装置mo训练的替代模型具有相同的分类结果,尽管两者使用的训练资料并不相同。换言之,即使协调装置mo未取得客户装置ci的私有资料pi,而且客户装置ci变成缺席客户装置,协调装置mo仍能够通过同义资料si及摘要di训练替代模型达到与拥有私有资料pi时的相同训练效果。
95.图8显示为本发明的使用同义资料的联邦学习方法于一实施例中的流程图,包括步骤s1至步骤s6。步骤s1是协调装置发送通用模型至多个客户装置中的每一个,步骤s2是客户装置中的每一个执行训练程序,步骤s3是协调装置判断客户装置中的缺席客户装置,步骤s4是同义资料产生器依据缺席客户装置对应的摘要产生同义资料,步骤s5是协调装置依据同义资料及缺席客户装置对应的摘要训练替代模型,步骤s6是协调装置依据替代模型的替代参数及缺席客户装置以外的每一客户装置的客户参数执行聚合运算产生更新参数以更新通用模型。
96.本发明一实施例提出的方法可以看作是联邦学习的扩展,所述扩展包括新引入的摘要和同义资料的设计,还包括为了更新同义资料产生器而提出的新损失函数,即使客户装置可能离开,上述特点仍有助于在训练时保持模型效能。
97.联邦学习的训练包括多次迭代程序,而图8展示了一次迭代程序的细节。请一并参考图1及图8。在一实施例中,图8所示的方法可采用图1所示的系统。
98.在步骤s1中,协调装置mo将通用模型m推送给每个客户装置(下文以客户装置ci代表每一客户装置)。
99.在一实施例中,为了确保所有客户装置ci拥有相同的编码器ε,步骤s1还包括两个步骤:协调装置mo发送编码器ε至每一客户装置ci,以及协调装置mo储存编码器ε。本发明固定编码器ε以避免摘要di相依于编码器ε,并且让摘要di在每一次迭代程序中保持固定。
100.关于步骤s2,请参考图9。图9显示为图8中步骤s2于一实施例中的细部流程图,包括步骤s21至步骤s23。步骤s21是编码器移除私有资料中的隐私部分并将私有资料编码为摘要,步骤s22是依据私有资料、摘要及通用模型训练客户模型,步骤s23是发送摘要及客户模型的客户参数至协调装置。
101.在步骤s2中,如步骤s21所示,每一客户装置ci将私有资料pi编码成摘要di。如步骤s22所示,以私有资料pi及摘要di作为输入资料,并以sgd训练客户模型mi。如步骤s23所示,将摘要di和客户参数发送至协调装置mo,其中摘要di只需要在训练开始时传输一次。若私有资料pi被更新,则客户装置ci需要依据更新的私有资料pi同步产生对应的摘要di,并发送到协调装置mo。
102.关于步骤s21,请参考图5及图10。图10显示为图9中步骤s21于一实施例中的细部流程图,包括步骤s211至步骤s214。步骤s211是输入私有资料至第一特征撷取器以产生第一特征,步骤s212是输入该摘要至第二特征撷取器以产生第二特征,步骤s213是将第一特征及第二特征的连接结果输入至分类器以产生预测结果,步骤s214是输入预测结果与实际
结果至损失函数,并依据损失函数的输出调整第一特征撷取器、第二特征撷取器及分类器中至少一个的权重。
103.步骤s211至步骤s213的细节可参考前文中关于图5的段落。而在步骤s214的一实施例中,在每一客户装置ci,训练资料由私有资料pi以及通过编码器ε产生的摘要di组成。每一客户装置ci训练客户模型mi时使用标准fedavg算法中的客户分类损失(client classification loss),如下方式一所示。
104.式一:l
client
=l
ce
(mi(pi,di),y)
105.其中,l
ce
是交叉熵(cross entropy),mi(pi,di)代表预测结果,y代表实际结果。
106.在步骤s3至步骤s6的流程中,协调装置mo收集所有客户参数并确认是否有任何缺席客户装置。如果客户装置cj不存在(因为故意离开或网络拥塞导致),协调装置mo产生替代模型以使用从摘要dj产生的同义词资料sj计算替代模型的替代参数协调装置mo通过聚合和来更新通用模型m。
107.请参考图5、图6及图11。图11显示为图8中步骤s5于一实施例中的细部流程图,包括步骤s51至步骤s54。步骤s51是输入同义资料至第一特征撷取器以产生第一特征,步骤s52是输入缺席客户装置对应的摘要至第二特征撷取器以产生第二特征,步骤s53是将第一特征及第二特征的连接结果输入至分类器以产生预测结果,步骤s54是输入预测结果与实际结果至损失函数,并依据损失函数的输出调整第一特征撷取器、第二特征撷取器及分类器中至少一个的权重。
108.如图5及图6所示,由于客户模型mi和替代模型具有类似的结构,两个模型的差别只是输入资料不同。因此,步骤s51至步骤s53的细节可参考前文中关于图6的段落。而在步骤s54的一实施例中,所述损失函数与步骤s214采用的损失函数相同。
109.图12显示为本发明第的使用同义资料的联邦学习方法于另一实施例中的流程图,其中步骤s1至步骤s6与图10相同,且于该实施例中,还包括步骤s7,依据损失函数的输出更新通用模型及同义资料产生器。
110.图13显示为图12中步骤s7于一实施例中的细部流程图,包括步骤s71至步骤s74。步骤s71是输入同义资料至协调装置的编码器以产生同义资料摘要,步骤s72是输入同义资料摘要及缺席客户装置对应的摘要至第一损失函数以产生资料相似性损失,步骤s73是输入通用模型产生的预测资料及实际资料至第二损失函数以产生同义资料分类损失,步骤s74是计算同义资料分类损失及资料相似性损失的加权总和作为协调装置损失,并依据协调装置损失更新通用模型及同义资料产生器。
111.在步骤s71中的一实施例中,由于协调装置mo在步骤s1时已储存编码器ε,因此可依据同义资料si产生同义资料摘要ε(si)。
112.在步骤s72中,为了确保私有资料pi的投影和同义资料si的投影应该是相似的,所述资料相似性损失(data similarity loss)如下方式二所示。
113.式二:l
dsl
=l
mse
(ε(s),d)
114.其中,l
mse
为均方差损失(mean square error loss),s和d分别代表协调装置mo拥有的全部同义资料及摘要。需注意的是,同义资料s并非有客户缺席才产生,而是协调装置mo搜集到的所有摘要d皆会产生对应的同义资料s。
115.在步骤s73中,为了确保同义资料si和摘要di应该被通用模型m正确地分类,所述同义资料分类损失(synonym classification loss)如下方式三所示。
116.式三:l
scl
=l
ce
(m(si,di),y)
117.其中,l
ce
是交叉熵(cross entropy),y代表实际结果。由于同义资料si是由同义资料产生器g产生,因此l
scl
以及l
dsl
的收敛相当于实现了同义资料产生器g的训练。
118.在步骤s74中,所述加权总和代表联合训练同义资料产生器g和通用模型m的协调装置损失l
server
,如下方式四所示。
119.式四:l
server
=l
dsl
+λl
scl
120.其中,λ是一个平衡超参数,在一实施例中,λ被设置为1。
121.具体而言,本发明期望通用模型m可以从同义资料产生器g产生的同义资料si学习,为此本发明在协调装置mo引入了额外的训练流程,如步骤s71至步骤s74的流程所示。本发明提出两个概念对通用模型m和同义资料产生器g进行联合训练。具体而言,本发明想要通用模型m去学习:如何最好地生成适当的同义资料si;以及如何最好地执行分类,即从同义资料si和摘要di决定预测结果第一个概念是:训练通用模型m,使其能够正确地分类从摘要di和同义资料si获得的信息。图7中的标示为f
p
和fd的两组箭头实现了这个概念。第二个概念是:让同义资料摘要ε(si)尽可能相似于私有资料di的摘要。如图7中在空间a和空间b中的两条标示为ε的箭头所示。本发明在步骤s72及s73提出的两个损失函数实现了上述两个概念。
122.下方的算法为本发明一实施例的使用同义资料的联邦学习方法的虚拟码(pseudo code):
[0123][0124]
其中,m表示通用模型,g表示同义资料产生器,t表示迭代次数,mi表示客户装置ci的客户模型,p i
表示客户装置ci的私有资料,l
client
表示客户分类损失,表示客户模型mi的客户参数(梯度),表示替代模型,sj表示缺席客户装置cj的同义资料,表示替代模型的替代参数(梯度),l
server
表示协调装置损失。
[0125]
综上所述,本发明提出一种使用同义资料的联邦学习方法,这是一种联邦学习框架,通过在协调装置合成代表性客户资料解决客户离开的问题。本发明提出一种资料记忆
机制来有效地处理客户缺席。具体来说,本发明处理以下三种场景:1、不可靠的客户;2、移除客户后的训练;3、增加客户后进行训练。
[0126]
在联邦学习的训练过程,常见下列四种训练场景:1、客户在训练期间暂时离开;2、客户永远离开训练;3、所有客户循序离开训练;4.、多个客户群在不同的时间段加入训练。请参考图14、图15、图16及图17,这四个图示分别对应上述四个场景并呈现通用模型的准确率,其中c0、c1、c2及c3代表不同的客户装置。本发明强制包含最多样本的客户装置(如c2)离开训练以突显效能的影响。正如图14至图17所能观察到的,fedavg、fednova、fedprox等常见的联邦学习算法都无法在四个场景中的测试准确度上存活下来。另一方面,本发明提出的联邦学习方法在各个场景中都实现了稳定的测试精确度。上述的实验结果显示了本发明提出的联邦学习方法的强健性(robustness)。
[0127]
虽然本发明以前述的实施例揭露如上,然其并非用以限定本发明。在不脱离本发明的精神和范围内,所作的更动与润饰,均属本发明的专利保护范围。关于本发明所界定的保护范围请参考本发明的权利要求书。

技术特征:
1.一种使用同义资料的联邦学习方法,其特征在于,包括:以一协调装置发送一通用模型至多个客户装置中的每一个;以多个所述客户装置中的每一个执行一训练程序,包括:以一编码器移除一私有资料中的隐私部分并将所述私有资料编码为一摘要;依据所述私有资料、所述摘要及所述通用模型训练一客户模型;及发送所述摘要及所述客户模型的一客户参数至所述协调装置,所述客户参数关联于所述客户模型中的权重;以所述协调装置判断多个所述客户装置中的一缺席客户装置;以一同义资料产生器依据所述缺席客户装置对应的摘要产生一同义资料;以所述协调装置依据所述同义资料及所述缺席客户装置对应的摘要训练一替代模型;以及以所述协调装置依据所述替代模型的一替代参数及所述缺席客户装置以外的多个所述客户装置的每一个的所述客户参数执行一聚合运算产生一更新参数以更新所述通用模型。2.根据权利要求1的使用同义资料的联邦学习方法,其特征在于,所述使用同义资料的联邦学习方法还包括:以所述协调装置发送所述编码器至多个所述客户装置中的每一个;以及以所述协调装置储存所述编码器。3.根据权利要求2的使用同义资料的联邦学习方法,其特征在于,在更新所述通用模型之后还包括:输入所述同义资料至所述协调装置的所述编码器以产生一同义资料摘要;输入所述同义资料摘要及所述缺席客户装置对应的摘要至第一损失函数以产生一资料相似性损失;输入所述通用模型产生的一预测资料及一实际资料至第二损失函数以产生一同义资料分类损失;以及计算所述同义资料分类损失及所述资料相似性损失的加权总和作为一协调装置损失,并依据所述协调装置损失更新所述通用模型及所述同义资料产生器。4.根据权利要求3的使用同义资料的联邦学习方法,其特征在于,所述第一损失函数为均方差,且所述第二损失函数为交叉熵。5.根据权利要求1的使用同义资料的联邦学习方法,其特征在于,依据所述私有资料、所述摘要及所述通用模型训练所述客户模型包括:输入所述私有资料至第一特征撷取器以产生第一特征;输入所述摘要至第二特征撷取器以产生第二特征;将所述第一特征及所述第二特征的一连接结果输入至一分类器以产生一预测结果;输入所述预测结果与一实际结果至一损失函数,并依据所述损失函数的输出调整所述第一特征撷取器、所述第二特征撷取器及所述分类器中至少一个的权重。6.根据权利要求5的使用同义资料的联邦学习方法,其特征在于,所述损失函数为交叉熵。7.根据权利要求1的使用同义资料的联邦学习方法,其特征在于,以所述协调装置依据
所述同义资料及所述缺席客户装置对应的摘要训练所述替代模型包括:输入所述同义资料至第一特征撷取器以产生第一特征;输入所述缺席客户装置对应的摘要至第二特征撷取器以产生第二特征;将所述第一特征及所述第二特征的一连接结果输入至一分类器以产生一预测结果;以及输入所述预测结果与一实际结果至一损失函数,并依据所述损失函数的输出调整所述第一特征撷取器、所述第二特征撷取器及所述分类器中至少一个的权重。8.根据权利要求1的使用同义资料的联邦学习方法,其特征在于,所述同义资料的维度等于所述私有资料的维度。9.根据权利要求1的使用同义资料的联邦学习方法,其特征在于,依据所述私有资料及所述摘要训练所述客户模型采用随机梯度下降法。10.根据权利要求1的使用同义资料的联邦学习方法,其特征在于,所述聚合运算采用fedavg算法、fedprox算法或fednora算法。

技术总结
本发明提供一种使用同义资料的联邦学习方法,包括:协调装置发送通用模型至每一客户装置,每一客户装置执行训练程序,包括:编码器将私有资料编码为摘要,依据私有资料、摘要及通用模型训练客户模型,及发送摘要及客户模型的客户参数至协调装置,协调装置判断客户装置中的缺席客户装置,以同义资料产生器依据缺席客户装置对应的摘要产生同义资料,协调装置依据同义资料及缺席客户装置对应的摘要训练替代模型,以及协调装置依据替代模型的替代模型参数及缺席客户装置以外的每一客户装置的客户参数执行聚合运算产生更新参数以更新通用模型;本发明通过在协调者合成代表性客户资料解决客户离开的问题。解决客户离开的问题。解决客户离开的问题。


技术研发人员:许之凡 陈维超 张明清
受保护的技术使用者:英业达股份有限公司
技术研发日:2022.03.09
技术公布日:2023/9/22
版权声明

本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)

航空之家 https://www.aerohome.com.cn/

航空商城 https://mall.aerohome.com.cn/

航空资讯 https://news.aerohome.com.cn/

分享:

扫一扫在手机阅读、分享本文

评论

相关推荐