PAPER READING"联邦学习与元学习相关的部分"

基本信息

笔记一些联邦学习中与元学习相关的材料。

1、关于联邦学习的个性化能力综述

中文by https://ereebay.me/posts/54199/

1
2
3
4
DOI:10.1109/WorldS450073.2020.9210355
Survey of Personalization Techniques for Federated Learning
V. Kulkarni, Milind Kulkarni, A. Pant。Published 2020。Vishwakarma University&DeepTek Inc
2020 Fourth World Conference on Smart Trends in Systems, Security and Sustainability (WorldS4)

Abstract:Federated learning enables machine learning models to learn from private decentralized data without compromising privacy. The standard formulation of federated learning produces one shared model for all clients. Statistical heterogeneity due to non-IID distribution of data across devices often leads to scenarios where, for some clients, the local models trained solely on their private data perform better than the global shared model thus taking away their incentive to participate in the process. Several techniques have been proposed to personalize global models to work better for individual clients. This paper highlights the need for personalization and surveys recent research on this topic

3.4Meta learning

  元学习涉及到多个学习任务的训练,以生成能够快速适应的模型,该模型可以通过少量的训练样本就能够快速拟合学习解决新任务。Finn【25】提出了模型无关的元学习算法(MAML),该算法与使用梯度下降法训练的任何模型都兼容。MAML建立了适用于多个任务的内部表示,因此针对新任务,对于顶层的微调可以产生比较好的结果。

  Jiang【15】指出可以将联邦学习的过程看做是meta training而personalization过程可以看做是meta testing过程。那么FedAvg【3】算法与Reptile【26】非常相似。同时作者观察到,仔细的微调可以产生准确率高的全局模型,并且比较容易个性化,但是单纯的根据全局模型的准确率来优化模型会损失模型后续的个性化能力。联邦学习的其他个性化方法将全局模型的生成和个性化能力视作两个独立的过程,Jiang【15】提出了一种改进的FedAVG算法,该算法可以同时获得更好的全局模型和更好的个性化模型。

  Fallah【27】在Personalized federated learning: A meta-learning approach,文中提出的标准联邦学习问题的新公式结合了MAML,并试图找出一个全局模型,该模型在每个节点针对其自身的损失函数进行更新后均表现良好。此外,他们提出了Per-FedAvg来解决上述问题。Khodak【28】在Adaptive gradient-based meta-learning methods中提出了ARUBA,并通过将其应用于FedAVG证明了性能的提高。chen【29】在Federated meta-learning for recommendation提出了一个用于构建个性化推荐模型的联邦元学习框架,其中算法和模型都已参数化并且需要优化。

4Discussion

  在联邦学习中,当本地节点的数据集很小,且都是IID的情况(是不是和元学习的场景相似)下,全局模型通常会超过本地模型,而且大部分的节点都会受益于联邦学习的过程。然而,当节点拥有充分大量的隐私数据集,并且数据的分布是non-IID的时候,本地模型通常会优于全局模型,而且节点通常不倾向与参与到联邦学习过程中。一个开放的理论问题就是:如何决定什么时候全局模型的表现会优于单节点上的模型。

  这篇文章主要总结了几种用于优化全局模型个性化技术。除了少数的例外,大多数之前的工作都集中在衡量全局模型在聚合的数据上的表现,而不是衡量这些模型在单独节点上的性能。但是如果全局模型会在使用之前进行个性化设置的话,那么全局性能就没有意义。

  个性化模型通常在单节点上的表现能够优于全局模型和本地模型。但是在某些情况下,个性化模型的能力无法达到和本地模型相同的能力,尤其是在差分隐私等情况下。

2、2019年底大佬们综述:联邦学习的进展和开放问题

中文by https://xwzheng.gitbook.io/fl

1
2
3
Kairouz, Peter, H. Brendan McMahan, Brendan Avent, Aurélien Bellet, Mehdi Bennis, Arjun Nitin Bhagoji, Keith Bonawitz, 等. 
《Advances and Open Problems in Federated Learning》. arXiv:1912.04977, 2019年12月10日.
http://arxiv.org/abs/1912.04977.

3.3.3 本地微调和元学习

本地微调,我们指的是通过联邦学习训练单个模型,然后将模型部署到所有的客户端中,并在被用于推断前使用本地的数据集通过额外的训练达到个性化的效果。 这种方法自然地融入了联邦学习模型的通常的生命周期(第1.1.1节)。仍然可以在每轮(例如,100秒)中仅使用少量客户样本进行全球模型的培训;部署模型后,仅发生一次向所有客户端(例如数百万个)广播全局模型。唯一的区别是,在使用模型对客户进行实时预测之前,会进行最终的训练,从而将模型为本地数据集进行个性化。
给定一的性能优异的全局模型,对其进行个性化设置的最佳方法是什么?在非联邦学习中,研究人员经常使用微调、迁移学习、域自适应[284,115,56]或者使用本地个性化的模型进行插值。 当然,例如插值等技术,关键在于联邦学习的背景下保证其相应的学习效果。此外,这些技术通常仅假设一对域(源域和目标域),因此可能会丢失联邦学习的一些较丰富的结构。
另一种研究个性化和非个性化的方法是通过元学习来进行,这是一种流行的模型适应设定。 在标准的learning-to-learn(LTL)设置中[52],它对任务上具有一个元分布,用来学习一个学习算法的样本,例如通过发现参数空间的好的约束。 这实际上很好的对应了第3.1节中讨论的统计设定,其中我们对客户端(任务)$i\sim \mathcal{Q}$进行采样,然后从$\mathcal{P_i}$采样该客户端(任务)的数据。
最近,已经开发了一种称为模型不可知元学习(MAML)的算法,即元学习全局模型,它可以仅使用几次局部梯度迭代作为学习适合于给定任务的良好模型的起点。 最值得注意的是,流行的Reptile算法[308]的训练阶段与联邦平均[289]密切相关,即Reptile允许服务器的学习率,并且假设所有客户端都拥有相同数量的数据,但其他都是相同的。Khodaketal等人[234]和Jiang等人[217]探索了FL和MAML之间的联系,并展示了MAML的假设是一个可以被联邦学习用于性化模型的相关框架。其他和差分隐私的关系在[260]中被研究。
将FL和MAML的思想相结合的总体方向是相对较新的,存在许多未解决的问题:

- 监督任务的MAML算法评估主要集中在合成图像分类问题上[252,331],其中可以通过对图像类别进行下采样来构造无限的人工任务。用于模拟FL实验的现有数据集建模的FL问题(附录A)可以作为MAML算法的现实基准问题。
- 观察到的全局准确性与个性化准确性之间的差距[217]提出了一个很好的论据,即个性化对于FL至关重要。但是,现有的工作都没有清楚地阐明用于衡量个性化表现的综合指标。例如,对于每个客户来说,小的改进是否比对一部分客户的更大改进更好?相关讨论,请参见第6节。
- Jiang等[217]强调了一个事实,即具有相同结构和性能但经过不同训练的模型可以具有非常不同的个性化能力。尤其是,以最大化全局性能为目标去训模型似乎实际上可能会损害模型的后续个性化能力理解这个问题的根本原因和FL社区与更大的ML社区都相关。
- 在此多任务/LTL框架中,已经开始研究包括个性化和隐私在内的几个具有挑战性的FL命题[234,217,260]。是否还可以通过这种方式分析其他例如概念漂移的问题,比如作为终身学习中的问题[359]?
- 非参数传递LTL算法(例如ProtoNets [363])是否可以用于FL?

3、通过MAML改善联合学习的个性化

中文by https://ereebay.me/posts/6350/

1
2
3
Jiang, Yihan, Jakub Konečný, Keith Rush和Sreeram Kannan. 
《Improving Federated Learning Personalization via Model Agnostic Meta Learning》. arXiv:1909.12488, 2019年9月27日.
http://arxiv.org/abs/1909.12488.

Abstract

  1. FL算法与MAML具有很多相似性,可以用元学习算法来对其进行解释
  2. 微调可以使得gloabl 模型具有更强的准确率,同时更容易做定制化处理
  3. 通过标准的中心化数据库训练出来的模型相比Fedavg训练的更难进行定制化处理
    Introduction
  4. 指出了FL与MAML算法的联系,并用MAML算法对FL算法进行解释
  5. 对FedAvg进行改进,采用两阶段的训练和fine-tune进行优化
  6. 发现FedAvg其实本质是一种metalearning算法,用于优化个性化定制的效果,而不是全局模型的优化。
    如文献1和2中所提及。

4、更快更好的联合学习功能融合方法FedFusion

中文by https://ereebay.me/posts/58531/

1
2
3
4
5
DOI:10.1109/ICIP.2019.8803001
Towards Faster and Better Federated Learning: A Feature Fusion Approach
X. Yao, Tianchi Huang, Chenglei Wu, Rui-Xiao Zhang, L. Sun # 清华
Published 2019
2019 IEEE International Conference on Image Processing (ICIP) # C类会议

Abstract
  本文主要提出一种特征融合的方式,来加速并且提升联邦学习的性能。
Introduction
  如今许多智能设备依赖于预训练模型,这使得机器的推断能力缺乏个性化和灵活性。与此同时,智能终端同时还产生了大量有效的隐私数据,这些数据能够提升这些模型的个性化能力。联邦学习,一种能够直接在终端上对模型进行训练的一种分布式训练算法解决了这个问题。其中以FedAvg算法为代表的的联邦学习算法有效的缓解了在信息交流上的隐私问题,但是后来也有研究表明,联邦学习仍然存在诸如:计算消耗,模型准确率。

  本文提出了一种融合特征的联邦学习算法FedFusion,该算法将global模型和local模型的特征进行融合。本文的主要的三个贡献点:

  1. 引入特征融合机制
  2. 将本地模型和全局模型的特征以一种有效的并且个性化的方式进行融合
  3. 实验表明模型在准确率和泛化能力上都优于baseline并且减少了60%以上的通信量。

5、个性化联合学习:一种专注的协作方法FedAMP

中文by https://zhuanlan.zhihu.com/p/260776616

1
2
3
Huang, Yutao, Lingyang Chu, Zirui Zhou, Lanjun Wang, Jiangchuan Liu, Jian Pei和Yong Zhang. # 华为
《Personalized Federated Learning: An Attentive Collaboration Approach》. arXiv:2007.03797, 2020年7月7日. http://arxiv.org/abs/2007.03797.
V3终版,改为《Personalized Cross-Silo Federated Learning on Non-IID Data》,已由AAAI(CCF A会)接收

摘要:对于物联网/边缘计算的挑战性计算环境,个性化联合学习允许每个客户端通过以隐私保护的方式与其他客户端进行有效协作来训练强大的个性化云模型。 个性化联合学习的性能在很大程度上取决于客户端之间协作的有效性。 但是,当所有客户端的数据均为非IID时,要在不知道客户端数据分布的情况下推断客户端之间的协作关系就很困难。 在本文中,我们建议通过一个名为联邦关注消息传递(FedAMP)的新颖框架来解决此问题,该框架允许每个客户端在不使用全局模型的情况下共同训练自己的个性化云模型。 FedAMP通过反复鼓励具有更多相似模型参数的客户进行更强的协作,从而实现了一种细心的协作机制。 这可以自适应地发现客户端之间的基础协作关系,从而极大地提高了协作效率,并带来了FedAMP的出色性能。 我们建立了凸模型和非凸模型的FedAMP的收敛性,并进一步提出了一种类似于FedAMP框架的启发式方法,以进一步提高其在深层神经网络的联合学习中的性能。 大量的实验证明了我们的方法在处理非IID数据,脏数据和丢弃的客户端方面的优越性能。

to be continued


收尾