Reliability and robustness of federated learning in practical applications - Inria - Institut national de recherche en sciences et technologies du numérique Accéder directement au contenu
Thèse Année : 2023

Reliability and robustness of federated learning in practical applications

Fiabilité et robustesse de l'apprentissage fédéré pour applications concrètes

Résumé

Federated Learning has gained popularity in the last years as it enables different clients to jointly learn a global model without sharing their respective data. FL specializes the classical problem of distributed learning, to account for the private nature of clients information (i.e. data and surrogate features), and for the potential data and hardware heterogeneity across clients, which is generally unknown to the server. Within this context, the main objective of this thesis is to present new theoretical and practical results to quantify the impact of the clients' data heterogeneity on the convergence guarantees of federated learning, while investigating the feasibility of critical components for deployment of federated learning in real-world applications.In the first part of the thesis we study the robustness and variability of federated learning to heterogeneous conditions. To this end, we introduce the notion of stochastic aggregation weights to generalize the aggregation scheme proposed in FedAvg, along with a novel theory to account asymptotically for the impact of a client sampling scheme on the federated learning convergence guarantees. We then introduce ``clustered sampling'', a novel client selection scheme generalizing and outperforming the state-of-the-art sampling methods in terms of improved representativity and lower variability. We provide a theoretical justification of clustered sampling, and show faster and smoother convergence as compared to the standard approaches. We further extend the stochastic aggregation scheme of clustered sampling to account for asynchronous client updates and provide the close-form solution of the aggregation weights for unbiased federated optimization of federated learning procedures, such as synchronous and asynchronous federated learning, FedFix, or FedBuff. In the second part of the thesis, we investigate the reliability of federated learning in practical applications. We introduce informed federated unlearning (IFU), a novel federated unlearning scheme, allowing to remove (unlearn) the contribution of a client from a federated model, with statistical guarantees on the unlearning effectiveness. Finally, we propose two strategies for free-riding attacks and introduce a novel theoretical framework to prove their efficiency. Overall, the work presented in this thesis highlights novel theoretical properties of federated learning, which ultimately allow to deepen our understanding on the robustness and reliability of the federated optimization process in practical application scenarios.
L'apprentissage fédéré a gagné en popularité ces dernières années car il permet à différents clients d'apprendre conjointement un modèle global sans partager leurs données respectives. FL se spécialise dans le problème classique de l'apprentissage distribué, pour tenir compte de la nature privée des informations des clients et de l'hétérogénéité potentielle des données et du matériel entre les clients, qui est généralement inconnue du serveur. Dans ce contexte, l'objectif principal de cette thèse est de présenter de nouveaux résultats théoriques et pratiques pour quantifier l'impact de l'hétérogénéité des données clients sur les garanties de convergence de l'apprentissage fédéré, tout en étudiant la faisabilité de composants critiques pour le déploiement de l'apprentissage fédéré dans des applications concrètes. Dans la première partie de la thèse, nous étudions la robustesse et la variabilité de l'apprentissage fédéré aux données hétérogènes. À cette fin, nous introduisons la notion de coefficients stochastiques d'agrégation pour généraliser le schéma d'agrégation proposé dans FedAvg, ainsi qu'une nouvelle théorie pour tenir compte asymptotiquement de l'impact d'une méthode de sélection de clients sur les garanties de convergence de l'apprentissage fédéré. Nous introduisons ensuite « clustered sampling », une nouvelle méthode de sélection de clients généralisant et surpassant les méthodes de l'état de l'art en améliorant la représentativité des clients et en réduisant leur variabilité de sélection. Nous fournissons une justification théorique de clustered sampling et montrons une convergence plus rapide et plus stable par rapport aux approches standard. Nous étendons davantage les coefficients stochastique d'agrégation de clustered sampling pour prendre en compte des contributions asynchrones de clients et fournissons l'expression des poids d'agrégation pour une optimisation fédérée juste des méthodes d'apprentissage standard, telles que l'apprentissage fédéré synchrone et asynchrone, FedFix ou FedBuff. Dans la deuxième partie de la thèse, nous étudions la fiabilité de l'apprentissage fédéré dans des applications concrètes. Nous introduisons IFU, un nouveau schéma de désapprentissage fédéré, permettant de supprimer (désapprendre) la contribution d'un client à un modèle fédéré, avec des garanties statistiques sur l'efficacité du désapprentissage. Enfin, nous proposons deux stratégies pour les attaques de « free-riding » et introduisons un nouveau cadre théorique pour prouver leur efficacité. Dans l'ensemble, les travaux présentés dans cette thèse mettent en évidence de nouvelles propriétés théoriques de l'apprentissage fédéré, qui permettent d'approfondir notre compréhension de la robustesse et de la fiabilité du processus d'optimisation fédérée dans des scénarios d'applications concrètes.
Fichier principal
Vignette du fichier
2023COAZ4033.pdf (5.94 Mo) Télécharger le fichier
Origine : Version validée par le jury (STAR)

Dates et versions

tel-04141520 , version 1 (26-06-2023)

Identifiants

  • HAL Id : tel-04141520 , version 1

Citer

Yann Fraboni. Reliability and robustness of federated learning in practical applications. Artificial Intelligence [cs.AI]. Université Côte d'Azur, 2023. English. ⟨NNT : 2023COAZ4033⟩. ⟨tel-04141520⟩
162 Consultations
114 Téléchargements

Partager

Gmail Facebook X LinkedIn More