Study of Security and Privacy Challenges in Federated Learning Systems

Abstract

L'apprentissage fédéré (FL) représente une avancée majeure face à la prolifération des données sur les appareils périphériques, permettant l'entraînement collaboratif de modèles d'apprentissage automatique sans centralisation des données brutes. Cette approche préserve la confidentialité des utilisateurs et réduit les coûts de transfert de données, trouvant des applications cruciales dans des domaines sensibles comme la santé et la finance. Cependant, le partage des mises à jour de modèle expose les systèmes FL à de nouvelles vulnérabilités, notamment les attaques par empoisonnement de modèle et les attaques par inférence, qui compromettent la confidentialité et l'intégrité du système. Cette thèse vise à approfondir la compréhension des principes fondamentaux de l'apprentissage fédéré et à investiguer expérimentalement diverses attaques ciblant tant les aspects de sécurité que de confidentialité des systèmes FL. En matière de sécurité, une attention particulière est portée aux attaques contre les agrégateurs de modèles, tels que FedGA, en analysant leurs vulnérabilités aux manipulations malveillantes qui pourraient nuire à l'intégrité du modèle global. Côté confidentialité, l'étude explore les risques de fuite d'informations sensibles à partir des mises à jour de modèles locaux. Par cette double investigation, la thèse cherche à mettre en lumière les forces et les faiblesses des cadres FL actuels et à contribuer au développement de systèmes d'apprentissage distribués plus robustes et sécurisés.

Description

Citation

Collections