Confidentialité différentielle pour l’apprentissage décentralisé
21 NOVEMBRE 2024 09:30
| Durée 44:24 | Vues 49
La protection des données personnelles est souvent en opposition avec la collecte massive pour l’entraînement des modèles d’apprentissage automatique. L’apprentissage fédéré ou décentralisé réduit les risques de fuites de grandes bases de données : il permet l’entraînement de modèles via la collaboration des utilisateurs, sans centraliser directement leurs données. Cependant, des risques comme la mémorisation involontaire de données persistent et doivent être pris en compte pour assurer une protection efficace des utilisateurs. La confidentialité différentielle fournit des garanties mathématiques visant à formaliser cette protection
-
Téléchargements
-