Merci d'avoir envoyé votre demande ! Un membre de notre équipe vous contactera sous peu.
Merci d'avoir envoyé votre réservation ! Un membre de notre équipe vous contactera sous peu.
Plan du cours
Introduction à la Modélisation des Menaces pour l'IA
- Qu'est-ce qui rend les systèmes d'IA vulnérables?
- L'espace de cible de l'IA vs les systèmes traditionnels
- Vecteurs d'attaque clés : données, modèle, sortie et couches d'interface
Attaques Adversaires sur les Modèles d'IA
- Comprendre les exemples adversaires et les techniques de perturbation
- Attaques en boîte blanche vs en boîte noire
- Méthodes FGSM, PGD et DeepFool
- Visionner et créer des échantillons adverses
Inversion de Modèle et Fuite de Confidentialité
- Déduire les données d'entraînement à partir de la sortie du modèle
- Attaques d'inférence de membres
- Risques de confidentialité dans les modèles de classification et génératifs
Poisoning des Données et Injections de Backdoor
- Comment les données empoisonnées influencent le comportement du modèle
- Backdoors basées sur des déclencheurs et attaques de type Trojan
- Stratégies de détection et de désinfection
Robustesse et Techniques de Défense
- Entraînement adversarial et augmentation des données
- Masquage du gradient et prétraitement des entrées
- Techniques de lissage et de régularisation des modèles
Défenses d'IA Préservant la Confidentialité
- Introduction à la confidentialité différentielle
- Injection de bruit et budgets de confidentialité
- Apprentissage fédéré et agrégation sécurisée
AI Security en Pratique
- Évaluation et déploiement de modèles conscients des menaces
- Utilisation de l'ART (Adversarial Robustness Toolbox) dans les situations appliquées
- Cas d'étude industriels : violations et atténuations en situation réelle
Récapitulation et Étapes Suivantes
Pré requis
- Une compréhension des workflows de l'apprentissage automatique et de la formation des modèles
- Expérience avec Python et les cadres ML courants tels que PyTorch ou TensorFlow
- La familiarité avec les concepts de base de la sécurité ou du modélisation des menaces est utile
Public cible
- Ingénieurs en apprentissage automatique
- Analystes en cybersécurité
- Chercheurs en IA et équipes de validation des modèles
14 Heures