Merci d'avoir envoyé votre demande ! Un membre de notre équipe vous contactera sous peu.
Merci d'avoir envoyé votre réservation ! Un membre de notre équipe vous contactera sous peu.
Plan du cours
Introduction au Modélisation des Menaces en Intelligence Artificielle (IA)
- Qu'est-ce qui rend les systèmes d'IA vulnérables ?
- Surface d'attaque de l'IA par rapport aux systèmes traditionnels
- Vecteurs d'attaque clés : données, modèle, sortie et interfaces
Attaques Adversaires sur les Modèles d'IA
- Comprendre les exemples adversaires et les techniques de perturbation
- Attaques en boîte blanche contre attaques en boîte noire
- Méthodes FGSM, PGD et DeepFool
- Visualisation et création d'échantillons adversaires
Inversion de Modèles et Fuite de Confidentialité
- Inférence des données d'entraînement à partir des sorties du modèle
- Attaques d'inference d'appartenance
- Risques de confidentialité dans les modèles de classification et génératifs
Poisonning des Données et Injection de Backdoors
- Comment les données empoisonnées influencent le comportement du modèle
- Backdoors basés sur des déclencheurs et attaques Trojans
- Stratégies de détection et de désinfection
Robustesse et Techniques de Défense
- Formation adversariale et augmentation des données
- Masquage de gradient et prétraitement d'entrée
- Lissage du modèle et techniques de régularisation
Défenses pour la Confidentialité en IA
- Introduction à la confidentialité différentielle
- Injection de bruit et budgets de confidentialité
- Apprentissage fédéré et agrégation sécurisée
AI Security en Pratique
- Évaluation et déploiement de modèles conscients des menaces
- Utilisation du ART (Adversarial Robustness Toolbox) dans les environnements appliqués
- Cas d'étude industriels : violations réelles et atténuations
Résumé et Prochaines Étapes
Pré requis
- Une compréhension des flux de travail et de l'entraînement des modèles en apprentissage automatique
- Expérience avec Python et les frameworks ML courants comme PyTorch ou TensorFlow
- Une familiarité avec les concepts de sécurité ou de modélisation des menaces est un atout
Public cible
- Ingénieurs en apprentissage automatique
- Analystes en cybersécurité
- Chercheurs en IA et équipes de validation des modèles
14 Heures