Plan du cours

Introduction au Modélisation des Menaces en Intelligence Artificielle (IA)

  • Qu'est-ce qui rend les systèmes d'IA vulnérables ?
  • Surface d'attaque de l'IA par rapport aux systèmes traditionnels
  • Vecteurs d'attaque clés : données, modèle, sortie et interfaces

Attaques Adversaires sur les Modèles d'IA

  • Comprendre les exemples adversaires et les techniques de perturbation
  • Attaques en boîte blanche contre attaques en boîte noire
  • Méthodes FGSM, PGD et DeepFool
  • Visualisation et création d'échantillons adversaires

Inversion de Modèles et Fuite de Confidentialité

  • Inférence des données d'entraînement à partir des sorties du modèle
  • Attaques d'inference d'appartenance
  • Risques de confidentialité dans les modèles de classification et génératifs

Poisonning des Données et Injection de Backdoors

  • Comment les données empoisonnées influencent le comportement du modèle
  • Backdoors basés sur des déclencheurs et attaques Trojans
  • Stratégies de détection et de désinfection

Robustesse et Techniques de Défense

  • Formation adversariale et augmentation des données
  • Masquage de gradient et prétraitement d'entrée
  • Lissage du modèle et techniques de régularisation

Défenses pour la Confidentialité en IA

  • Introduction à la confidentialité différentielle
  • Injection de bruit et budgets de confidentialité
  • Apprentissage fédéré et agrégation sécurisée

AI Security en Pratique

  • Évaluation et déploiement de modèles conscients des menaces
  • Utilisation du ART (Adversarial Robustness Toolbox) dans les environnements appliqués
  • Cas d'étude industriels : violations réelles et atténuations

Résumé et Prochaines Étapes

Pré requis

  • Une compréhension des flux de travail et de l'entraînement des modèles en apprentissage automatique
  • Expérience avec Python et les frameworks ML courants comme PyTorch ou TensorFlow
  • Une familiarité avec les concepts de sécurité ou de modélisation des menaces est un atout

Public cible

  • Ingénieurs en apprentissage automatique
  • Analystes en cybersécurité
  • Chercheurs en IA et équipes de validation des modèles
 14 Heures

Nombre de participants


Prix ​​par Participant

Cours à venir

Catégories Similaires