Plan du cours

Introduction au Red Teaming des Systèmes IA

  • Comprendre le paysage des menaces en IA
  • Rôles des red teams dans la sécurité de l'IA
  • Considérations éthiques et légales

Apprentissage Machine Adversaire

  • Types d'attaques : évitement, empoisonnement, extraction, inférence
  • Génération d'exemples adverses (par exemple, FGSM, PGD)
  • Attaques ciblées vs non ciblées et métriques de succès

Test de la Robustesse des Modèles

  • Évaluation de la robustesse sous perturbations
  • Exploration des points aveugles et modes de défaillance des modèles
  • Test de stress sur les modèles de classification, de vision et NLP

Red Teaming des Pipelines IA

  • Périmètre d'attaque des pipelines IA : données, modèle, déploiement
  • Exploitation des API et points de terminaison de modèles non sécurisés
  • Ingénierie inverse du comportement et des sorties des modèles

Simulation et Outils

  • Utilisation de l'Adversarial Robustness Toolbox (ART)
  • Red teaming avec des outils comme TextAttack et IBM ART
  • Outils de bac à sable, de surveillance et d'observabilité

Stratégie et Collaboration Red Team en IA

  • Développement d'exercices et objectifs de red teaming
  • Communication des résultats aux équipes blue teams
  • Intégration du red teaming dans la gestion des risques en IA

Résumé et Prochaines Étapes

Pré requis

  • Une compréhension des architectures d'apprentissage automatique et de l'apprentissage profond
  • Une expérience avec Python et les frameworks ML (par exemple, TensorFlow, PyTorch)
  • Une familiarité avec les concepts de cybersécurité ou les techniques de sécurité offensive

Public Cible

  • Chercheurs en sécurité
  • Équipes de sécurité offensive
  • Professionnels de l'assurance et du red teaming IA
 14 Heures

Nombre de participants


Prix ​​par Participant

Cours à venir

Catégories Similaires