Plan du cours

Introduction à la Red Teaming en IA

  • Comprendre le paysage des menaces de l'IA
  • Rôles des équipes rouge dans la sécurité de l'IA
  • Considérations éthiques et légales

Adversarial Machine Learning

  • Types d'attaques : évitement, empoisonnement, extraction, inférence
  • Génération d'exemples adverses (par exemple, FGSM, PGD)
  • Attaques ciblées vs non ciblées et métriques de réussite

Test de la Robustesse des Modèles

  • Évaluation de la robustesse sous perturbations
  • Exploration des points aveugles et modes d'échec du modèle
  • Tests de stress sur les modèles de classification, vision et NLP

Red Teaming des Pipelines IA

  • Surface d'attaque des pipelines IA : données, modèle, déploiement
  • Exploitation des API et points de terminaison non sécurisés du modèle
  • Ingénierie inverse du comportement et des sorties du modèle

Simulation et Outils

  • Utilisation de l'Adversarial Robustness Toolbox (ART)
  • Red Teaming avec des outils comme TextAttack et IBM ART
  • Outils de sandboxing, de surveillance et d'observabilité

Stratégie et Défense en Red Team IA Collaboration

  • Développement d'exercices et objectifs des équipes rouge
  • Communication des résultats aux équipes bleues
  • Intégration du red teaming dans la gestion des risques de l'IA

Récapitulatif et Étapes Suivantes

Pré requis

  • Une compréhension des architectures d'apprentissage automatique et de l'apprentissage profond
  • Expérience avec Python et les frameworks ML (par exemple, TensorFlow, PyTorch)
  • Familiarité avec les concepts de cybersécurité ou les techniques de sécurité offensive

Public cible

  • Chefs de recherche en sécurité
  • Équipes de sécurité offensive
  • Professionnels de l'assurance AI et des équipes rouge
 14 Heures

Nombre de participants


Prix ​​par Participant

Cours à venir

Catégories Similaires