Plan du cours

Introduction à la Red Team pour l'IA

  • Comprendre le paysage des menaces IA
  • Les rôles des red teams en sécurité IA
  • Considérations éthiques et juridiques

Adversaires Machine Learning

  • Types d'attaques : évitement, empoisonnement, extraction, inférence
  • Génération d'exemples adverses (par exemple, FGSM, PGD)
  • Attaques ciblées vs non ciblées et métriques de réussite

Test de la Robustesse des Modèles

  • Évaluation de la robustesse sous perturbations
  • Exploration des aveugles et modes d'échec du modèle
  • Tests de stress sur les modèles de classification, vision et NLP

Red Teaming des Pipelines IA

  • Surface d'attaque des pipelines IA : données, modèle, déploiement
  • Exploitation des API de modèles et points terminaux non sécurisés
  • Ingénierie inverse du comportement et des sorties des modèles

Simulation et Outils

  • Utilisation de l'Adversarial Robustness Toolbox (ART)
  • Red teaming avec des outils comme TextAttack et IBM ART
  • Outils d'isolement, de surveillance et d'observabilité

Stratégie et Défense du Red Team pour l'IA Collaboration

  • Développer des exercices et objectifs de red teaming
  • Communiquer les résultats aux blue teams
  • Intégrer le red teaming dans la gestion des risques IA

Résumé et Étapes Suivantes

Pré requis

  • Une compréhension des architectures de l'apprentissage automatique et du deep learning
  • Expérience avec Python et les frameworks ML (par exemple, TensorFlow, PyTorch)
  • Connaissance des concepts en cybersécurité ou des techniques de sécurité offensive

Public cible

  • Chercheurs en sécurité
  • Équipes de sécurité offensive
  • Professionnels de la certification AI et des équipes rouge
 14 Heures

Nombre de participants


Prix ​​par Participant

Cours à venir

Catégories Similaires