Merci d'avoir envoyé votre demande ! Un membre de notre équipe vous contactera sous peu.
Merci d'avoir envoyé votre réservation ! Un membre de notre équipe vous contactera sous peu.
Plan du cours
Introduction à la Red Team pour l'IA
- Comprendre le paysage des menaces IA
- Les rôles des red teams en sécurité IA
- Considérations éthiques et juridiques
Adversaires Machine Learning
- Types d'attaques : évitement, empoisonnement, extraction, inférence
- Génération d'exemples adverses (par exemple, FGSM, PGD)
- Attaques ciblées vs non ciblées et métriques de réussite
Test de la Robustesse des Modèles
- Évaluation de la robustesse sous perturbations
- Exploration des aveugles et modes d'échec du modèle
- Tests de stress sur les modèles de classification, vision et NLP
Red Teaming des Pipelines IA
- Surface d'attaque des pipelines IA : données, modèle, déploiement
- Exploitation des API de modèles et points terminaux non sécurisés
- Ingénierie inverse du comportement et des sorties des modèles
Simulation et Outils
- Utilisation de l'Adversarial Robustness Toolbox (ART)
- Red teaming avec des outils comme TextAttack et IBM ART
- Outils d'isolement, de surveillance et d'observabilité
Stratégie et Défense du Red Team pour l'IA Collaboration
- Développer des exercices et objectifs de red teaming
- Communiquer les résultats aux blue teams
- Intégrer le red teaming dans la gestion des risques IA
Résumé et Étapes Suivantes
Pré requis
- Une compréhension des architectures de l'apprentissage automatique et du deep learning
- Expérience avec Python et les frameworks ML (par exemple, TensorFlow, PyTorch)
- Connaissance des concepts en cybersécurité ou des techniques de sécurité offensive
Public cible
- Chercheurs en sécurité
- Équipes de sécurité offensive
- Professionnels de la certification AI et des équipes rouge
14 Heures