Merci d'avoir envoyé votre demande ! Un membre de notre équipe vous contactera sous peu.
Merci d'avoir envoyé votre réservation ! Un membre de notre équipe vous contactera sous peu.
Plan du cours
Fondations : Modèles de Menaces pour l'IA Agente
- Types de menaces agente : mauvais usages, escalade, fuite de données et risques de chaîne d'approvisionnement
- Profils d'adversaires et capacités spécifiques aux agents autonomes
- Cartographie des actifs, limites de confiance et points de contrôle critiques pour les agents
Gouvernance, Politique et Gestion des Risques
- Cadres de gouvernance pour les systèmes agente (rôles, responsabilités, portes d'approbation)
- Conception des politiques : utilisation acceptable, règles d'escalade, gestion des données et auditabilité
- Considérations de conformité et collecte de preuves pour les audits
Identité Non Humaine & Authentication pour les Agents
- Conception d'identités pour les agents : comptes de service, JWTs et credentials à durée limitée
- Modèles d'accès à privilèges minimums et credentialing juste-à-temps
- Stratégies de cycle de vie des identités, rotation, délégation et révocation
Contrôles d'Accès, Secrets et Protection des Données
- Modèles de contrôle d'accès fine-grained et patterns basés sur les capacités pour les agents
- Gestion des secrets, chiffrement en transit et au repos, et minimisation des données
- Protection des sources de connaissances sensibles et des PII contre l'accès non autorisé par les agents
Observabilité, Audit et Réponse aux Incidents
- Conception de la télémétrie pour le comportement des agents : traçage d'intention, journaux de commandes et provenance
- Intégration SIEM, seuils d'alerte et préparation aux examens forensiques
- Runbooks et playbooks pour les incidents liés aux agents et leur confinement
Red-Teaming des Systèmes Agente
- Planification d'exercices de red-teaming : périmètre, règles d'engagement et failover sécurisé
- Techniques adverses : injection de prompts, mauvais usage d'outils, manipulation en chaîne de pensée et abuse d'API
- Exécution d'attaques contrôlées et mesure de l'exposition et de l'impact
Durcissement et Atténuation des Risques
- Contrôles d'ingénierie : modération des réponses, limitation des capacités et sandboxing
- Contrôles de politique et d'orchestration : flux d'approbation, intervention humaine et hooks de gouvernance
- Défenses au niveau des modèles et des prompts : validation des entrées, canonicalisation et filtres de sortie
Mise en Production Sécurisée des Agents
- Modèles de déploiement : staging, canary et déploiement progressif pour les agents
- Contrôle des changements, pipelines de tests et vérifications de sécurité pré-déploiement
- Gouvernance inter-fonctionnelle : playbooks de sécurité, légal, produit et opérations
Projet Final : Exercice Red-Team / Blue-Team
- Exécuter une attaque simulée de red-team contre un environnement d'agents sandboxés
- Défendre, détecter et remédier en tant qu'équipe blue team à l'aide des contrôles et de la télémétrie
- Présenter les résultats, le plan de remédiation et les mises à jour de politique
Résumé et Étapes Suivantes
Pré requis
- Solide expérience en ingénierie de sécurité, administration systèmes ou opérations cloud
- Connaissance des concepts d'IA/ML et du comportement des grands modèles linguistiques (LLM)
- Expérience en gestion des identités et accès (IAM) et conception de systèmes sécurisés
Public Cible
- Ingénieurs en sécurité et red-teamers
- Ingénieurs d'opérations et de plateforme IA
- Officiers de conformité et gestionnaires de risques
- Chefs d'équipe responsables des déploiements d'agents
21 Heures