Protégez les systèmes d'intelligence artificielle des menaces évoluantes grâce à une formation pratique et encadrée par un instructeur dans AI Security.
Ces cours en direct enseignent comment défendre les modèles d'apprentissage automatique, contrer les attaques adversaires et construire des systèmes d'IA fiables et résilients.
La formation est disponible en ligne via un bureau à distance ou sur place en formation en direct dans Lyon, avec des exercices interactifs et des cas d'utilisation réels.
La formation sur place peut être dispensée chez vous dans Lyon ou dans un centre de formation corporatif NobleProg dans Lyon.
Aussi connue sous le nom de Secure AI, Sécurité ML ou Adversarial Machine Learning.
NobleProg – Votre Fournisseur Local de Formation
Lyon, Gare Lyon Part-Dieu
NobleProg Lyon, 10 Place Charles Béraudier, Lyon, france, 69000
Situé à 200 mètres de la gare TGV, la Tour Suisse est l'immeuble de bureaux le plus emblématique de ce secteur de Lyon. Le centre d'affaires vous propose un lieu de qualité pour vos formations, séminaires et réunions.
Gares TGV
Gare TGV Part-Dieu à 100 mètres, sortie porte du Rhône
Aéroport
Lyon Saint Exupéry (Satolas) à 30 minutes
Rhône Express depuis l’aéroport Saint Exupéry
Cette formation en direct (en ligne ou sur site) est destinée aux dirigeants intermédiaires de l'entreprise qui souhaitent comprendre comment gouverner et sécuriser les systèmes d'intelligence artificielle (IA) de manière responsable et en conformité avec les cadres juridiques mondiaux émergents tels que le Règlement UE sur l'IA, GDPR, ISO/IEC 42001 et l'Ordre exécutif des États-Unis sur l'IA.
À la fin de cette formation, les participants seront capables de :
Comprendre les risques juridiques, éthiques et réglementaires liés à l'utilisation de l'IA dans différents départements.
Interpréter et appliquer les principaux cadres de gouvernance de l'IA (Règlement UE sur l'IA, NIST AI RMF, ISO/IEC 42001).
Mettre en place des politiques de sécurité, d'audit et de surveillance pour le déploiement de l'IA dans l'entreprise.
Développer des lignes directrices d'approvisionnement et d'utilisation pour les systèmes d'IA tiers et internes.
Cette formation en direct (en ligne ou sur site) est destinée aux développeurs AI, architectes et gestionnaires de produits intermédiaires à avancés qui souhaitent identifier et atténuer les risques associés aux applications alimentées par des modèles de langage larges (LLM), y compris l'injection de prompt, la fuite de données et le contenu non filtré, tout en intégrant des contrôles de sécurité tels que la validation d'entrée, la supervision humaine dans la boucle et les barrières de sortie.
À la fin de cette formation, les participants seront capables de :
Comprendre les vulnérabilités principales des systèmes basés sur LLM.
Appliquer des principes de conception sécurisée à l'architecture d'applications LLM.
Utiliser des outils tels que Guardrails AI et LangChain pour la validation, le filtrage et la sécurité.
Intégrer des techniques comme le sandboxing, le red teaming et les revues humaines dans la boucle dans des pipelines de production.
Cette formation en direct (en ligne ou sur site) est destinée aux professionnels intermédiaires en apprentissage automatique et cybersécurité qui souhaitent comprendre et atténuer les menaces émergentes contre les modèles d'IA, en utilisant à la fois des cadres conceptuels et des défenses pratiques comme l'apprentissage robuste et la confidentialité différentielle.
À la fin de cette formation, les participants seront capables de :
Identifier et classifier les menaces spécifiques à l'IA telles que les attaques adverses, l'inversion et le poisonnement des données.
Utiliser des outils comme le Adversarial Robustness Toolbox (ART) pour simuler des attaques et tester des modèles.
Appliquer des défenses pratiques incluant l'apprentissage adversaire, l'injection de bruit et les techniques de préservation de la confidentialité.
Définir des stratégies d'évaluation de modèle conscientes des menaces dans les environnements de production.
Introduction au Modélisation des Menaces pour l'IA
Ce qui rend les systèmes IA vulnérables ?
L'espace d'attaque IA vs. systèmes traditionnels
Vecteurs d'attaque clés : couches de données, modèle, sortie et interface
Attaques Adverses sur les Modèles d'IA
Comprendre les exemples adverses et les techniques de perturbation
Attaques en boîte blanche vs. en boîte noire
Méthodes FGSM, PGD et DeepFool
Visualiser et créer des échantillons adverses
Inversion de Modèle et Fuite de Confidentialité
Déduire les données d'entraînement à partir de la sortie du modèle
Attaques d'inférence de membres
Risques de confidentialité dans les modèles de classification et génératifs
Poisonning des Données et Injections de Backdoor
Comment les données empoisonnées influencent le comportement du modèle
Fenêtres d'activation basées sur les backdoors et attaques Trojans
Stratégies de détection et de désinfection
Robustesse et Techniques de Défense
Apprentissage adversaire et augmentation des données
Masquage du gradient et prétraitement des entrées
Lissage du modèle et techniques de régularisation
Défenses d'IA Préservant la Confidentialité
Introduction à la confidentialité différentielle
Injection de bruit et budgets de confidentialité
Apprentissage fédéré et agrégation sécurisée
AI Security en Pratique
Évaluation et déploiement de modèles conscients des menaces
Utilisation d'ART (Adversarial Robustness Toolbox) dans les situations appliquées
Cas pratiques industriels : fuites réelles et atténuations
Récapitulatif et Étapes Suivantes
La sécurisation des modèles d'IA est la discipline de défense des systèmes d'apprentissage automatique contre les menaces spécifiques aux modèles, telles que les entrées adverses, le poisonnement des données, les attaques d'inversion et la fuite de confidentialité.
Cette formation en direct (en ligne ou sur site) est destinée aux professionnels intermédiaires en apprentissage automatique et cybersécurité qui souhaitent comprendre et atténuer les menaces émergentes contre les modèles d'IA, en utilisant à la fois des cadres conceptuels et des défenses pratiques comme l'apprentissage robuste et la confidentialité différentielle.
À la fin de cette formation, les participants seront capables de :
Identifier et classifier les menaces spécifiques à l'IA telles que les attaques adverses, l'inversion et le poisonnement des données.
Utiliser des outils comme le Adversarial Robustness Toolbox (ART) pour simuler des attaques et tester des modèles.
Appliquer des défenses pratiques incluant l'apprentissage adversaire, l'injection de bruit et les techniques de préservation de la confidentialité.
Définir des stratégies d'évaluation de modèle conscientes des menaces dans les environnements de production.
Format du Cours
Cours interactif et discussion.
De nombreux exercices et pratiques.
Mise en œuvre pratique dans un environnement de laboratoire vivant.
Options de Personnalisation du Cours
Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
Prérequis
Compréhension des flux de travail d'apprentissage automatique et de l'entraînement du modèle
Expérience avec Python et les cadres ML courants tels que PyTorch ou TensorFlow
Familiarité avec les concepts de base de la sécurité ou du modélisation des menaces est utile
Public Cible
Ingénieurs en apprentissage automatique
Analystes en cybersécurité
Rechercheurs en IA et équipes de validation des modèles
Cette formation en direct (en ligne ou sur site) est destinée aux professionnels intermédiaires en apprentissage automatique et cybersécurité qui souhaitent comprendre et atténuer les menaces émergentes contre les modèles d'IA, en utilisant à la fois des cadres conceptuels et des défenses pratiques comme l'apprentissage robuste et la confidentialité différentielle.
À la fin de cette formation, les participants seront capables de :
Identifier et classifier les menaces spécifiques à l'IA telles que les attaques adverses, l'inversion et le poisonnement des données.
Utiliser des outils comme le Adversarial Robustness Toolbox (ART) pour simuler des attaques et tester des modèles.
Appliquer des défenses pratiques incluant l'apprentissage adversaire, l'injection de bruit et les techniques de préservation de la confidentialité.
Définir des stratégies d'évaluation de modèle conscientes des menaces dans les environnements de production.
Cette formation en direct (en ligne ou sur site) est destinée aux professionnels débutants de la sécurité informatique, du risque et de la conformité qui souhaitent comprendre les concepts fondamentaux de la sécurité AI, les vecteurs de menace et les cadres mondiaux tels que le NIST AI RMF et ISO/IEC 42001.À la fin de cette formation, les participants seront capables de :
Comprendre les risques de sécurité uniques introduits par les systèmes d'IA.
Identifier des vecteurs de menace tels que les attaques adversaires, le poisonnement des données et l'inversion du modèle.
Appliquer des modèles de gouvernance fondamentaux comme le cadre NIST AI Risk Management.
Ajuster l'utilisation de l'IA aux normes émergentes, aux lignes directrices de conformité et aux principes éthiques.
AI Security formation à Lyon, Weekend AI Security cours à Lyon, Soir AI Security formation à Lyon, AI Security formateur en ligne à Lyon, AI Security formation à Lyon, AI Security cours du soir à Lyon, AI Security formation Intra à Lyon, AI Security formation Intra Entreprise à Lyon, AI Security formation Inter à Lyon, AI Security formation Inter Entreprise à Lyon, AI Security cours privé à Lyon, AI Security préparation à Lyon, AI Security sur place à Lyon, Soir AI Security cours à Lyon, AI Security cours particuliers à Lyon, AI Security préparation aux examens à Lyon, AI Security instructeur à Lyon, AI Security entraînement à Lyon, Weekend AI Security formation à Lyon, AI Security stage de préparation à Lyon, AI Security professeur à Lyon,AI Security cours à Lyon, AI Security coach à Lyon, AI Security formateur à Lyon, AI Security coaching à Lyon