Protégez les systèmes d'intelligence artificielle des menaces évoluantes grâce à une formation pratique et encadrée par un instructeur dans AI Security.
Ces cours en direct enseignent comment défendre les modèles d'apprentissage automatique, contrer les attaques adversaires et construire des systèmes d'IA fiables et résilients.
La formation est disponible en ligne via un bureau à distance ou sur place en formation en direct dans Bordeaux, avec des exercices interactifs et des cas d'utilisation réels.
La formation sur place peut être dispensée chez vous dans Bordeaux ou dans un centre de formation corporatif NobleProg dans Bordeaux.
Aussi connue sous le nom de Secure AI, Sécurité ML ou Adversarial Machine Learning.
NobleProg – Votre Fournisseur Local de Formation
Bordeaux, Mériadeck
NobleProg Bordeaux, 39 Rue du Château d'Eau, Bordeaux, france, 33000
Situé au coeur de Bordeaux, dans le quartier de Mériadeck, entièrement équipé et climatisé, NOMADE permet aux professionnels itinérants de s'installer pour travailler et partager avec les autres coworkers dans une ambiance conviviale.
Il propose 23 postes de travail en open space, une salle de réunion partagée et 5 salles de réunions à louer à Bordeaux centre.
Accessible et de qualité, l'espace NOMADE est fait pour vous.
L'espace complet peut également être loué en soirée pour vos événements.
Accès: TRAM A arrêt MERIADECK, TRAM B arrêt GAMBETTA
Cette formation en direct (en ligne ou sur site) est destinée aux dirigeants intermédiaires de l'entreprise qui souhaitent comprendre comment gouverner et sécuriser les systèmes d'intelligence artificielle (IA) de manière responsable et en conformité avec les cadres juridiques mondiaux émergents tels que le Règlement UE sur l'IA, GDPR, ISO/IEC 42001 et l'Ordre exécutif des États-Unis sur l'IA.
À la fin de cette formation, les participants seront capables de :
Comprendre les risques juridiques, éthiques et réglementaires liés à l'utilisation de l'IA dans différents départements.
Interpréter et appliquer les principaux cadres de gouvernance de l'IA (Règlement UE sur l'IA, NIST AI RMF, ISO/IEC 42001).
Mettre en place des politiques de sécurité, d'audit et de surveillance pour le déploiement de l'IA dans l'entreprise.
Développer des lignes directrices d'approvisionnement et d'utilisation pour les systèmes d'IA tiers et internes.
Cette formation en direct (en ligne ou sur site) est destinée aux développeurs AI, architectes et gestionnaires de produits intermédiaires à avancés qui souhaitent identifier et atténuer les risques associés aux applications alimentées par des modèles de langage larges (LLM), y compris l'injection de prompt, la fuite de données et le contenu non filtré, tout en intégrant des contrôles de sécurité tels que la validation d'entrée, la supervision humaine dans la boucle et les barrières de sortie.
À la fin de cette formation, les participants seront capables de :
Comprendre les vulnérabilités principales des systèmes basés sur LLM.
Appliquer des principes de conception sécurisée à l'architecture d'applications LLM.
Utiliser des outils tels que Guardrails AI et LangChain pour la validation, le filtrage et la sécurité.
Intégrer des techniques comme le sandboxing, le red teaming et les revues humaines dans la boucle dans des pipelines de production.
Cette formation en direct (en ligne ou sur site) est destinée aux professionnels intermédiaires en apprentissage automatique et cybersécurité qui souhaitent comprendre et atténuer les menaces émergentes contre les modèles d'IA, en utilisant à la fois des cadres conceptuels et des défenses pratiques comme l'apprentissage robuste et la confidentialité différentielle.
À la fin de cette formation, les participants seront capables de :
Identifier et classifier les menaces spécifiques à l'IA telles que les attaques adverses, l'inversion et le poisonnement des données.
Utiliser des outils comme le Adversarial Robustness Toolbox (ART) pour simuler des attaques et tester des modèles.
Appliquer des défenses pratiques incluant l'apprentissage adversaire, l'injection de bruit et les techniques de préservation de la confidentialité.
Définir des stratégies d'évaluation de modèle conscientes des menaces dans les environnements de production.
Introduction au Modélisation des Menaces pour l'IA
Ce qui rend les systèmes IA vulnérables ?
L'espace d'attaque IA vs. systèmes traditionnels
Vecteurs d'attaque clés : couches de données, modèle, sortie et interface
Attaques Adverses sur les Modèles d'IA
Comprendre les exemples adverses et les techniques de perturbation
Attaques en boîte blanche vs. en boîte noire
Méthodes FGSM, PGD et DeepFool
Visualiser et créer des échantillons adverses
Inversion de Modèle et Fuite de Confidentialité
Déduire les données d'entraînement à partir de la sortie du modèle
Attaques d'inférence de membres
Risques de confidentialité dans les modèles de classification et génératifs
Poisonning des Données et Injections de Backdoor
Comment les données empoisonnées influencent le comportement du modèle
Fenêtres d'activation basées sur les backdoors et attaques Trojans
Stratégies de détection et de désinfection
Robustesse et Techniques de Défense
Apprentissage adversaire et augmentation des données
Masquage du gradient et prétraitement des entrées
Lissage du modèle et techniques de régularisation
Défenses d'IA Préservant la Confidentialité
Introduction à la confidentialité différentielle
Injection de bruit et budgets de confidentialité
Apprentissage fédéré et agrégation sécurisée
AI Security en Pratique
Évaluation et déploiement de modèles conscients des menaces
Utilisation d'ART (Adversarial Robustness Toolbox) dans les situations appliquées
Cas pratiques industriels : fuites réelles et atténuations
Récapitulatif et Étapes Suivantes
La sécurisation des modèles d'IA est la discipline de défense des systèmes d'apprentissage automatique contre les menaces spécifiques aux modèles, telles que les entrées adverses, le poisonnement des données, les attaques d'inversion et la fuite de confidentialité.
Cette formation en direct (en ligne ou sur site) est destinée aux professionnels intermédiaires en apprentissage automatique et cybersécurité qui souhaitent comprendre et atténuer les menaces émergentes contre les modèles d'IA, en utilisant à la fois des cadres conceptuels et des défenses pratiques comme l'apprentissage robuste et la confidentialité différentielle.
À la fin de cette formation, les participants seront capables de :
Identifier et classifier les menaces spécifiques à l'IA telles que les attaques adverses, l'inversion et le poisonnement des données.
Utiliser des outils comme le Adversarial Robustness Toolbox (ART) pour simuler des attaques et tester des modèles.
Appliquer des défenses pratiques incluant l'apprentissage adversaire, l'injection de bruit et les techniques de préservation de la confidentialité.
Définir des stratégies d'évaluation de modèle conscientes des menaces dans les environnements de production.
Format du Cours
Cours interactif et discussion.
De nombreux exercices et pratiques.
Mise en œuvre pratique dans un environnement de laboratoire vivant.
Options de Personnalisation du Cours
Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
Prérequis
Compréhension des flux de travail d'apprentissage automatique et de l'entraînement du modèle
Expérience avec Python et les cadres ML courants tels que PyTorch ou TensorFlow
Familiarité avec les concepts de base de la sécurité ou du modélisation des menaces est utile
Public Cible
Ingénieurs en apprentissage automatique
Analystes en cybersécurité
Rechercheurs en IA et équipes de validation des modèles
Cette formation en direct (en ligne ou sur site) est destinée aux professionnels intermédiaires en apprentissage automatique et cybersécurité qui souhaitent comprendre et atténuer les menaces émergentes contre les modèles d'IA, en utilisant à la fois des cadres conceptuels et des défenses pratiques comme l'apprentissage robuste et la confidentialité différentielle.
À la fin de cette formation, les participants seront capables de :
Identifier et classifier les menaces spécifiques à l'IA telles que les attaques adverses, l'inversion et le poisonnement des données.
Utiliser des outils comme le Adversarial Robustness Toolbox (ART) pour simuler des attaques et tester des modèles.
Appliquer des défenses pratiques incluant l'apprentissage adversaire, l'injection de bruit et les techniques de préservation de la confidentialité.
Définir des stratégies d'évaluation de modèle conscientes des menaces dans les environnements de production.
Cette formation en direct (en ligne ou sur site) est destinée aux professionnels débutants de la sécurité informatique, du risque et de la conformité qui souhaitent comprendre les concepts fondamentaux de la sécurité AI, les vecteurs de menace et les cadres mondiaux tels que le NIST AI RMF et ISO/IEC 42001.À la fin de cette formation, les participants seront capables de :
Comprendre les risques de sécurité uniques introduits par les systèmes d'IA.
Identifier des vecteurs de menace tels que les attaques adversaires, le poisonnement des données et l'inversion du modèle.
Appliquer des modèles de gouvernance fondamentaux comme le cadre NIST AI Risk Management.
Ajuster l'utilisation de l'IA aux normes émergentes, aux lignes directrices de conformité et aux principes éthiques.
AI Security formation à Bordeaux, Weekend AI Security cours à Bordeaux, Soir AI Security formation à Bordeaux, AI Security formateur en ligne à Bordeaux, AI Security formation à Bordeaux, AI Security cours du soir à Bordeaux, AI Security formation Intra à Bordeaux, AI Security formation Intra Entreprise à Bordeaux, AI Security formation Inter à Bordeaux, AI Security formation Inter Entreprise à Bordeaux, AI Security professeur à Bordeaux,AI Security cours à Bordeaux, AI Security coaching à Bordeaux, AI Security instructeur à Bordeaux, AI Security entraînement à Bordeaux, AI Security formateur à Bordeaux, AI Security préparation aux examens à Bordeaux, AI Security stage de préparation à Bordeaux, AI Security préparation à Bordeaux, Weekend AI Security formation à Bordeaux, AI Security coach à Bordeaux, Soir AI Security cours à Bordeaux, AI Security sur place à Bordeaux, AI Security cours particuliers à Bordeaux, AI Security cours privé à Bordeaux