Protégez les systèmes d'intelligence artificielle des menaces évoluantes grâce à une formation pratique et encadrée par un instructeur dans AI Security.
Ces cours en direct enseignent comment défendre les modèles d'apprentissage automatique, contrer les attaques adversaires et construire des systèmes d'IA fiables et résilients.
La formation est disponible en ligne via un bureau à distance ou sur place en formation en direct dans Nantes, avec des exercices interactifs et des cas d'utilisation réels.
La formation sur place peut être dispensée chez vous dans Nantes ou dans un centre de formation corporatif NobleProg dans Nantes.
Aussi connue sous le nom de Secure AI, Sécurité ML ou Adversarial Machine Learning.
NobleProg – Votre Fournisseur Local de Formation
Nantes, Zenith
NobleProg Nantes, 4 rue Edith Piaf, Saint-Herblain, france, 44821
Sur la zone du Parc d'Ar Mor, proche du Zénith.
Voiture : depuis le périphérique, sortie Porte de Chézine > Boulevard du Zenith > Esplanade Georges Brassens (restaurants) > Rue Edith Piaf à votre droite. Depuis la N444 (Nantes > Lorient), sortie #1 > boulevard Marcel Paul > Rue Edith Piaf à votre droite.
Parking Zénith P1 (gratuit). Une fois garé, tournez le dos au Zénith : l’immeuble Euptouyou est un des trois bâtiments reconnaissables à leur bardage en zinc, celui de gauche (Immeuble C).
Vélo : parking couvert gratuit.
Transports en commun :
Tramway R1, arrêt Schoelcher + 10 mn à pied à travers le centre commercial Atlantis
Tramway R1, arrêt François Mitterrand + bus 50, arrêt Saulzaie ou bus 71, arrêt Zénith
Tramway R3, arrêt Marcel Paul + bus 50, arrêt Saulzaie
Chronobus C6, arrêt Hermeland + bus 71, arrêt Zénith
Bus : lignes 50 (arrêt Saulzaie) ou 71 (arrêt Zénith)
Cette formation en direct (en ligne ou sur site) est destinée aux dirigeants intermédiaires de l'entreprise qui souhaitent comprendre comment gouverner et sécuriser les systèmes d'intelligence artificielle (IA) de manière responsable et en conformité avec les cadres juridiques mondiaux émergents tels que le Règlement UE sur l'IA, GDPR, ISO/IEC 42001 et l'Ordre exécutif des États-Unis sur l'IA.
À la fin de cette formation, les participants seront capables de :
Comprendre les risques juridiques, éthiques et réglementaires liés à l'utilisation de l'IA dans différents départements.
Interpréter et appliquer les principaux cadres de gouvernance de l'IA (Règlement UE sur l'IA, NIST AI RMF, ISO/IEC 42001).
Mettre en place des politiques de sécurité, d'audit et de surveillance pour le déploiement de l'IA dans l'entreprise.
Développer des lignes directrices d'approvisionnement et d'utilisation pour les systèmes d'IA tiers et internes.
Cette formation en direct (en ligne ou sur site) est destinée aux développeurs AI, architectes et gestionnaires de produits intermédiaires à avancés qui souhaitent identifier et atténuer les risques associés aux applications alimentées par des modèles de langage larges (LLM), y compris l'injection de prompt, la fuite de données et le contenu non filtré, tout en intégrant des contrôles de sécurité tels que la validation d'entrée, la supervision humaine dans la boucle et les barrières de sortie.
À la fin de cette formation, les participants seront capables de :
Comprendre les vulnérabilités principales des systèmes basés sur LLM.
Appliquer des principes de conception sécurisée à l'architecture d'applications LLM.
Utiliser des outils tels que Guardrails AI et LangChain pour la validation, le filtrage et la sécurité.
Intégrer des techniques comme le sandboxing, le red teaming et les revues humaines dans la boucle dans des pipelines de production.
Cette formation en direct (en ligne ou sur site) est destinée aux professionnels intermédiaires en apprentissage automatique et cybersécurité qui souhaitent comprendre et atténuer les menaces émergentes contre les modèles d'IA, en utilisant à la fois des cadres conceptuels et des défenses pratiques comme l'apprentissage robuste et la confidentialité différentielle.
À la fin de cette formation, les participants seront capables de :
Identifier et classifier les menaces spécifiques à l'IA telles que les attaques adverses, l'inversion et le poisonnement des données.
Utiliser des outils comme le Adversarial Robustness Toolbox (ART) pour simuler des attaques et tester des modèles.
Appliquer des défenses pratiques incluant l'apprentissage adversaire, l'injection de bruit et les techniques de préservation de la confidentialité.
Définir des stratégies d'évaluation de modèle conscientes des menaces dans les environnements de production.
Introduction au Modélisation des Menaces pour l'IA
Ce qui rend les systèmes IA vulnérables ?
L'espace d'attaque IA vs. systèmes traditionnels
Vecteurs d'attaque clés : couches de données, modèle, sortie et interface
Attaques Adverses sur les Modèles d'IA
Comprendre les exemples adverses et les techniques de perturbation
Attaques en boîte blanche vs. en boîte noire
Méthodes FGSM, PGD et DeepFool
Visualiser et créer des échantillons adverses
Inversion de Modèle et Fuite de Confidentialité
Déduire les données d'entraînement à partir de la sortie du modèle
Attaques d'inférence de membres
Risques de confidentialité dans les modèles de classification et génératifs
Poisonning des Données et Injections de Backdoor
Comment les données empoisonnées influencent le comportement du modèle
Fenêtres d'activation basées sur les backdoors et attaques Trojans
Stratégies de détection et de désinfection
Robustesse et Techniques de Défense
Apprentissage adversaire et augmentation des données
Masquage du gradient et prétraitement des entrées
Lissage du modèle et techniques de régularisation
Défenses d'IA Préservant la Confidentialité
Introduction à la confidentialité différentielle
Injection de bruit et budgets de confidentialité
Apprentissage fédéré et agrégation sécurisée
AI Security en Pratique
Évaluation et déploiement de modèles conscients des menaces
Utilisation d'ART (Adversarial Robustness Toolbox) dans les situations appliquées
Cas pratiques industriels : fuites réelles et atténuations
Récapitulatif et Étapes Suivantes
La sécurisation des modèles d'IA est la discipline de défense des systèmes d'apprentissage automatique contre les menaces spécifiques aux modèles, telles que les entrées adverses, le poisonnement des données, les attaques d'inversion et la fuite de confidentialité.
Cette formation en direct (en ligne ou sur site) est destinée aux professionnels intermédiaires en apprentissage automatique et cybersécurité qui souhaitent comprendre et atténuer les menaces émergentes contre les modèles d'IA, en utilisant à la fois des cadres conceptuels et des défenses pratiques comme l'apprentissage robuste et la confidentialité différentielle.
À la fin de cette formation, les participants seront capables de :
Identifier et classifier les menaces spécifiques à l'IA telles que les attaques adverses, l'inversion et le poisonnement des données.
Utiliser des outils comme le Adversarial Robustness Toolbox (ART) pour simuler des attaques et tester des modèles.
Appliquer des défenses pratiques incluant l'apprentissage adversaire, l'injection de bruit et les techniques de préservation de la confidentialité.
Définir des stratégies d'évaluation de modèle conscientes des menaces dans les environnements de production.
Format du Cours
Cours interactif et discussion.
De nombreux exercices et pratiques.
Mise en œuvre pratique dans un environnement de laboratoire vivant.
Options de Personnalisation du Cours
Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
Prérequis
Compréhension des flux de travail d'apprentissage automatique et de l'entraînement du modèle
Expérience avec Python et les cadres ML courants tels que PyTorch ou TensorFlow
Familiarité avec les concepts de base de la sécurité ou du modélisation des menaces est utile
Public Cible
Ingénieurs en apprentissage automatique
Analystes en cybersécurité
Rechercheurs en IA et équipes de validation des modèles
Cette formation en direct (en ligne ou sur site) est destinée aux professionnels intermédiaires en apprentissage automatique et cybersécurité qui souhaitent comprendre et atténuer les menaces émergentes contre les modèles d'IA, en utilisant à la fois des cadres conceptuels et des défenses pratiques comme l'apprentissage robuste et la confidentialité différentielle.
À la fin de cette formation, les participants seront capables de :
Identifier et classifier les menaces spécifiques à l'IA telles que les attaques adverses, l'inversion et le poisonnement des données.
Utiliser des outils comme le Adversarial Robustness Toolbox (ART) pour simuler des attaques et tester des modèles.
Appliquer des défenses pratiques incluant l'apprentissage adversaire, l'injection de bruit et les techniques de préservation de la confidentialité.
Définir des stratégies d'évaluation de modèle conscientes des menaces dans les environnements de production.
Cette formation en direct (en ligne ou sur site) est destinée aux professionnels débutants de la sécurité informatique, du risque et de la conformité qui souhaitent comprendre les concepts fondamentaux de la sécurité AI, les vecteurs de menace et les cadres mondiaux tels que le NIST AI RMF et ISO/IEC 42001.À la fin de cette formation, les participants seront capables de :
Comprendre les risques de sécurité uniques introduits par les systèmes d'IA.
Identifier des vecteurs de menace tels que les attaques adversaires, le poisonnement des données et l'inversion du modèle.
Appliquer des modèles de gouvernance fondamentaux comme le cadre NIST AI Risk Management.
Ajuster l'utilisation de l'IA aux normes émergentes, aux lignes directrices de conformité et aux principes éthiques.
AI Security formation à Nantes, Weekend AI Security cours à Nantes, Soir AI Security formation à Nantes, AI Security formateur en ligne à Nantes, AI Security formation à Nantes, AI Security cours du soir à Nantes, AI Security formation Intra à Nantes, AI Security formation Intra Entreprise à Nantes, AI Security formation Inter à Nantes, AI Security formation Inter Entreprise à Nantes, AI Security cours privé à Nantes, AI Security professeur à Nantes,AI Security cours à Nantes, Soir AI Security cours à Nantes, AI Security coach à Nantes, AI Security préparation aux examens à Nantes, AI Security stage de préparation à Nantes, AI Security cours particuliers à Nantes, AI Security entraînement à Nantes, AI Security formateur à Nantes, AI Security coaching à Nantes, AI Security sur place à Nantes, AI Security préparation à Nantes, AI Security instructeur à Nantes, Weekend AI Security formation à Nantes