Formation Building Secure and Responsible LLM Applications
Sécurité des applications LLM est la discipline de conception, construction et maintenance de systèmes sûrs, fiables et conformes aux politiques en utilisant des modèles de langage volumineux.
Cette formation en direct (en ligne ou sur site) dirigée par un instructeur s'adresse aux développeurs AI d'un niveau intermédiaire à avancé, architectes et gestionnaires de produits qui souhaitent identifier et atténuer les risques associés aux applications alimentées par des LLM, y compris l'injection de prompts, la fuite de données et les sorties non filtrées, tout en intégrant des contrôles de sécurité tels que la validation d'entrée, le contrôle humain dans la boucle et les garde-fous de sortie.
À la fin de cette formation, les participants seront capables de :
- Comprendre les vulnérabilités fondamentales des systèmes basés sur LLM.
- Appliquer des principes de conception sécurisée à l'architecture d'applications LLM.
- Utiliser des outils tels que Guardrails AI et LangChain pour la validation, le filtrage et la sécurité.
- Intégrer des techniques comme le sandboxing, le red teaming et les revues humaines dans la boucle dans des pipelines de production.
Format du cours permettant d'évaluer les participants
- Cours interactif et discussion.
- De nombreux exercices et pratiques.
- Mise en œuvre pratique dans un environnement de laboratoire en direct.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour arranger cela.
Plan du cours
Aperçu de l'architecture LLM et de la surface d'attaque
- Comment les LLM sont construits, déployés et accessibles via des API
- Les composants clés dans les piles d'applications LLM (par exemple, prompts, agents, mémoire, API)
- Où et comment se produisent les problèmes de sécurité en utilisation réelle
Injections de Prompt et Attaques de Libération
- Qu'est-ce que l'injection de prompt et pourquoi c'est dangereux
- Scénarios d'injection directe et indirecte de prompts
- Téchniques de libération pour contourner les filtres de sécurité
- Stratégies de détection et de mitigation
Fuites de Données et Risques de Confidentialité
- Exposition accidentelle des données par le biais des réponses
- Fuites de PII et mauvais usage de la mémoire du modèle
- Conception de prompts respectueux de la confidentialité et de la génération augmentée par la récupération (RAG)
Filtrage et Protection des Sorties LLM
- Utilisation de Guardrails AI pour le filtrage et la validation du contenu
- Définition de schémas et contraintes de sortie
- Surveillance et journalisation des sorties non sécurisées
Approches Humain-dans-la-Boucle et de Workflow
- Où et quand introduire l'appréciation humaine
- Files d'attente d'approbation, seuils de notation, gestion des cas de repli
- Calibration de la confiance et rôle de l'explicabilité
Application LLM Sécurisée Design Patterns
- Droits minimaux et sandboxing pour les appels API et agents
- Limite de taux, limitation et détection d'abus
- Chaînage robuste avec LangChain et isolation des prompts
Conformité, Journalisation et Governance
- S'assurer de la traçabilité des sorties LLM
- Maintenir la traçabilité et le contrôle de version des prompts
- S'aligner sur les politiques internes de sécurité et les besoins réglementaires
Résumé et Étapes Suivantes
Pré requis
- Une compréhension des grands modèles de langage et des interfaces basées sur les prompts
- Expérience dans la construction d'applications LLM en utilisant Python
- Familiarité avec les intégrations API et les déploiements basés sur le cloud
Public cible
- Développeurs IA
- Architectes d'applications et de solutions
- Directeurs techniques des produits travaillant avec des outils LLM
Les formations ouvertes requièrent plus de 3 participants.
Formation Building Secure and Responsible LLM Applications - Booking
Formation Building Secure and Responsible LLM Applications - Enquiry
Building Secure and Responsible LLM Applications - Demande d'informations consulting
Demande d'informations consulting
Cours à venir
Cours Similaires
AI Automation with n8n and LangChain
14 HeuresCette formation en direct avec instructeur en France (en ligne ou sur site) s'adresse aux développeurs et aux professionnels de l'informatique de tous niveaux qui souhaitent automatiser des tâches et des processus à l'aide de l'IA sans avoir à rédiger un code exhaustif.
A l'issue de cette formation, les participants seront capables de :
- Concevoir et mettre en œuvre des flux de travail complexes en utilisant l'interface de programmation visuelle de n8n.
- Intégrer des capacités d'IA dans les flux de travail en utilisant LangChain.
- Construire des chatbots et des assistants virtuels personnalisés pour divers cas d'utilisation.
- Effectuer des analyses et des traitements de données avancés avec des agents d'IA.
Automating Workflows with LangChain and APIs
14 HeuresCette formation en direct avec instructeur à France (en ligne ou sur site) est destinée aux analystes commerciaux et aux ingénieurs en automatisation de niveau débutant qui souhaitent comprendre comment utiliser LangChain et les API pour automatiser les tâches répétitives et les flux de travail.
A l'issue de cette formation, les participants seront capables de :
- Comprendre les bases de l'intégration API avec LangChain.
- Automatiser les flux de travail répétitifs en utilisant LangChain et Python.
- Utiliser LangChain pour connecter diverses API afin de mettre en place des processus commerciaux efficaces.
- Créer et automatiser des flux de travail personnalisés en utilisant les API et les capacités d'automatisation de LangChain.
Building Conversational Agents with LangChain
14 HeuresCette formation en direct avec instructeur en France (en ligne ou sur site) est destinée aux professionnels de niveau intermédiaire qui souhaitent approfondir leur compréhension des agents conversationnels et appliquer LangChain à des cas d'utilisation du monde réel.
A l'issue de cette formation, les participants seront capables de :
- Comprendre les principes fondamentaux de LangChain et son application dans la construction d'agents conversationnels.
- Développer et déployer des agents conversationnels en utilisant LangChain.
- Intégrer des agents conversationnels avec des API et des services externes.
- Appliquer les techniques Natural Language Processing (NLP) pour améliorer la performance des agents conversationnels.
Building Private AI Workflows with Ollama
14 HeuresCette formation en direct avec instructeur dans France (en ligne ou sur site) est destinée aux professionnels de niveau avancé qui souhaitent mettre en œuvre des flux de travail sécurisés et efficaces axés sur l'IA en utilisant Ollama.
À l'issue de cette formation, les participants seront en mesure de :
- Déployer et configurer Ollama pour le traitement privé de l'IA.
- Intégrer des modèles d'IA dans des flux de travail d'entreprise sécurisés.
- Optimiser les performances de l'IA tout en préservant la confidentialité des données.
- Automatiser les processus métier avec des capacités d'IA sur site.
- Assurer la conformité avec les politiques de sécurité et de gouvernance de l'entreprise.
Deploying and Optimizing LLMs with Ollama
14 HeuresCette formation en France (en ligne ou sur site) est destinée aux professionnels de niveau intermédiaire qui souhaitent déployer, optimiser et intégrer des LLM en utilisant Ollama.
A l'issue de cette formation, les participants seront capables de :
- Mettre en place et déployer des LLMs en utilisant Ollama.
- Optimiser les modèles d'IA pour la performance et l'efficacité.
- Tirer parti de l'accélération GPU pour améliorer la vitesse d'inférence.
- Intégrer Ollama dans les flux de travail et les applications.
- Contrôler et maintenir les performances des modèles d'IA au fil du temps.
Ethical Considerations in AI Development with LangChain
21 HeuresCette formation en direct (en ligne ou sur place) s'adresse aux chercheurs en IA de niveau avancé et aux décideurs politiques qui souhaitent explorer les implications éthiques du développement de l'IA et apprendre à appliquer des lignes directrices éthiques lors de l'élaboration de solutions d'IA avec LangChain.
À l'issue de cette formation, les participants seront capables de :
- Identifier les questions éthiques clés dans le développement de l'IA avec LangChain.
- Comprendre l'impact de l'IA sur la société et les processus de prise de décision.
- Développer des stratégies pour construire des systèmes d'IA justes et transparents.
- Mettre en œuvre des lignes directrices éthiques en matière d'IA dans des projets basés sur LangChain.
Enhancing User Experience with LangChain in Web Apps
14 HeuresCette formation en direct avec instructeur en France (en ligne ou sur site) s'adresse aux développeurs web de niveau intermédiaire et aux concepteurs UX qui souhaitent tirer parti de LangChain pour créer des applications web intuitives et conviviales.
A l'issue de cette formation, les participants seront en mesure de :
- Comprendre les concepts fondamentaux de LangChain et son rôle dans l'amélioration de l'expérience utilisateur sur le web.
- Implémenter LangChain dans les applications web pour créer des interfaces dynamiques et réactives.
- Intégrer les API dans les applications web pour améliorer l'interactivité et l'engagement des utilisateurs.
- Optimiser l'expérience utilisateur en utilisant les fonctions de personnalisation avancées de LangChain.
- Analyser les données relatives au comportement des utilisateurs afin d'affiner les performances et l'expérience des applications web.
Fine-Tuning and Customizing AI Models on Ollama
14 HeuresCette formation en direct avec instructeur à France (en ligne ou sur place) est destinée aux professionnels de niveau avancé qui souhaitent affiner et personnaliser les modèles d'IA sur Ollama pour améliorer les performances et les applications spécifiques à un domaine.
A l'issue de cette formation, les participants seront capables de :
- Mettre en place un environnement efficace pour affiner les modèles d'IA sur Ollama.
- Préparer des ensembles de données pour le réglage fin supervisé et l'apprentissage par renforcement.
- Optimiser les modèles d'IA en termes de performance, de précision et d'efficacité.
- Déployer des modèles personnalisés dans des environnements de production.
- Évaluer les améliorations apportées aux modèles et s'assurer de leur robustesse.
Introduction to AI Security and Risk Management
14 HeuresCette formation en direct (en ligne ou sur site) est destinée aux professionnels débutants de la sécurité informatique, du risque et de la conformité qui souhaitent comprendre les concepts fondamentaux de la sécurité AI, les vecteurs de menace et les cadres mondiaux tels que le NIST AI RMF et ISO/IEC 42001.
À la fin de cette formation, les participants seront capables de :
- Comprendre les risques de sécurité uniques introduits par les systèmes d'IA.
- Identifier des vecteurs de menace tels que les attaques adversaires, le poisonnement des données et l'inversion du modèle.
- Appliquer des modèles de gouvernance fondamentaux comme le cadre NIST AI Risk Management.
- Ajuster l'utilisation de l'IA aux normes émergentes, aux lignes directrices de conformité et aux principes éthiques.
LangChain: Building AI-Powered Applications
14 HeuresCette formation en France (en ligne ou sur site) s'adresse aux développeurs et ingénieurs logiciels de niveau intermédiaire qui souhaitent créer des applications basées sur l'intelligence artificielle en utilisant le framework LangChain.
A l'issue de cette formation, les participants seront capables de :
- Comprendre les principes fondamentaux de LangChain et de ses composants.
- Intégrer LangChain avec de grands modèles de langage (LLM) comme GPT-4.
- Construire des applications modulaires d'IA en utilisant LangChain.
- Résoudre les problèmes courants dans les applications LangChain.
Integrating LangChain with Cloud Services
14 HeuresCette formation en direct avec instructeur en France (en ligne ou sur site) s'adresse aux ingénieurs de données de niveau avancé et aux professionnels de DevOps qui souhaitent exploiter les capacités de LangChain en l'intégrant à divers services en nuage.
A l'issue de cette formation, les participants seront capables de :
- Intégrer LangChain avec les principales plateformes cloud telles que AWS, Azure et Google Cloud.
- Utiliser les API et les services basés sur le cloud pour améliorer les applications alimentées par LangChain.
- Mettre à l'échelle et déployer des agents conversationnels dans le nuage pour une interaction en temps réel.
- Mettre en œuvre les meilleures pratiques de surveillance et de sécurité dans les environnements en nuage.
LangChain for Data Analysis and Visualization
14 HeuresCette formation en direct dans France (en ligne ou sur place) est destinée aux professionnels des données de niveau intermédiaire qui souhaitent utiliser LangChain pour améliorer leurs capacités d'analyse et de visualisation des données.
A l'issue de cette formation, les participants seront capables de :
- Automatiser l'extraction et le nettoyage des données en utilisant LangChain.
- Effectuer des analyses de données avancées en utilisant Python et LangChain.
- Créer des visualisations avec Matplotlib et d'autres bibliothèques Python intégrées à LangChain.
- Tirer parti de LangChain pour générer des informations en langage naturel à partir de l'analyse des données.
LangChain Fundamentals
14 HeuresCette formation en direct avec instructeur en France (en ligne ou sur site) s'adresse aux développeurs et ingénieurs logiciels de niveau débutant à intermédiaire qui souhaitent apprendre les concepts et l'architecture de base de LangChain et acquérir les compétences pratiques pour créer des applications alimentées par l'IA.
A l'issue de cette formation, les participants seront capables de :
- Comprendre les principes fondamentaux de LangChain.
- Mettre en place et configurer l'environnement LangChain.
- Comprendre l'architecture et comment LangChain interagit avec les grands modèles de langage (LLM).
- Développer des applications simples en utilisant LangChain.
Getting Started with Ollama: Running Local AI Models
7 HeuresCette formation en direct avec instructeur en France (en ligne ou sur site) est destinée aux professionnels débutants qui souhaitent installer, configurer et utiliser Ollama pour exécuter des modèles d'IA sur leurs machines locales.
A l'issue de cette formation, les participants seront capables de :
- Comprendre les principes fondamentaux de Ollama et ses capacités.
- Configurer Ollama pour exécuter des modèles d'IA locaux.
- Déployer et interagir avec les LLMs en utilisant Ollama.
- Optimiser les performances et l'utilisation des ressources pour les charges de travail d'IA.
- Explorer les cas d'utilisation pour le déploiement de l'IA locale dans diverses industries.
Securing AI Models: Threats, Attacks, and Defenses
14 HeuresCette formation en direct (en ligne ou sur site) est destinée aux professionnels intermédiaires en apprentissage automatique et cybersécurité qui souhaitent comprendre et atténuer les menaces émergentes contre les modèles d'IA, en utilisant à la fois des cadres conceptuels et des défenses pratiques comme l'apprentissage robuste et la confidentialité différentielle.
À la fin de cette formation, les participants seront capables de :
- Identifier et classifier les menaces spécifiques à l'IA telles que les attaques adverses, l'inversion et le poisonnement des données.
- Utiliser des outils comme le Adversarial Robustness Toolbox (ART) pour simuler des attaques et tester des modèles.
- Appliquer des défenses pratiques incluant l'apprentissage adversaire, l'injection de bruit et les techniques de préservation de la confidentialité.
- Définir des stratégies d'évaluation de modèle conscientes des menaces dans les environnements de production.
Introduction au Modélisation des Menaces pour l'IA
- Ce qui rend les systèmes IA vulnérables ?
- L'espace d'attaque IA vs. systèmes traditionnels
- Vecteurs d'attaque clés : couches de données, modèle, sortie et interface
Attaques Adverses sur les Modèles d'IA
- Comprendre les exemples adverses et les techniques de perturbation
- Attaques en boîte blanche vs. en boîte noire
- Méthodes FGSM, PGD et DeepFool
- Visualiser et créer des échantillons adverses
Inversion de Modèle et Fuite de Confidentialité
- Déduire les données d'entraînement à partir de la sortie du modèle
- Attaques d'inférence de membres
- Risques de confidentialité dans les modèles de classification et génératifs
Poisonning des Données et Injections de Backdoor
- Comment les données empoisonnées influencent le comportement du modèle
- Fenêtres d'activation basées sur les backdoors et attaques Trojans
- Stratégies de détection et de désinfection
Robustesse et Techniques de Défense
- Apprentissage adversaire et augmentation des données
- Masquage du gradient et prétraitement des entrées
- Lissage du modèle et techniques de régularisation
Défenses d'IA Préservant la Confidentialité
- Introduction à la confidentialité différentielle
- Injection de bruit et budgets de confidentialité
- Apprentissage fédéré et agrégation sécurisée
AI Security en Pratique
- Évaluation et déploiement de modèles conscients des menaces
- Utilisation d'ART (Adversarial Robustness Toolbox) dans les situations appliquées
- Cas pratiques industriels : fuites réelles et atténuations
Récapitulatif et Étapes Suivantes
La sécurisation des modèles d'IA est la discipline de défense des systèmes d'apprentissage automatique contre les menaces spécifiques aux modèles, telles que les entrées adverses, le poisonnement des données, les attaques d'inversion et la fuite de confidentialité.
Cette formation en direct (en ligne ou sur site) est destinée aux professionnels intermédiaires en apprentissage automatique et cybersécurité qui souhaitent comprendre et atténuer les menaces émergentes contre les modèles d'IA, en utilisant à la fois des cadres conceptuels et des défenses pratiques comme l'apprentissage robuste et la confidentialité différentielle.
À la fin de cette formation, les participants seront capables de :
- Identifier et classifier les menaces spécifiques à l'IA telles que les attaques adverses, l'inversion et le poisonnement des données.
- Utiliser des outils comme le Adversarial Robustness Toolbox (ART) pour simuler des attaques et tester des modèles.
- Appliquer des défenses pratiques incluant l'apprentissage adversaire, l'injection de bruit et les techniques de préservation de la confidentialité.
- Définir des stratégies d'évaluation de modèle conscientes des menaces dans les environnements de production.
Format du Cours
- Cours interactif et discussion.
- De nombreux exercices et pratiques.
- Mise en œuvre pratique dans un environnement de laboratoire vivant.
Options de Personnalisation du Cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
Prérequis
- Compréhension des flux de travail d'apprentissage automatique et de l'entraînement du modèle
- Expérience avec Python et les cadres ML courants tels que PyTorch ou TensorFlow
- Familiarité avec les concepts de base de la sécurité ou du modélisation des menaces est utile
Public Cible
- Ingénieurs en apprentissage automatique
- Analystes en cybersécurité
- Rechercheurs en IA et équipes de validation des modèles
Cette formation en direct (en ligne ou sur site) est destinée aux professionnels intermédiaires en apprentissage automatique et cybersécurité qui souhaitent comprendre et atténuer les menaces émergentes contre les modèles d'IA, en utilisant à la fois des cadres conceptuels et des défenses pratiques comme l'apprentissage robuste et la confidentialité différentielle.
À la fin de cette formation, les participants seront capables de :
- Identifier et classifier les menaces spécifiques à l'IA telles que les attaques adverses, l'inversion et le poisonnement des données.
- Utiliser des outils comme le Adversarial Robustness Toolbox (ART) pour simuler des attaques et tester des modèles.
- Appliquer des défenses pratiques incluant l'apprentissage adversaire, l'injection de bruit et les techniques de préservation de la confidentialité.
- Définir des stratégies d'évaluation de modèle conscientes des menaces dans les environnements de production.