Formation Ingénierie des Prompt et Fine-Tuning à Faible Exemple
Prompt Engineering et Few-Shot Fine-Tuning fournit aux participants des connaissances pratiques sur l'utilisation des techniques d'ingénierie rapide et de l'apprentissage à court terme pour guider efficacement les grands modèles de langage (LLM). Le cours met l'accent sur l'obtention de résultats optimaux sans réglage fin approfondi, ce qui permet d'adapter efficacement les modèles pré-entraînés à diverses tâches.
Cette formation en direct (en ligne ou sur site), dirigée par un instructeur, s'adresse aux professionnels de niveau intermédiaire qui souhaitent tirer parti de la puissance de l'ingénierie rapide et de l'apprentissage à court terme pour optimiser les performances des LLM dans le cadre d'applications réelles.
À l'issue de cette formation, les participants seront en mesure de :
- Comprendre les principes de l'ingénierie des messages-guides et de l'apprentissage à court terme.
- Concevoir des messages-guides efficaces pour diverses tâches NLP.
- Tirer parti des techniques d'apprentissage à court terme pour adapter les LLM avec un minimum de données.
- Optimiser les performances des LLM pour des applications pratiques.
Format du cours permettant d'évaluer les participants
- Exposé et discussion interactifs.
- Beaucoup d'exercices et de pratique.
- Mise en œuvre pratique dans un environnement de laboratoire réel.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter.
Plan du cours
Introduction à Prompt Engineering
- Qu'est-ce que l'ingénierie des prompts ?
- Importance de la conception des prompts dans les LLM
- Comparaison des approches "zero-shot", "one-shot" et "few-shot".
Conception d'invites efficaces
- Principes de conception d'invites de haute qualité
- Expérimenter des variantes de messages-guides
- Défis courants dans la conception des messages-guides
Mise au point de l'apprentissage en quelques secondes
- Vue d'ensemble de l'apprentissage ponctuel
- Applications dans l'adaptation du LLM à une tâche spécifique
- Intégration d'exemples peu fréquents dans les messages-guides
Travaux pratiques avec les outils Prompt Engineering
- Utilisation de l'API OpenAI pour l'expérimentation d'invites
- Exploration de la conception des messages-guides avec les transformateurs Hugging Face
- Évaluation de l'impact des variations de l'invite
Optimisation des performances du LLM
- Évaluer les résultats et affiner les messages-guides
- Intégration du contexte pour de meilleurs résultats
- Gestion des ambiguïtés et des biais dans les réponses LLM
Applications de Prompt Engineering
- Génération et résumé de texte
- Analyse et classification des sentiments
- Rédaction créative et génération de code
Déploiement de solutions basées sur des messages-guides
- Intégration des messages-guides dans les applications
- Contrôle des performances et de l'évolutivité
- Études de cas et exemples concrets
Résumé et prochaines étapes
Pré requis
- Compréhension de base du traitement du langage naturel (NLP)
- Familiarité avec la programmation Python.
- Une expérience avec les grands modèles de langage (LLM) est un plus.
Audience
- Développeurs en IA
- Ingénieurs PNL
- Praticiens de l'apprentissage automatique
Les formations ouvertes requièrent plus de 3 participants.
Formation Ingénierie des Prompt et Fine-Tuning à Faible Exemple - Booking
Formation Ingénierie des Prompt et Fine-Tuning à Faible Exemple - Enquiry
Ingénierie des Prompt et Fine-Tuning à Faible Exemple - Demande d'informations consulting
Demande d'informations consulting
Cours à venir
Cours Similaires
Avancé LangGraph : Optimisation, Débogage et Surveillance de Graphes complexes
35 HeuresLangGraph est un framework pour construire des applications LLM multi-acteurs et à état en utilisant des graphes composables avec un état persistant et un contrôle sur l'exécution.
Cette formation en direct, dirigée par un instructeur (en ligne ou sur site), s'adresse aux ingénieurs de plateforme AI avancés, DevOps pour AI et architectes ML qui souhaitent optimiser, déboguer, surveiller et opérer des systèmes LangGraph de production.
A la fin de cette formation, les participants seront capables de :
- Définir et optimiser des topologies complexes de LangGraph pour la vitesse, le coût et l'évolutivité.
- Concevoir une fiabilité grâce aux réessais, aux délais d'expiration, à l'idempotence et au redémarrage basé sur les points de contrôle.
- Déboguer et tracer les exécutions des graphes, inspecter l'état et reproduire systématiquement les problèmes de production.
- Instrumentaliser les graphes avec des journaux, des métriques et des traces, déployer en production et surveiller les SLAs et les coûts.
Format du cours permettant d'évaluer les participants
- Cours interactif et discussion.
- De nombreux exercices et pratiques.
- Mise en œuvre pratique dans un environnement de laboratoire live.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour les arrangements.
Building Coding Agents with Devstral: From Agent Design to Tooling
14 HeuresDevstral is an open-source framework designed for building and running coding agents that can interact with codebases, developer tools, and APIs to enhance engineering productivity.
This instructor-led, live training (online or onsite) is aimed at intermediate-level to advanced-level ML engineers, developer-tooling teams, and SREs who wish to design, implement, and optimize coding agents using Devstral.
By the end of this training, participants will be able to:
- Set up and configure Devstral for coding agent development.
- Design agentic workflows for codebase exploration and modification.
- Integrate coding agents with developer tools and APIs.
- Implement best practices for secure and efficient agent deployment.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Construire des flux de travail d'IA privés avec Ollama
14 HeuresCe entraînement en direct (en ligne ou sur place) dispensé par un instructeur à France s'adresse aux professionnels de niveau avancé souhaitant mettre en œuvre des flux de travail basés sur l'intelligence artificielle (IA) sécurisés et efficaces en utilisant Ollama.
À la fin de cet entraînement, les participants seront capables de :
- Déployer et configurer Ollama pour le traitement privé de l'IA.
- Intégrer des modèles d'IA dans des flux de travail entreprenariaux sécurisés.
- Optimiser la performance de l'IA tout en maintenant la confidentialité des données.
- Automatiser les processus commerciaux avec des capacités d'IA sur site.
- Garantir la conformité aux politiques de sécurité et de gouvernance entreprenariales.
Déploiement et Optimisation des Modèles de Langue Gros (LLM) avec Ollama
14 HeuresCette formation en France (en ligne ou sur site) est destinée aux professionnels de niveau intermédiaire qui souhaitent déployer, optimiser et intégrer des LLM en utilisant Ollama.
A l'issue de cette formation, les participants seront capables de :
- Mettre en place et déployer des LLMs en utilisant Ollama.
- Optimiser les modèles d'IA pour la performance et l'efficacité.
- Tirer parti de l'accélération GPU pour améliorer la vitesse d'inférence.
- Intégrer Ollama dans les flux de travail et les applications.
- Contrôler et maintenir les performances des modèles d'IA au fil du temps.
Fine-Tuning et Personnaliser les modèles d'IA sur Ollama
14 HeuresCe cours en direct avec formateur (en ligne ou sur site) est destiné à des professionnels avancés souhaitant affiner et personnaliser les modèles IA sur Ollama pour une performance accrue et des applications spécifiques au domaine.
À la fin de ce cours, les participants seront en mesure de :
- Configurer un environnement efficace pour l'affinement des modèles IA sur Ollama.
- Préparer des jeux de données pour l'affinement supervisé et l'apprentissage par renforcement.
- Optimiser les modèles IA en termes de performance, d'exactitude et d'efficacité.
- Déployer des modèles personnalisés dans des environnements de production.
- Évaluer les améliorations du modèle et garantir sa robustesse.
Applications de LangGraph dans les Finances
35 HeuresLangGraph est un framework permettant de construire des applications LLM à état et multi-acteurs sous forme de graphes composables avec un état persistant et un contrôle d'exécution.
Cette formation en direct (en ligne ou sur site) dispensée par un formateur s'adresse aux professionnels intermédiaires et avancés souhaitant concevoir, mettre en œuvre et exploiter des solutions financières basées sur LangGraph avec une gouvernance, une observabilité et une conformité appropriées.
A la fin de cette formation, les participants seront capables de :
- Concevoir des workflows LangGraph spécifiques aux finances en adéquation avec les exigences réglementaires et d'audit.
- Intégrer les normes et ontologies de données financières dans l'état du graphe et les outils.
- Mettre en œuvre la fiabilité, la sécurité et le contrôle humain-en-boucle pour des processus critiques.
- Déployer, surveiller et optimiser les systèmes LangGraph en termes de performance, de coût et d'engagements SLA.
Format du cours permettant d'évaluer les participants
- Cours interactif et discussions.
- Nombreux exercices et pratiques.
- Mise en œuvre pratique dans un environnement de laboratoire vivant.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
Fondations de LangGraph : Promptage et Chaînage basés sur les Graphes
14 HeuresLangGraph est un framework pour la construction d'applications LLM structurées en graphes qui prennent en charge le planification, le branchement, l'utilisation des outils, la mémoire et l'exécution contrôlée.
Cette formation en direct (en ligne ou sur place) animée par un formateur est destinée aux développeurs débutants, aux ingénieurs de prompts et aux praticiens des données qui souhaitent concevoir et construire des workflows LLM multi-étapes fiables à l'aide de LangGraph.
À la fin de cette formation, les participants seront capables de :
- Expliquer les concepts fondamentaux de LangGraph (nœuds, arêtes, état) et quand les utiliser.
- Créer des chaînes de prompts qui se branchent, appellent des outils et maintiennent la mémoire.
- Intégrer des récupérations et des APIs externes dans les workflows graphiques.
- Tester, déboguer et évaluer les applications LangGraph pour garantir fiabilité et sécurité.
Format du cours permettant d'évaluer les participants
- Cours interactif et discussion guidée.
- Laboratoires encadrés et démonstrations de code dans un environnement sandbox.
- Exercices basés sur des scénarios pour la conception, le test et l'évaluation.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
LangGraph dans la Santé : Orchestration des Flux de Travail pour les Environnements Régulés
35 HeuresLangGraph permet des workflows multi-acteurs et étatiques alimentés par des LLM avec un contrôle précis sur les chemins d'exécution et la persistance de l'état. Dans le secteur de la santé, ces capacités sont essentielles pour la conformité, l'interopérabilité et la création de systèmes de soutien à la décision qui s'intègrent aux workflows médicaux.
Cette formation en direct animée par un instructeur (en ligne ou sur site) est destinée aux professionnels intermédiaires et avancés souhaitant concevoir, mettre en œuvre et gérer des solutions de santé basées sur LangGraph tout en répondant aux défis réglementaires, éthiques et opérationnels.
À la fin de cette formation, les participants seront capables de :
- Concevoir des workflows spécifiques à la santé avec LangGraph en tenant compte de la conformité et de la traçabilité.
- Intégrer les applications LangGraph aux ontologies et normes médicales (FHIR, SNOMED CT, ICD).
- Appliquer les meilleures pratiques pour la fiabilité, la traçabilité et l'explicabilité dans des environnements sensibles.
- Déployer, surveiller et valider les applications LangGraph dans des environnements de production en santé.
Format du cours permettant d'évaluer les participants
- Cours interactif et discussions.
- Exercices pratiques avec des études de cas réelles.
- Mise en pratique dans un environnement de laboratoire live.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
LangGraph pour les Applications Juridiques
35 HeuresLangGraph est un framework pour la construction d'applications LLM à état et multi-acteurs sous forme de graphes composables avec un état persistant et un contrôle précis sur l'exécution.
Cette formation en direct (en ligne ou sur site) dirigée par un formateur s'adresse aux professionnels intermédiaires et avancés qui souhaitent concevoir, mettre en œuvre et exploiter des solutions juridiques basées sur LangGraph avec les contrôles de conformité, de traçabilité et de gouvernance nécessaires.
À la fin de cette formation, les participants seront capables de :
- Concevoir des workflows spécifiques à la juridique LangGraph qui préservent l'auditabilité et la conformité.
- Intégrer des ontologies et normes de documents juridiques dans l'état et le traitement du graphe.
- Mettre en œuvre des garde-fous, des approbations humaines en boucle fermée et des chemins de décision traçables.
- Déployer, surveiller et maintenir les services LangGraph en production avec visibilité et contrôle des coûts.
Format de la Formation
- Cours interactif et discussion.
- De nombreux exercices et pratiques.
- Mise en œuvre pratique dans un environnement de laboratoire live.
Options d'adaptation du cours
- Pour demander une formation sur mesure pour ce cours, veuillez nous contacter pour en faire la demande.
Construire des Flux de Travail Dynamiques avec LangGraph et des Agents LLM
14 HeuresCette formation en direct (en ligne ou sur site) dirigée par un formateur s'adresse aux ingénieurs intermédiaires et aux équipes de produits qui souhaitent combiner la logique graphique de LangGraph avec les boucles d'agents LLM pour construire des applications dynamiques et contextuelles telles que des agents de support clients, des arbres de décision et des systèmes de récupération d'information.
A la fin de cette formation, les participants seront capables de :
- Définir des flux de travail basés sur les graphes qui coordonnent les agents LLM, les outils et la mémoire.
- Mettre en œuvre une routage conditionnel, des tentatives redémarrages et des remplacements pour une exécution robuste.
- Intégrer le récupération de données, les API et les sorties structurées dans les boucles d'agents.
- Évaluer, surveiller et renforcer le comportement des agents pour la fiabilité et la sécurité.
Format du cours permettant d'évaluer les participants
- Cours interactif et discussion facilitée.
- Laboratoires guidés et parcours de code dans un environnement sandbox.
- Exercices de conception basés sur des scénarios et revues par les pairs.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour en faire la demande.
LangGraph pour l'automatisation du marketing
14 HeuresLangGraph est un cadre d'orchestration basé sur les graphes qui permet des workflows conditionnels et multistep pour les LLM et les outils, idéal pour automatiser et personnaliser les pipelines de contenu.
Cette formation en direct (en ligne ou sur site) animée par un formateur s'adresse aux marketeurs, stratèges en contenu et développeurs d'automatisation de niveau intermédiaire souhaitant mettre en œuvre des campagnes e-mail dynamiques à ramifications et des pipelines de génération de contenu à l'aide de LangGraph.
Au terme de cette formation, les participants seront capables de :
- Développer des workflows de contenu et d'e-mail structurés en graphes avec une logique conditionnelle.
- Intégrer des LLM, des API et des sources de données pour la personnalisation automatisée.
- Gérer l'état, la mémoire et le contexte tout au long des campagnes multistep.
- Evaluer, surveiller et optimiser les performances du workflow et les résultats de livraison.
Format du cours permettant d'évaluer les participants
- Cours interactifs et discussions en groupe.
- Laboratoires pratiques mettant en œuvre des workflows e-mail et des pipelines de contenu.
- Exercices basés sur des scénarios concernant la personnalisation, le segmentation et la logique à ramifications.
Options de Personnalisation du Cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour en faire la demande.
Le Chat Enterprise: Private ChatOps, Integrations & Admin Controls
14 HeuresLe Chat Enterprise is a private ChatOps solution that provides secure, customizable, and governed conversational AI capabilities for organizations, with support for RBAC, SSO, connectors, and enterprise app integrations.
This instructor-led, live training (online or onsite) is aimed at intermediate-level product managers, IT leads, solution engineers, and security/compliance teams who wish to deploy, configure, and govern Le Chat Enterprise in enterprise environments.
By the end of this training, participants will be able to:
- Set up and configure Le Chat Enterprise for secure deployments.
- Enable RBAC, SSO, and compliance-driven controls.
- Integrate Le Chat with enterprise applications and data stores.
- Design and implement governance and admin playbooks for ChatOps.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Cost-Effective LLM Architectures: Mistral at Scale (Performance / Cost Engineering)
14 HeuresMistral is a high-performance family of large language models optimized for cost-effective production deployment at scale.
This instructor-led, live training (online or onsite) is aimed at advanced-level infrastructure engineers, cloud architects, and MLOps leads who wish to design, deploy, and optimize Mistral-based architectures for maximum throughput and minimum cost.
By the end of this training, participants will be able to:
- Implement scalable deployment patterns for Mistral Medium 3.
- Apply batching, quantization, and efficient serving strategies.
- Optimize inference costs while maintaining performance.
- Design production-ready serving topologies for enterprise workloads.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Enterprise-Grade Deployments with Mistral Medium 3
14 HeuresMistral Medium 3 is a high-performance, multimodal large language model designed for production-grade deployment across enterprise environments.
This instructor-led, live training (online or onsite) is aimed at intermediate-level to advanced-level AI/ML engineers, platform architects, and MLOps teams who wish to deploy, optimize, and secure Mistral Medium 3 for enterprise use cases.
By the end of this training, participants will be able to:
- Deploy Mistral Medium 3 using API and self-hosted options.
- Optimize inference performance and costs.
- Implement multimodal use cases with Mistral Medium 3.
- Apply security and compliance best practices for enterprise environments.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Démarrer avec Ollama : Exécution de modèles d'IA locaux
7 HeuresCette formation en direct (en ligne ou sur site) et dirigée par un formateur s'adresse aux professionnels débutants qui souhaitent installer, configurer et utiliser Ollama pour exécuter des modèles IA localement.
À la fin de cette formation, les participants seront en mesure de :
- Comprendre les fondamentaux de Ollama et ses capacités.
- Configurer Ollama pour exécuter des modèles IA localement.
- Déployer et interagir avec des LLMs (Large Language Models) à l'aide de Ollama.
- Optimiser les performances et l'utilisation des ressources pour les charges de travail IA.
- Explorer les cas d'usage du déploiement local de l'IA dans divers secteurs.