Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Plan du cours
Introduction
- Qu'est-ce que Large Language Models (LLMs) ?
- LLMs vs modèles NLP traditionnels
- Aperçu des caractéristiques et de l'architecture des LLMs
- Défis et limites des LLMs
Comprendre les LLM
- Le cycle de vie d'un LLM
- Le fonctionnement des LLM
- Les principaux composants d'un LLM : codeur, décodeur, attention, embeddings, etc.
Pour commencer
- Mise en place de l'environnement de développement
- Installer un LLM comme outil de développement, par exemple Google Colab, Hugging Face.
Travailler avec les LLM
- Explorer les options disponibles en matière de LLM
- Création et utilisation d'un LLM
- Affiner un LLM sur un ensemble de données personnalisé
Résumés de textes
- Comprendre la tâche du résumé de texte et ses applications
- Utiliser un LLM pour le résumé de texte extractif et abstractif
- Evaluer la qualité des résumés générés en utilisant des métriques telles que ROUGE, BLEU, etc.
Réponse aux questions
- Comprendre la tâche de réponse aux questions et ses applications
- Utilisation d'un LLM pour la réponse à des questions dans des domaines ouverts et fermés
- Évaluer la précision des réponses générées à l'aide de mesures telles que F1, EM, etc.
Génération de texte
- Comprendre la tâche de génération de texte et ses applications
- Utiliser un LLM pour la génération de textes conditionnels et inconditionnels
- Contrôler le style, le ton et le contenu des textes générés en utilisant des paramètres tels que la température, top-k, top-p, etc.
Intégration des MLD dans d'autres cadres et plates-formes
- Utiliser les LLMs avec PyTorch ou TensorFlow
- Utiliser les LLMs avec Flask ou Streamlit
- Utiliser les LLM avec Google Cloud ou AWS
Dépannage
- Comprendre les erreurs et les bogues courants dans les LLM
- Utiliser TensorBoard pour surveiller et visualiser le processus d'apprentissage
- Utilisation de PyTorch Lightning pour simplifier le code d'entraînement et améliorer les performances
- Utilisation de Hugging Face Datasets pour charger et prétraiter les données
Résumé et prochaines étapes
Pré requis
-
Une compréhension du traitement du langage naturel et de l'apprentissage profond
Expérience avec Python et PyTorch ou TensorFlow
Expérience en programmation de base
Audience
-
Développeurs
Passionnés de NLP
Scientifiques des données
14 heures