Formation XGBoost for Gradient Boosting
XGBoost est un algorithme basé sur l'arbre de décision. Il utilise un cadre de renforcement gradient pour résoudre les problèmes de prédiction impliquant des données non structurées telles que les images et le texte. Gradient boosting est également une technique populaire pour la modélisation efficace des données tabulaires.
Cette formation guidée par des instructeurs, en direct (online ou sur site) est destinée à des scientifiques de données qui souhaitent utiliser XGBoost pour construire des modèles qui résoudent efficacement les problèmes de régression, de classification, de classement et de prévision.
À la fin de cette formation, les participants seront en mesure de :
- Installer et configurer XGBoost.
- Comprendre la relation entre les arbres de décision et d'autres algorithmes tels que la regression logistique et la forêt aléatoire.
- Testez différentes bibliothèques pour déterminer le meilleur pour le travail.
- Choisissez la configuration appropriée pour un algorithme.
- Tonnez les hyperparamètres d'un algorithme pour un ensemble de données donné.
- Implémenter une solution d’apprentissage automatique qui équilibre la puissance avec la complexité, l’expliquabilité et la facilité de la mise en œuvre.
Format du cours permettant d'évaluer les participants
- Lecture et discussion interactives.
- Beaucoup d’exercices et de pratiques.
- La mise en œuvre dans un environnement de laboratoire en direct.
Options de personnalisation de cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser.
Plan du cours
Introduction
- Réseaux de neurones artificiels et algorithmes basés sur des arbres de décision
Aperçu des fonctionnalités de XGBoost
- Éléments d'un algorithme de renforcement du gradient
- Accent mis sur la vitesse de calcul et la performance du modèle
- XGBoost vs Régression logistique, Random Forest, et Gradient Boosting standard
L'évolution des algorithmes basés sur les arbres
- Arbres de décision, Bagging, Random Forest, Boosting, Gradient Boosting
- Optimisation du système
- Améliorations algorithmiques
Préparation de l'environnement
- Installation de SciPy et de scikit-learn
Création d'un modèle XGBoost
- Télécharger un ensemble de données
- Résolution d'un problème de classification courant
- Entraîner le modèle XGBoost pour la classification
- Résoudre un problème de régression courant
Suivi des performances
- Évaluer et rendre compte des performances
- Arrêt précoce
Tracer les caractéristiques par importance
- Calculer l'importance des caractéristiques
- Décider des variables d'entrée à conserver ou à écarter
Configuration du renforcement du gradient
- Examiner les courbes d'apprentissage sur les ensembles de données de formation et de validation
- Ajuster le taux d'apprentissage
- Ajuster le nombre d'arbres
Réglage des hyperparamètres
- Améliorer les performances d'un modèle XGBoost
- Concevoir une expérience contrôlée pour ajuster les hyperparamètres
- Search Combinaisons de paramètres
Création d'un pipeline
- Incorporation d'un modèle XGBoost dans un pipeline d'apprentissage automatique de bout en bout
- Réglage des hyperparamètres dans le pipeline
- Techniques de prétraitement avancées
Dépannage
Résumé et conclusion
Pré requis
- Expérience dans l'écriture de modèles d'apprentissage automatique .
Audience
- Data scientists
- Ingénieurs en apprentissage machine
Les formations ouvertes requièrent plus de 3 participants.
Formation XGBoost for Gradient Boosting - Booking
Formation XGBoost for Gradient Boosting - Enquiry
XGBoost for Gradient Boosting - Demande d'informations consulting
Cours à venir
Cours Similaires
DataRobot
7 heuresCette formation en direct avec instructeur en France (en ligne ou sur site) s'adresse aux scientifiques et analystes de données qui souhaitent automatiser, évaluer et gérer des modèles prédictifs en utilisant les capacités d'apprentissage automatique de DataRobot.
A l'issue de cette formation, les participants seront capables de :
- Charger des ensembles de données dans DataRobot pour analyser, évaluer et vérifier la qualité des données.
- Construire et former des modèles pour identifier les variables importantes et atteindre les objectifs de prédiction.
- Interpréter les modèles pour créer des informations utiles à la prise de décision.
- Contrôler et gérer les modèles pour maintenir une performance de prédiction optimisée.
H2O AutoML
14 heuresCette formation en France (en ligne ou sur site) s'adresse aux data scientists qui souhaitent utiliser H2O AutoML pour automatiser le processus de construction et de sélection du meilleur algorithme et des meilleurs paramètres d'apprentissage automatique.
A l'issue de cette formation, les participants seront capables de :
- Automatiser le flux de travail de l'apprentissage automatique.
- Entraîner et régler automatiquement de nombreux modèles d'apprentissage automatique dans un laps de temps donné.
- Former des ensembles empilés pour obtenir des modèles d'ensemble hautement prédictifs.
AutoML with Auto-sklearn
14 heuresCette formation en France (en ligne ou sur site) est destinée aux praticiens de l'apprentissage automatique qui souhaitent utiliser Auto-sklearn pour automatiser le processus de sélection et d'optimisation d'un modèle d'apprentissage automatique.
A l'issue de cette formation, les participants seront en mesure de :
- Automatiser le processus de formation de modèles d'apprentissage automatique hautement efficaces.
- Construire des modèles d'apprentissage automatique très précis tout en contournant les tâches les plus fastidieuses de sélection, d'entraînement et de test de différents modèles.
- Utiliser la puissance de l'apprentissage automatique pour résoudre des problèmes commerciaux réels.
AutoML with Auto-Keras
14 heuresCette formation en France (en ligne ou sur site) s'adresse aux data scientists ainsi qu'aux personnes moins techniques qui souhaitent utiliser Auto-Keras pour automatiser le processus de sélection et d'optimisation d'un modèle d'apprentissage automatique.
A l'issue de cette formation, les participants seront capables de :
- Automatiser le processus de formation de modèles d'apprentissage automatique hautement efficaces.
- Rechercher automatiquement les meilleurs paramètres pour les modèles d'apprentissage profond.
- Construire des modèles d'apprentissage automatique très précis.
- Utiliser la puissance de l'apprentissage automatique pour résoudre des problèmes professionnels réels.
Advanced Stable Diffusion: Deep Learning for Text-to-Image Generation
21 heuresCette formation en direct avec instructeur en France (en ligne ou sur site) s'adresse aux data scientists de niveau intermédiaire à avancé, aux ingénieurs en apprentissage automatique, aux chercheurs en apprentissage profond et aux experts en vision par ordinateur qui souhaitent élargir leurs connaissances et leurs compétences en apprentissage profond pour la génération de texte à image.
À l'issue de cette formation, les participants seront en mesure de :
- Comprendre les architectures et les techniques avancées d'apprentissage profond pour la génération texte-image.
- Mettre en œuvre des modèles complexes et des optimisations pour la synthèse d'images de haute qualité.
- Optimiser les performances et l'évolutivité pour les grands ensembles de données et les modèles complexes.
- Ajuster les hyperparamètres pour une meilleure performance et généralisation du modèle.
- Intégrer Stable Diffusion avec d'autres cadres et outils d'apprentissage profond.
Introduction to Stable Diffusion for Text-to-Image Generation
21 heuresCette formation en direct (en ligne ou sur site) est destinée aux scientifiques des données, aux ingénieurs en apprentissage automatique et aux chercheurs en vision par ordinateur qui souhaitent tirer parti de Stable Diffusion pour générer des images de haute qualité pour une variété de cas d'utilisation.
À l'issue de cette formation, les participants seront en mesure de :
- Comprendre les principes de Stable Diffusion et son fonctionnement pour la génération d'images.
- Construire et entraîner des modèles Stable Diffusion pour des tâches de génération d'images.
- Appliquer Stable Diffusion à divers scénarios de génération d'images, tels que l'inpainting, l'outpainting et la traduction d'image à image.
- Optimiser les performances et la stabilité des modèles Stable Diffusion.
AlphaFold
7 heuresCette formation en direct dans France (en ligne ou sur place) s'adresse aux biologistes qui souhaitent comprendre le fonctionnement de AlphaFold et utiliser les modèles AlphaFold comme guides dans leurs études expérimentales.
A l'issue de cette formation, les participants seront capables de :
- Comprendre les principes de base de AlphaFold.
- Apprendre comment fonctionne AlphaFold.
- Apprendre à interpréter les prédictions et les résultats de AlphaFold.
Edge AI with TensorFlow Lite
14 heuresCette formation en direct dans France (en ligne ou sur site) est destinée aux développeurs de niveau intermédiaire, aux scientifiques des données et aux praticiens de l'IA qui souhaitent tirer parti de TensorFlow Lite pour les applications d'IA de pointe.
À l'issue de cette formation, les participants seront en mesure de :
- Comprendre les principes fondamentaux de TensorFlow Lite et son rôle dans l'Edge AI.
- Développer et optimiser des modèles d'IA à l'aide de TensorFlow Lite.
- Déployer des modèles TensorFlow Lite sur divers appareils périphériques.
- Utiliser des outils et des techniques pour la conversion et l'optimisation des modèles.
- Mettre en œuvre des applications pratiques d'Edge AI à l'aide de TensorFlow Lite.
TensorFlow Lite for Embedded Linux
21 heuresCette formation en <loc> ; (en ligne ou sur site) est destinée aux développeurs qui souhaitent utiliser TensorFlow Lite pour déployer des modèles d'apprentissage profond sur des appareils embarqués.
A l'issue de cette formation, les participants seront capables de :
- Installer et configurer Tensorflow Lite sur un appareil embarqué.
- Comprendre les concepts et les composants sous-jacents à TensorFlow Lite.
- Convertir les modèles existants au format TensorFlow Lite pour une exécution sur des appareils embarqués.
- Travailler dans les limites des petits appareils et de TensorFlow Lite, tout en apprenant à étendre la portée des opérations qui peuvent être exécutées.
- Déployer un modèle d'apprentissage profond sur un appareil embarqué fonctionnant sous Linux.
TensorFlow Lite for Android
21 heuresCette formation en <loc> ; (en ligne ou sur site) est destinée aux développeurs qui souhaitent utiliser TensorFlow Lite pour développer des applications mobiles dotées de capacités d'apprentissage en profondeur.
A l'issue de cette formation, les participants seront capables de :
- Installer et configurer TensorFlow Lite.
- Comprendre les principes derrière TensorFlow, l'apprentissage automatique et l'apprentissage profond.
- Charger des modèles TensorFlow sur un appareil Android.
- Activer les fonctionnalités d'apprentissage profond et d'apprentissage automatique telles que la vision par ordinateur et la reconnaissance du langage naturel dans une application mobile.
TensorFlow Lite for iOS
21 heuresCette formation en direct (en ligne ou sur site) est destinée aux développeurs qui souhaitent utiliser TensorFlow Lite pour développer des applications mobiles iOS dotées de capacités d'apprentissage en profondeur.
A l'issue de cette formation, les participants seront capables de :
- Installer et configurer TensorFlow Lite.
- Comprendre les principes derrière TensorFlow et l'apprentissage automatique sur les appareils mobiles.
- Charger des modèles TensorFlow sur un appareil iOS.
- Exécuter une application iOS capable de détecter et de classer un objet capturé par la caméra de l'appareil.
Tensorflow Lite for Microcontrollers
21 heuresCette formation en <loc> ; (en ligne ou sur site) est destinée aux ingénieurs qui souhaitent écrire, charger et exécuter des modèles d'apprentissage automatique sur de très petits appareils embarqués.
A l'issue de cette formation, les participants seront capables de :
- Installer TensorFlow Lite.
- Charger des modèles d'apprentissage automatique sur un appareil embarqué pour lui permettre de détecter la parole, de classer des images, etc.
- Ajouter l'IA aux appareils matériels sans dépendre de la connectivité réseau.
Deep Learning Neural Networks with Chainer
14 heuresCette formation en France (en ligne ou sur site) s'adresse aux chercheurs et aux développeurs qui souhaitent utiliser Chainer pour construire et entraîner des réseaux neuronaux en Python tout en rendant le code facile à déboguer.
A l'issue de cette formation, les participants seront capables de :
- Mettre en place l'environnement de développement nécessaire pour commencer à développer des modèles de réseaux neuronaux.
- Définir et mettre en œuvre des modèles de réseaux neuronaux à l'aide d'un code source compréhensible.
- Exécuter des exemples et modifier des algorithmes existants pour optimiser les modèles d'apprentissage profond tout en tirant parti des GPUs pour obtenir de hautes performances.
Distributed Deep Learning with Horovod
7 heuresCette formation en France (en ligne ou sur site) est destinée aux développeurs ou aux scientifiques des données qui souhaitent utiliser Horovod pour exécuter des formations distribuées d'apprentissage profond et le mettre à l'échelle pour l'exécuter sur plusieurs GPU en parallèle.
À la fin de cette formation, les participants seront capables de :
- Mettre en place l'environnement de développement nécessaire pour commencer à exécuter des formations d'apprentissage profond.
- Installer et configurer Horovod pour former des modèles avec TensorFlow, Keras, PyTorch et Apache MXNet.
- Mettre à l'échelle la formation à l'apprentissage profond avec Horovod pour l'exécuter sur plusieurs GPU.
Accelerating Deep Learning with FPGA and OpenVINO
35 heuresCette formation en direct avec instructeur en France (en ligne ou sur site) s'adresse aux data scientists qui souhaitent accélérer les applications d'apprentissage automatique en temps réel et les déployer à l'échelle.
À l'issue de cette formation, les participants seront en mesure de :
- Installer la boîte à outils OpenVINO.
- Accélérer une application de vision artificielle en utilisant un FPGA.
- Exécuter différentes couches CNN sur le FPGA.
- Mettre à l'échelle l'application sur plusieurs nœuds dans un cluster Kubernetes.