Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Plan du cours
Introduction
- Réseaux de neurones artificiels et algorithmes basés sur les arbres de décision
Aperçu des caractéristiques de XGBoost
- Elements d'un algorithme de renforcement du gradient
- Accent mis sur la vitesse de calcul et les performances du modèle
- XGBoost vs Régression Logistique, Random Forest, et Gradient Boosting standard
L'évolution des algorithmes basés sur les arbres
- Arbres de décision, Bagging, Random Forest, Boosting, Gradient Boosting
- Optimisation du système
- Améliorations algorithmiques
Préparation de l'environnement
- Installer SciPy et scikit-learn
Création d'un modèle XGBoost
- Téléchargement d'un jeu de données
- Résolution d'un problème de classification courant
- Entraîner le modèle XGBoost pour la classification
- Résoudre un problème de régression courant
Suivi des performances
- Évaluer et rapporter les performances
- Arrêt précoce
Représentation graphique des caractéristiques en fonction de leur importance
- Calcul de l'importance des caractéristiques
- Décider des variables d'entrée à conserver ou à écarter
Configurer le renforcement du gradient
- Examiner les courbes d'apprentissage sur les ensembles de données de formation et de validation
- Ajuster le taux d'apprentissage
- Ajuster le nombre d'arbres
Réglage des hyperparamètres
- Améliorer les performances d'un modèle XGBoost
- Concevoir une expérience contrôlée pour régler les hyperparamètres
- Recherche de combinaisons de paramètres
Création d'un pipeline
- Incorporer un modèle XGBoost dans un pipeline d'apprentissage automatique de bout en bout
- Réglage des hyperparamètres dans le pipeline
- Techniques avancées de prétraitement
Résolution des problèmes
Résumé et conclusion
Pré requis
- Expérience dans l'écriture de modèles d'apprentissage automatique
Audience
- Scientifiques des données
- Ingénieurs en apprentissage automatique
14 heures