Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Plan du cours
Introduction
- Réseaux de neurones artificiels et algorithmes basés sur des arbres de décision
Aperçu des fonctionnalités de XGBoost
- Éléments d'un algorithme de renforcement du gradient
- Accent mis sur la vitesse de calcul et la performance du modèle
- XGBoost vs Régression logistique, Random Forest, et Gradient Boosting standard
L'évolution des algorithmes basés sur les arbres
- Arbres de décision, Bagging, Random Forest, Boosting, Gradient Boosting
- Optimisation du système
- Améliorations algorithmiques
Préparation de l'environnement
- Installation de SciPy et de scikit-learn
Création d'un modèle XGBoost
- Télécharger un ensemble de données
- Résolution d'un problème de classification courant
- Entraîner le modèle XGBoost pour la classification
- Résoudre un problème de régression courant
Suivi des performances
- Évaluer et rendre compte des performances
- Arrêt précoce
Tracer les caractéristiques par importance
- Calculer l'importance des caractéristiques
- Décider des variables d'entrée à conserver ou à écarter
Configuration du renforcement du gradient
- Examiner les courbes d'apprentissage sur les ensembles de données de formation et de validation
- Ajuster le taux d'apprentissage
- Ajuster le nombre d'arbres
Réglage des hyperparamètres
- Améliorer les performances d'un modèle XGBoost
- Concevoir une expérience contrôlée pour ajuster les hyperparamètres
- Search Combinaisons de paramètres
Création d'un pipeline
- Incorporation d'un modèle XGBoost dans un pipeline d'apprentissage automatique de bout en bout
- Réglage des hyperparamètres dans le pipeline
- Techniques de prétraitement avancées
Dépannage
Résumé et conclusion
Pré requis
- Expérience dans l'écriture de modèles d'apprentissage automatique .
Audience
- Data scientists
- Ingénieurs en apprentissage machine
14 heures