Plan du cours

Introduction

  • Réseaux de neurones artificiels et algorithmes basés sur des arbres de décision

Aperçu des fonctionnalités de XGBoost

  • Éléments d'un algorithme de renforcement du gradient
  • Accent mis sur la vitesse de calcul et la performance du modèle
  • XGBoost vs Régression logistique, Random Forest, et Gradient Boosting standard

L'évolution des algorithmes basés sur les arbres

  • Arbres de décision, Bagging, Random Forest, Boosting, Gradient Boosting
  • Optimisation du système
  • Améliorations algorithmiques

Préparation de l'environnement

  • Installation de SciPy et de scikit-learn

Création d'un modèle XGBoost

  • Télécharger un ensemble de données
  • Résolution d'un problème de classification courant
  • Entraîner le modèle XGBoost pour la classification
  • Résoudre un problème de régression courant

Suivi des performances

  • Évaluer et rendre compte des performances
  • Arrêt précoce

Tracer les caractéristiques par importance

  • Calculer l'importance des caractéristiques
  • Décider des variables d'entrée à conserver ou à écarter

Configuration du renforcement du gradient

  • Examiner les courbes d'apprentissage sur les ensembles de données de formation et de validation
  • Ajuster le taux d'apprentissage
  • Ajuster le nombre d'arbres

Réglage des hyperparamètres

  • Améliorer les performances d'un modèle XGBoost
  • Concevoir une expérience contrôlée pour ajuster les hyperparamètres
  • Search Combinaisons de paramètres

Création d'un pipeline

  • Incorporation d'un modèle XGBoost dans un pipeline d'apprentissage automatique de bout en bout
  • Réglage des hyperparamètres dans le pipeline
  • Techniques de prétraitement avancées

Dépannage

Résumé et conclusion

Pré requis

  • Expérience dans l'écriture de modèles d'apprentissage automatique
  • .

Audience

  • Data scientists
  • Ingénieurs en apprentissage machine
 14 heures

Nombre de participants


Prix par participant