Plan du cours

Introduction

  • Réseaux de neurones artificiels et algorithmes basés sur les arbres de décision

Aperçu des caractéristiques de XGBoost

  • Elements d'un algorithme de renforcement du gradient
  • Accent mis sur la vitesse de calcul et les performances du modèle
  • XGBoost vs Régression Logistique, Random Forest, et Gradient Boosting standard

L'évolution des algorithmes basés sur les arbres

  • Arbres de décision, Bagging, Random Forest, Boosting, Gradient Boosting
  • Optimisation du système
  • Améliorations algorithmiques

Préparation de l'environnement

  • Installer SciPy et scikit-learn

Création d'un modèle XGBoost

  • Téléchargement d'un jeu de données
  • Résolution d'un problème de classification courant
  • Entraîner le modèle XGBoost pour la classification
  • Résoudre un problème de régression courant

Suivi des performances

  • Évaluer et rapporter les performances
  • Arrêt précoce

Représentation graphique des caractéristiques en fonction de leur importance

  • Calcul de l'importance des caractéristiques
  • Décider des variables d'entrée à conserver ou à écarter

Configurer le renforcement du gradient

  • Examiner les courbes d'apprentissage sur les ensembles de données de formation et de validation
  • Ajuster le taux d'apprentissage
  • Ajuster le nombre d'arbres

Réglage des hyperparamètres

  • Améliorer les performances d'un modèle XGBoost
  • Concevoir une expérience contrôlée pour régler les hyperparamètres
  • Recherche de combinaisons de paramètres

Création d'un pipeline

  • Incorporer un modèle XGBoost dans un pipeline d'apprentissage automatique de bout en bout
  • Réglage des hyperparamètres dans le pipeline
  • Techniques avancées de prétraitement

Résolution des problèmes

Résumé et conclusion

Pré requis

  • Expérience dans l'écriture de modèles d'apprentissage automatique

Audience

  • Scientifiques des données
  • Ingénieurs en apprentissage automatique
 14 heures

Nombre de participants


Prix par participant

Cours à venir