Plan du cours

    Aperçu des réseaux de neurones et du deep learning Le concept de Machine Learning (ML) Pourquoi avons-nous besoin de réseaux de neurones et de deep learning ? Sélection de réseaux pour différents problèmes et types de données Apprentissage et validation des réseaux de neurones Comparaison de la régression logistique au réseau de neurones Réseau de neurones Inspirations biologiques du réseau de neurones Réseaux de neurones – Neuron, Perceptron et MLP (modèle de Perceptron multicouche) Apprentissage du MLP – algorithme de rétropropagation Fonctions d'activation – linéaire, sigmoïde , Tanh, Softmax Fonctions de perte appropriées à la prévision et à la classification Paramètres - taux d'apprentissage, régularisation, élan Création de réseaux de neurones dans Python Évaluation des performances des réseaux de neurones dans Python Bases des réseaux profonds Qu'est-ce que l'apprentissage en profondeur ? Architecture des réseaux profonds – Paramètres, couches, fonctions d'activation, fonctions de perte, solveurs Machines Boltzman restreintes (RBM) Auto-encodeurs Architectures de réseaux profonds Réseaux de croyance profonde (DBN) – architecture, application Auto-encodeurs Machines Boltzmann restreintes Réseau neuronal convolutif Réseau neuronal récursif Présentation du réseau neuronal récurrent des bibliothèques et des interfaces disponibles dans Python Caffee Theano Tensorflow Keras Mxnet Choisir la bibliothèque appropriée au problème Construire des réseaux profonds dans Python Choisir l'architecture appropriée au problème donné Réseaux profonds hybrides Réseau d'apprentissage – bibliothèque appropriée, définition de l'architecture Réseau de réglage – initialisation, fonctions d'activation , fonctions de perte, méthode d'optimisation Éviter le surajustement – détection des problèmes de surajustement dans les réseaux profonds, régularisation Évaluation des réseaux profonds Études de cas dans Python Reconnaissance d'images – CNN Détection d'anomalies avec des auto-encodeurs Prédiction de séries temporelles avec RNN Réduction de dimensionnalité avec Autoencoder Classification avec RBM

 

Pré requis

Une connaissance/appréciation de l'apprentissage automatique, de l'architecture des systèmes et des langages de programmation est souhaitable.

  14 heures
 

Nombre de participants


Début

Fin


Dates are subject to availability and take place between 09:30 and 16:30.
Les formations ouvertes requièrent plus de 3 participants.

Cours Similaires

Catégories Similaires