Plan du cours
Introduction à la containerisation accélérée par GPU
- Comprendre l'utilisation du GPU dans les workflows d'apprentissage profond
- Comment Docker supporte les charges de travail basées sur le GPU
- Les principales considérations sur les performances
Installation et configuration du kit de développement NVIDIA Container Toolkit
- Configuration des pilotes et de la compatibilité CUDA
- Validation de l'accès au GPU à l'intérieur des conteneurs
- Configuration de l'environnement d'exécution
Création d'images Docker activées par GPU
- Utilisation d'images de base CUDA
- Empaquetage des frameworks d'IA dans des conteneurs prêts pour le GPU
- Gestion des dépendances pour l'entraînement et l'inférence
Exécution de charges de travail d'IA accélérées par GPU
- Exécution de jobs d'entraînement utilisant des GPUs
- Gestion des charges de travail multi-GPU
- Surveillance de l'utilisation du GPU
Optimisation des performances et allocation des ressources
- Limitation et isolation des ressources GPU
- Optimisation de la mémoire, des tailles de lots et du placement des dispositifs
- Tuning des performances et diagnostics
Inférence containerisée et service de modèles
- Création de conteneurs prêts pour l'inférence
- Service de charges de travail à fort débit sur des GPUs
- Intégration des exécuteurs de modèles et des APIs
Évolutivité des charges de travail GPU avec Docker
- Stratégies pour l'entraînement distribué sur GPU
- Évolutivité des microservices d'inférence
- Coordination de systèmes d'IA multi-conteneurs
Sécurité et fiabilité pour les conteneurs activés par GPU
- Assurer un accès au GPU sécurisé dans des environnements partagés
- Renforcement de l'images des conteneurs
- Gestion des mises à jour, versions et compatibilité
Résumé et étapes suivantes
Pré requis
- Une compréhension des principes de base de l'apprentissage profond
- Une expérience avec Python et les frameworks d'IA courants
- Une familiarité avec les concepts de base de la containerisation
Public cible
- Ingénieurs en apprentissage profond
- Équipes de recherche et développement
- Formateurs de modèles d'IA
Nos clients témoignent (5)
OC est nouveau pour nous et nous avons beaucoup appris, les laboratoires étaient excellents.
sharkey dollie
Formation - OpenShift 4 for Administrators
Traduction automatique
Très informatif et direct au point. Pratique pratique (Note: "pratique pratique" is a literal translation but may sound redundant in French. A better phrasing could be "Pratique appliquée". However, since the guideline specifies not to modify or add content beyond what is provided, the above translation adheres strictly to the given text.)
Gil Matias - FINEOS
Formation - Introduction to Docker
Traduction automatique
Ateliers et discussions techniques.
Dinesh Panchal - AXA XL
Formation - Advanced Docker
Traduction automatique
Il a fourni une bonne base pour Docker et Kubernetes.
Stephen Dowdeswell - Global Knowledge Networks UK
Formation - Docker (introducing Kubernetes)
Traduction automatique
J'ai surtout apprécié les connaissances du formateur.
- Inverso Gesellschaft fur innovative Versicherungssoftware mbH
Formation - Docker, Kubernetes and OpenShift for Developers
Traduction automatique