Plan du cours
Introduction à la containerisation accélérée par GPU
- Comprendre l'utilisation du GPU dans les workflows d'apprentissage profond
- Comment Docker supporte les charges de travail basées sur le GPU
- Les principales considérations sur les performances
Installation et configuration du kit de développement NVIDIA Container Toolkit
- Configuration des pilotes et de la compatibilité CUDA
- Validation de l'accès au GPU à l'intérieur des conteneurs
- Configuration de l'environnement d'exécution
Création d'images Docker activées par GPU
- Utilisation d'images de base CUDA
- Empaquetage des frameworks d'IA dans des conteneurs prêts pour le GPU
- Gestion des dépendances pour l'entraînement et l'inférence
Exécution de charges de travail d'IA accélérées par GPU
- Exécution de jobs d'entraînement utilisant des GPUs
- Gestion des charges de travail multi-GPU
- Surveillance de l'utilisation du GPU
Optimisation des performances et allocation des ressources
- Limitation et isolation des ressources GPU
- Optimisation de la mémoire, des tailles de lots et du placement des dispositifs
- Tuning des performances et diagnostics
Inférence containerisée et service de modèles
- Création de conteneurs prêts pour l'inférence
- Service de charges de travail à fort débit sur des GPUs
- Intégration des exécuteurs de modèles et des APIs
Évolutivité des charges de travail GPU avec Docker
- Stratégies pour l'entraînement distribué sur GPU
- Évolutivité des microservices d'inférence
- Coordination de systèmes d'IA multi-conteneurs
Sécurité et fiabilité pour les conteneurs activés par GPU
- Assurer un accès au GPU sécurisé dans des environnements partagés
- Renforcement de l'images des conteneurs
- Gestion des mises à jour, versions et compatibilité
Résumé et étapes suivantes
Pré requis
- Une compréhension des principes de base de l'apprentissage profond
- Une expérience avec Python et les frameworks d'IA courants
- Une familiarité avec les concepts de base de la containerisation
Public cible
- Ingénieurs en apprentissage profond
- Équipes de recherche et développement
- Formateurs de modèles d'IA
Nos clients témoignent (5)
Il a expliqué tout, pas seulement les notions de k8s.
Stefan Voinea - EMAG IT Research S.R.L
Formation - Certified Kubernetes Application Developer (CKAD) - exam preparation
Traduction automatique
Profondeur des connaissances du formateur
Grant Miller - BMW
Formation - Certified Kubernetes Administrator (CKA) - exam preparation
Traduction automatique
Tres informatif et concis. Pratique pratique.
Gil Matias - FINEOS
Formation - Introduction to Docker
Traduction automatique
Contenu excellent
Alan Kavanagh - FINEOS Corporation Ltd
Formation - Docker from Basic to Advanced
Traduction automatique
Labos et discussions techniques.
Dinesh Panchal - AXA XL
Formation - Advanced Docker
Traduction automatique