Merci d'avoir envoyé votre demande ! Un membre de notre équipe vous contactera sous peu.
Merci d'avoir envoyé votre réservation ! Un membre de notre équipe vous contactera sous peu.
Plan du cours
Introduction à l'architecture Biren GPU
- Présentation de Biren et ses cas d'utilisation
- Disposition matérielle : cœurs, mémoire, clusters de calcul
- Comparaison avec NVIDIA et AMD GPU
Configuration de l'environnement Biren Programming
- Installation du SDK Biren et du runtime
- Compréhension de la chaîne d'outils et du modèle compilateur
- Structure de projet de base et processus de construction
GPU Programming avec le stack Biren
- Modèles de thread et de blocs
- Gestion de la mémoire et transferts de données
- Développement et lancement des kernels
Migration depuis CUDA vers Biren
- Techniques de traduction pour le code CUDA
- Mappages d'API communs et adaptations
- Ateliers et pratique de conversion du code
Débogage et profilage
- Utilisation du débogueur et du profiler Biren
- Identification des goulets d'étranglement
- Modèles d'accès à la mémoire et optimisation
Techniques d'optimisation
- Planification des threads et pipeline d'instructions
- Déroulement de boucles et utilisation de la mémoire partagée
- Ajustement avancé des kernels pour l'efficacité du traitement
Étude de cas et exemples d'applications
- Formation d'un modèle avec les accélérateurs Biren
- Migration et profilage d'un modèle de vision ou NLP
- Comparaison des performances vs CUDA/NVIDIA
Résumé et prochaines étapes
Pré requis
- Une compréhension de l'architecture GPU et du traitement parallèle
- Expérience avec CUDA, OpenCL, ou des environnements de programmation similaires pour GPU
- Familiarité avec les cadres d'apprentissage profond tels que PyTorch ou TensorFlow
Public cible
- Développeurs HPC
- Ingénieurs de l'infrastructure IA
- Spécialistes de l'optimisation des performances
21 Heures