Plan du cours

Introduction à l'architecture Biren GPU

  • Présentation de Biren et ses cas d'utilisation
  • Disposition matérielle : cœurs, mémoire, clusters de calcul
  • Comparaison avec NVIDIA et AMD GPU

Configuration de l'environnement Biren Programming

  • Installation du SDK Biren et du runtime
  • Compréhension de la chaîne d'outils et du modèle compilateur
  • Structure de projet de base et processus de construction

GPU Programming avec le stack Biren

  • Modèles de thread et de blocs
  • Gestion de la mémoire et transferts de données
  • Développement et lancement des kernels

Migration depuis CUDA vers Biren

  • Techniques de traduction pour le code CUDA
  • Mappages d'API communs et adaptations
  • Ateliers et pratique de conversion du code

Débogage et profilage

  • Utilisation du débogueur et du profiler Biren
  • Identification des goulets d'étranglement
  • Modèles d'accès à la mémoire et optimisation

Techniques d'optimisation

  • Planification des threads et pipeline d'instructions
  • Déroulement de boucles et utilisation de la mémoire partagée
  • Ajustement avancé des kernels pour l'efficacité du traitement

Étude de cas et exemples d'applications

  • Formation d'un modèle avec les accélérateurs Biren
  • Migration et profilage d'un modèle de vision ou NLP
  • Comparaison des performances vs CUDA/NVIDIA

Résumé et prochaines étapes

Pré requis

  • Une compréhension de l'architecture GPU et du traitement parallèle
  • Expérience avec CUDA, OpenCL, ou des environnements de programmation similaires pour GPU
  • Familiarité avec les cadres d'apprentissage profond tels que PyTorch ou TensorFlow

Public cible

  • Développeurs HPC
  • Ingénieurs de l'infrastructure IA
  • Spécialistes de l'optimisation des performances
 21 Heures

Nombre de participants


Prix ​​par Participant

Nos clients témoignent (1)

Cours à venir

Catégories Similaires