Plan du cours

Aperçu de l'écosystème AI GPU chinois

  • Comparaison entre Huawei Ascend, Biren et Cambricon MLU
  • CUDA vs CANN, SDK Biren et modèles BANGPy
  • Tendances industrielles et écosystèmes de fournisseurs

Préparation à la migration

  • Évaluation de votre codebase CUDA
  • Identification des plateformes cibles et des versions SDK
  • Installation de la chaîne d'outils et configuration de l'environnement

Techniques de traduction du code

  • Migration de l'accès à la mémoire CUDA et de la logique noyau
  • Coincidence des modèles grille/fil d'exécution
  • Options de traduction automatique vs manuelle

Implémentations spécifiques aux plateformes

  • Utilisation des opérateurs Huawei CANN et noyaux personnalisés
  • Pipeline de conversion SDK Biren
  • Reconstruction des modèles avec BANGPy (Cambricon)

Tests et optimisations multi-plateformes

  • Profiling d'exécution sur chaque plateforme cible
  • Ajustement de la mémoire et comparaisons d'exécutions parallèles
  • Suivi des performances et itérations

Gestion des environnements mixtes GPU

  • Déploiements hybrides avec plusieurs architectures
  • Stratégies de repli et détection du matériel
  • Niveaux d'abstraction pour la maintenabilité du code

Cas pratiques et bonnes pratiques

  • Migration des modèles vision/NLP vers Ascend ou Cambricon
  • Adaptation des pipelines de déduction sur les clusters Biren
  • Gestion des incompatibilités de versions et lacunes d'API

Récapitulation et prochaines étapes

Pré requis

  • Expérience en programmation avec CUDA ou des applications basées sur GPU
  • Compréhension des modèles de mémoire et des noyaux de calcul GPU
  • Familiarité avec les workflows de déploiement ou d'accélération de modèles AI

Public cible

  • Programmateurs GPU
  • Architectes système
  • Spécialistes du portage
 21 Heures

Nombre de participants


Prix ​​par Participant

Cours à venir

Catégories Similaires