Les cours de formation GPU (unité de traitement graphique) en direct, en ligne ou sur site, animés par un instructeur, démontrent, par le biais de discussions interactives et de pratiques pratiques, les principes fondamentaux du GPU et la manière de programmer les GPU. La formation GPU est disponible en tant que "formation en direct en ligne" ou "formation en direct sur site". La formation en direct en ligne (alias « formation en direct à distance ») est effectuée au moyen d'un ordinateur de bureau interactif à distance . La formation en direct sur site peut être effectuée localement dans les locaux du client en Nantes ou dans les centres de formation d'entreprise NobleProg en Nantes. NobleProg - Votre fournisseur de formation local
Nantes, Zenith
NobleProg Nantes, 4 rue Edith Piaf, Saint-Herblain, france, 44821
Sur la zone du Parc d'Ar Mor, proche du Zénith.
Voiture : depuis le périphérique, sortie Porte de Chézine > Boulevard du Zenith > Esplanade Georges Brassens (restaurants) > Rue Edith Piaf à votre droite. Depuis la N444 (Nantes > Lorient), sortie #1 > boulevard Marcel Paul > Rue Edith Piaf à votre droite.
Parking Zénith P1 (gratuit). Une fois garé, tournez le dos au Zénith : l’immeuble Euptouyou est un des trois bâtiments reconnaissables à leur bardage en zinc, celui de gauche (Immeuble C).
Vélo : parking couvert gratuit.
Transports en commun :
Tramway R1, arrêt Schoelcher + 10 mn à pied à travers le centre commercial Atlantis
Tramway R1, arrêt François Mitterrand + bus 50, arrêt Saulzaie ou bus 71, arrêt Zénith
Tramway R3, arrêt Marcel Paul + bus 50, arrêt Saulzaie
Chronobus C6, arrêt Hermeland + bus 71, arrêt Zénith
Bus : lignes 50 (arrêt Saulzaie) ou 71 (arrêt Zénith)
La famille de processeurs Huawei Ascend est conçue pour une inférence et un entraînement de haute performance.
Cette formation en direct (en ligne ou sur site) dispensée par un formateur est destinée aux ingénieurs AI intermédiaires et aux scientifiques des données qui souhaitent développer et optimiser des modèles de réseau neuronal à l'aide du plateau Ascend de Huawei et du kit CANN.
À la fin de cette formation, les participants seront capables de :
Configurer et paramétrer l'environnement de développement CANN.
Développer des applications IA en utilisant MindSpore et CloudMatrix workflows.
Optimiser les performances sur les unités de traitement Ascend NPUs grâce aux opérateurs personnalisés et à la tiling.
Déployer des modèles dans des environnements de bord ou cloud.
Format du cours permettant d'évaluer les participants
Cours interactif et discussion.
Utilisation pratique de Huawei Ascend et du kit CANN dans des applications d'exemple.
Exercices guidés axés sur la construction, l'entraînement et le déploiement du modèle.
Options de personnalisation du cours
Pour demander une formation personnalisée basée sur votre infrastructure ou vos jeux de données, veuillez nous contacter pour organiser cela.
La pile d'IA de Huawei — allant de l'CANN SDK de niveau basique au cadre MindSpore de niveau élevé — offre un environnement intégré pour le développement et la mise en œuvre de l'IA, optimisé pour les matériels Ascend.
Cette formation dispensée par un instructeur (en ligne ou sur site) s'adresse aux professionnels techniques débutants à intermédiaires qui souhaitent comprendre comment les composants CANN et MindSpore fonctionnent ensemble pour soutenir la gestion du cycle de vie de l'IA et les décisions d’infrastructure.
À la fin de cette formation, les participants seront capables de :
Comprendre l'architecture en couches de la pile de calcul Huawei pour IA.
Identifier comment CANN soutient l'optimisation des modèles et leur déploiement au niveau matériel.
Évaluer le cadre MindSpore et sa chaîne d'outils en relation avec les alternatives de l’industrie.
Positionner la pile IA de Huawei dans les environnements entreprise ou cloud/dans les locaux.
Format du cours permettant d'évaluer les participants
Cours interactif et discussion.
Démonstrations de systèmes en direct et parcours basés sur des cas concrets.
Ateliers guidés optionnels sur le flux de modèles de MindSpore à CANN.
Options de Personnalisation du Cours
Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour en faire la demande.
Cette formation en Nantes (en ligne ou sur site) est destinée aux développeurs de niveau débutant à intermédiaire qui souhaitent utiliser OpenACC pour programmer des dispositifs hétérogènes et exploiter leur parallélisme.
A l'issue de cette formation, les participants seront capables de :
Configurer un environnement de développement comprenant le SDK OpenACC, un périphérique supportant OpenACC et du Visual Studio code.
Créer un programme OpenACC de base qui effectue une addition vectorielle sur l'appareil et récupère les résultats de la mémoire de l'appareil.
Utilisez les directives et clauses OpenACC pour annoter le code et spécifier les régions parallèles, le mouvement des données et les options d'optimisation.
Utiliser l'API OpenACC pour demander des informations sur les périphériques, définir leur numéro, gérer les erreurs et synchroniser les événements.
Utiliser les bibliothèques OpenACC et les fonctions d'interopérabilité pour intégrer OpenACC à d'autres modèles de programmation, tels que CUDA, OpenMP et MPI.
Utiliser les outils OpenACC pour profiler et déboguer les programmes OpenACC et identifier les goulets d'étranglement et les opportunités en matière de performances.
Optimiser les programmes OpenACC en utilisant des techniques telles que la localité des données, la fusion des boucles, la fusion des noyaux et l'auto-tuning.
Le SDK CANN (Compute Architecture pour Neural Networks) fournit des outils puissants de déploiement et d'optimisation pour les applications AI en temps réel dans la vision par ordinateur et le traitement du langage naturel, en particulier sur le matériel Huawei Ascend.
Cette formation interactive (en ligne ou sur site) est destinée aux praticiens intermédiaires de l'IA qui souhaitent construire, déployer et optimiser des modèles de vision et de langage à l'aide du SDK CANN pour des cas d'utilisation en production.
À la fin de cette formation, les participants seront capables de :
Déployer et optimiser des modèles CV et NLP à l’aide de CANN et AscendCL.
Utiliser les outils CANN pour convertir les modèles et les intégrer dans des pipelines en temps réel.
Optimiser les performances d'inférence pour des tâches telles que la détection, la classification et l'analyse de sentiment.
Créer des pipelines CV/NLP en temps réel pour des scénarios de déploiement basés sur le bord ou dans le cloud.
Format de la formation
Cours interactif et démonstrations pratiques.
Atelier pratique avec déploiement de modèles et profilage des performances.
Conception en direct de pipelines à partir d’utilisations réelles CV et NLP.
Options de personnalisation de la formation
Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
Cette formation en direct avec instructeur en Nantes (en ligne ou sur site) s'adresse aux développeurs de niveau débutant à intermédiaire qui souhaitent apprendre les bases de la programmation GPU et les principaux cadres et outils pour le développement d'applications GPU.
A l'issue de cette formation, les participants seront capables de : Comprendre la différence entre le CPU et l'informatique GPU ainsi que les avantages et les défis de la programmation GPU.
Choisir le cadre et l'outil appropriés pour leur application GPU.
Créer un programme GPU de base qui effectue une addition vectorielle en utilisant un ou plusieurs cadres et outils.
Utiliser les API, langages et bibliothèques respectifs pour demander des informations sur le périphérique, allouer et désallouer la mémoire du périphérique, copier des données entre l'hôte et le périphérique, lancer des noyaux et synchroniser des threads.
Utiliser les espaces mémoire respectifs, tels que global, local, constant et privé, pour optimiser les transferts de données et les accès à la mémoire.
Utiliser les modèles d'exécution respectifs, tels que les éléments de travail, les groupes de travail, les threads, les blocs et les grilles, pour contrôler le parallélisme.
Déboguer et tester les programmes GPU à l'aide d'outils tels que CodeXL, CUDA-GDB, CUDA-MEMCHECK et NVIDIA Nsight.
Optimiser les programmes GPU à l'aide de techniques telles que le coalescing, la mise en cache, le prefetching et le profilage.
CANN TIK (Tensor Instruction Kernel) et Apache TVM permettent une optimisation et une personnalisation avancées des opérateurs de modèles IA pour Huawei Ascend matériel.
Cette formation en direct menée par un formateur (en ligne ou sur site) s'adresse aux développeurs systèmes de niveau avancé qui souhaitent créer, déployer et ajuster des opérateurs personnalisés pour les modèles IA à l'aide du modèle de programmation TIK de CANN et de l'intégration du compilateur TVM.
À la fin de cette formation, les participants seront en mesure de :
Écrire et tester des opérateurs IA personnalisés à l'aide du TIK DSL pour les processeurs Ascend.
Intégrer les opérations personnalisées dans le runtime CANN et le graphe d'exécution.
Utiliser TVM pour l'ordonnancement des opérateurs, l'autotuning et le benchmarking.
Déboguer et optimiser les performances au niveau de l'instruction pour des schémas de calcul personnalisés.
Format du cours permettant d'évaluer les participants
Cours interactif et démonstration.
Codage pratique des opérateurs en utilisant les pipelines TIK et TVM.
Tests et ajustements sur du matériel Ascend ou des simulateurs.
Options de personnalisation du cours
Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour faire les arrangements.
Cette formation en direct (en ligne ou sur site) est destinée aux développeurs débutants à intermédiaires qui souhaitent utiliser différents frameworks pour la GPU programmation et comparer leurs fonctionnalités, performances et compatibilité.
À l'issue de cette formation, les participants seront capables de :
Configurer un environnement de développement qui inclut le SDK OpenCL, le Toolkit CUDA, la plateforme ROCm, un dispositif compatible avec OpenCL, CUDA ou ROCm, et Visual Studio Code.
Créer une programme de base en GPU qui effectue l'addition vectorielle en utilisant OpenCL, CUDA et ROCm, et comparer la syntaxe, la structure et l'exécution de chaque framework.
Utiliser les API respectives pour interroger les informations du dispositif, allouer et libérer la mémoire de dispositif, copier des données entre hôte et dispositif, lancer des noyaux et synchroniser les threads.
Écrire des noyaux utilisant les langages respectifs qui s'exécutent sur le dispositif et manipulent les données.
Utiliser les fonctions, variables et bibliothèques intégrées respectives pour effectuer des tâches et opérations courantes.
Utiliser les espaces mémoires respectifs, comme global, local, constant et privé, pour optimiser les transferts de données et l'accès à la mémoire.
Utiliser les modèles d'exécution respectifs pour contrôler les threads, les blocs et les grilles qui définissent le parallélisme.
Déboguer et tester des programmes GPU en utilisant des outils tels que CodeXL, CUDA-GDB, CUDA-MEMCHECK et NVIDIA Nsight.
Optimiser les programmes GPU en utilisant des techniques telles que la cohérence, le mise en cache, la préfetching et le profilage.
CloudMatrix est la plateforme unifiée de développement et déploiement IA de Huawei conçue pour prendre en charge des pipelines d'inférence évolutifs et de production.
Cette formation en direct (en ligne ou sur site) animée par un instructeur s'adresse aux professionnels de l'IA débutants à intermédiaires qui souhaitent déployer et surveiller des modèles IA en utilisant la plateforme CloudMatrix avec une intégration CANN et MindSpore.
À la fin de cette formation, les participants seront capables de :
Utiliser CloudMatrix pour l'emballage, le déploiement et le service des modèles.
Convertir et optimiser des modèles pour les puces Ascend.
Mettre en place des pipelines pour des tâches d'inférence en temps réel et par lots.
Surveiller les déploiements et ajuster les performances dans un environnement de production.
Format du cours permettant d'évaluer les participants
Cours interactif et discussion.
Utilisation pratique de CloudMatrix avec des scénarios de déploiement réels.
Exercices guidés axés sur la conversion, l'optimisation et l'échelle.
Options de personnalisation du cours
Pour demander une formation personnalisée pour ce cours basée sur votre infrastructure IA ou environnement cloud, veuillez nous contacter pour en faire la demande.
Le kit Ascend CANN de Huawei permet d'effectuer des inférences puissantes sur les appareils de bord tels que le Ascend 310. CANN fournit des outils essentiels pour compiler, optimiser et déployer des modèles où la puissance de calcul et la mémoire sont limitées.
Cette formation en direct (en ligne ou sur site) est destinée aux développeurs et intégrateurs d'IA intermédiaires qui souhaitent déployer et optimiser des modèles sur les appareils de bord Ascend en utilisant la chaîne d'outils CANN.
À la fin de cette formation, les participants seront capables de :
Préparer et convertir des modèles IA pour le Ascend 310 en utilisant les outils CANN.
Construire des pipelines d'inférence légers à l'aide de MindSpore Lite et AscendCL.
Optimiser la performance du modèle pour des environnements avec une puissance de calcul et une mémoire limitées.
Déployer et surveiller les applications IA dans des cas d'utilisation réels en bordure.
Format de la formation
Cours interactif et démonstration.
Travail pratique avec des modèles spécifiques au bord et des scénarios.
Exemples de déploiement en direct sur du matériel virtuel ou physique en bordure.
Options de personnalisation de la formation
Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
Cette formation en Nantes (en ligne ou sur site) s'adresse aux développeurs de niveau débutant à intermédiaire qui souhaitent installer et utiliser ROCm sur Windows pour programmer les AMD GPUs et exploiter leur parallélisme.
A l'issue de cette formation, les participants seront capables de :
Configurer un environnement de développement comprenant la plate-forme ROCm, un code AMD GPU et Visual Studio sur Windows.
Créer un programme ROCm de base qui effectue une addition vectorielle sur le GPU et récupère les résultats de la mémoire GPU.
Utiliser l'API ROCm pour demander des informations sur le périphérique, allouer et désallouer la mémoire du périphérique, copier des données entre l'hôte et le périphérique, lancer des noyaux et synchroniser des threads.
Utiliser le langage HIP pour écrire des noyaux qui s'exécutent sur la mémoire GPU et manipulent des données.
Utiliser les fonctions intégrées, les variables et les bibliothèques HIP pour effectuer des tâches et des opérations courantes.
Utiliser les espaces mémoire ROCm et HIP, tels que les espaces globaux, partagés, constants et locaux, pour optimiser les transferts de données et les accès à la mémoire.
Utiliser les modèles d'exécution ROCm et HIP pour contrôler les threads, les blocs et les grilles qui définissent le parallélisme.
Déboguer et tester les programmes ROCm et HIP à l'aide d'outils tels que ROCm Debugger et ROCm Profiler.
Optimiser les programmes ROCm et HIP en utilisant des techniques telles que le coalescing, le caching, le prefetching et le profiling.
Cette formation en Nantes (en ligne ou sur site) s'adresse aux développeurs de niveau débutant à intermédiaire qui souhaitent utiliser ROCm et HIP pour programmer les AMD GPUs et exploiter leur parallélisme.
A la fin de cette formation, les participants seront capables de :
Mettre en place un environnement de développement comprenant la plate-forme ROCm, un code AMD GPU et Visual Studio.
Créer un programme ROCm de base qui effectue une addition vectorielle sur le GPU et récupère les résultats de la mémoire GPU.
Utiliser l'API ROCm pour demander des informations sur le périphérique, allouer et désallouer la mémoire du périphérique, copier des données entre l'hôte et le périphérique, lancer des noyaux et synchroniser des threads.
Utiliser le langage HIP pour écrire des noyaux qui s'exécutent sur la mémoire GPU et manipulent des données.
Utiliser les fonctions intégrées, les variables et les bibliothèques HIP pour effectuer des tâches et des opérations courantes.
Utiliser les espaces mémoire ROCm et HIP, tels que les espaces globaux, partagés, constants et locaux, pour optimiser les transferts de données et les accès à la mémoire.
Utiliser les modèles d'exécution ROCm et HIP pour contrôler les threads, les blocs et les grilles qui définissent le parallélisme.
Déboguer et tester les programmes ROCm et HIP à l'aide d'outils tels que ROCm Debugger et ROCm Profiler.
Optimiser les programmes ROCm et HIP en utilisant des techniques telles que le coalescing, le caching, le prefetching et le profiling.
CANN (Architecture de calcul pour Neural Networks) est un kit d'outils de calcul AI de Huawei utilisé pour compiler, optimiser et déployer des modèles IA sur les processeurs Ascend AI.
Cette formation en direct, dirigée par un formateur (en ligne ou sur site), s’adresse aux développeurs IA débutants qui souhaitent comprendre comment CANN s'intègre dans le cycle de vie du modèle, depuis l'entraînement jusqu'au déploiement, et comment il fonctionne avec des cadres comme MindSpore, TensorFlow, et PyTorch.
À la fin de cette formation, les participants seront capables de :
Comprendre le but et l'architecture du kit d'outils CANN.
Configurer un environnement de développement avec CANN et MindSpore.
Convertir et déployer un modèle IA simple sur la matériel Ascend.
Acquérir une connaissance fondamentale pour des projets futurs d'optimisation ou d'intégration CANN.
Format du cours permettant d'évaluer les participants
Cours interactif et discussion.
Ateliers pratiques avec le déploiement de modèles simples.
Présentation étape par étape de la chaîne d'outils CANN et des points d'intégration.
Options de personnalisation du cours
Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour en faire la demande.
Ascend, Biren et Cambricon sont des plateformes de matériel IA leaders en Chine, chacune offrant des outils uniques d'accélération et de profilage pour les charges de travail AI à l'échelle de production.
Cette formation en direct dirigée par un formateur (en ligne ou sur site) s'adresse aux ingénieurs高级AI基础设施和性能工程师,他们希望在多个中国AI芯片平台上优化模型推理和训练工作流。
CANN SDK (Architecture de calcul pour Neural Networks) est la base de calcul IA de Huawei qui permet aux développeurs d'affiner et d'optimiser les performances des réseaux neuronaux déployés sur les processeurs AI Ascend.
Cette formation en direct animée par un instructeur (en ligne ou sur site) s’adresse aux développeurs et ingénieurs systèmes chevronnés qui souhaitent optimiser les performances d'inférence en utilisant l'ensemble avancé d'outils de CANN, notamment le Graph Engine, TIK et le développement d'opérateurs personnalisés.
À la fin de cette formation, les participants seront capables de :
Comprendre l’architecture en temps réel de CANN et son cycle de vie des performances.
Utiliser des outils de profilage et le Graph Engine pour l'analyse et l'optimisation des performances.
Développer et optimiser des opérateurs personnalisés en utilisant TIK et TVM.
Résoudre les goulets d'étranglement de mémoire et améliorer la performance du modèle.
Format de la formation
Cours interactif et discussion.
Ateliers pratiques avec un profilage en temps réel et l'ajustement des opérateurs.
Exercices d’optimisation à l’aide de déploiements de cas particuliers.
Options de personnalisation du cours
Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour en faire la demande.
Les architectures chinoises GPU telles que Huawei Ascend, Biren et Cambricon MLUs offrent des alternatives à CUDA adaptées aux marchés locaux de l'IA et du calcul haute performance.
Cette formation en direct (en ligne ou sur site) dispensée par un formateur est destinée aux programmeurs avancés GPU et aux spécialistes d'infrastructure qui souhaitent migrer et optimiser des applications CUDA existantes pour leur déploiement sur des plateformes matérielles chinoises.
À la fin de cette formation, les participants seront capables de :
Évaluer la compatibilité des charges de travail CUDA existantes avec les alternatives à base de puces chinoises.
Migrer des bases de code CUDA vers Huawei CANN, Biren SDK et environnements Cambricon BANGPy.
Comparer les performances et identifier les points d'optimisation sur différents plateformes.
Aborder les défis pratiques du support inter-architecture et du déploiement.
Format de la formation
Cours interactif et discussion.
Laboratoires pratiques de traduction de code et de comparaison des performances.
Exercices guidés axés sur les stratégies d'adaptation multi-GPU.
Options de personnalisation du cours
Pour demander une formation personnalisée basée sur votre plateforme ou projet CUDA, veuillez nous contacter pour organiser cela.
Cette formation en direct avec instructeur en Nantes (en ligne ou sur site) s'adresse aux développeurs de niveau débutant à intermédiaire qui souhaitent utiliser CUDA pour programmer les NVIDIA GPU et exploiter leur parallélisme.
A l'issue de cette formation, les participants seront capables de :
Configurer un environnement de développement comprenant CUDA Toolkit, un NVIDIA GPU et un code Visual Studio.
Créer un programme CUDA de base qui effectue une addition vectorielle sur le GPU et récupère les résultats dans la mémoire du GPU.
Utiliser l'API CUDA pour demander des informations sur les périphériques, allouer et désallouer la mémoire des périphériques, copier des données entre l'hôte et le périphérique, lancer des noyaux et synchroniser des threads.
Utiliser le langage CUDA C/C++ pour écrire des noyaux qui s'exécutent sur la mémoire GPU et manipulent des données.
Utiliser les fonctions intégrées, les variables et les bibliothèques CUDA pour effectuer des tâches et des opérations courantes.
Utiliser les espaces mémoire CUDA, tels que les espaces globaux, partagés, constants et locaux, pour optimiser les transferts de données et les accès à la mémoire.
Utiliser le modèle d'exécution CUDA pour contrôler les threads, les blocs et les grilles qui définissent le parallélisme.
Déboguer et tester les programmes CUDA à l'aide d'outils tels que CUDA-GDB, CUDA-MEMCHECK et NVIDIA Nsight.
Optimiser les programmes CUDA à l'aide de techniques telles que le coalescing, la mise en cache, le prefetching et le profilage.
CANN (Compute Architecture for Neural Networks) est la pile de calcul IA de Huawei pour déployer et optimiser les modèles d'IA sur des processeurs Ascend AI.
Cette formation en direct, dirigée par un instructeur (en ligne ou sur site), s'adresse aux développeurs et ingénieurs intermédiaires en IA qui souhaitent déployer efficacement des modèles d'IA formés sur la matériel Huawei Ascend à l'aide du kit de outils CANN et d'outils tels que MindSpore, TensorFlow, ou PyTorch.
À la fin de cette formation, les participants pourront :
Comprendre l'architecture CANN et son rôle dans le pipeline de déploiement IA.
Convertir et adapter des modèles de cadres populaires vers des formats compatibles Ascend.
Utiliser des outils comme ATC, OM model conversion, et MindSpore pour l'inférence à la périphérie et dans le cloud.
Diagnostiquer les problèmes de déploiement et optimiser les performances sur du matériel Ascend.
Format de la formation
Cours interactif et démonstration.
Travail pratique en laboratoire avec des outils CANN et simulateurs ou appareils Ascend.
Scénarios de déploiement pratiques basés sur des modèles IA du monde réel.
Options de Personnalisation du Cours
Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour en faire la demande.
Les accélérateurs Biren AI sont des GPU de haute performance conçus pour les charges de travail en IA et HPC, avec un support pour l'entraînement et l'inférence à grande échelle.
Cette formation en direct (en ligne ou sur site) animée par un formateur est destinée aux développeurs intermédiaires à avancés qui souhaitent programmer et optimiser des applications en utilisant la pile GPU propriétaire de Biren, avec des comparaisons pratiques avec les environnements basés sur CUDA.
À la fin de cette formation, les participants seront capables de :
Comprendre l'architecture et la hiérarchie mémoire Biren GPU.
Mettre en place l'environnement de développement et utiliser le modèle de programmation Biren.
Traduire et optimiser des codes au style CUDA pour les plateformes Biren.
Appliquer des techniques d'ajustement de performance et de débogage.
Format du cours permettant d'évaluer les participants
Cours interactif et discussion.
Utilisation pratique de la SDK Biren dans des charges de travail GPU d'exemple.
Exercices guidés axés sur le portage et l'ajustement de performance.
Options de personnalisation du cours
Pour demander une formation personnalisée pour ce cours basée sur votre pile d'applications ou vos besoins d'intégration, veuillez nous contacter pour en faire la demande.
Les Cambricon MLUs (Machine Learning Unités) sont des puces AI spécialisées optimisées pour l'inférence et la formation dans les scénarios de périphérie et de centre de données.
Cette formation en direct (en ligne ou sur site), animée par un formateur, s'adresse aux développeurs intermédiaires souhaitant construire et déployer des modèles AI à l'aide du cadre BANGPy et du SDK Neuware sur le matériel Cambricon MLU.
À la fin de cette formation, les participants seront capables de :
Configurer et configurer les environnements de développement BANGPy et Neuware.
Développer et optimiser des modèles basés sur Python et C++ pour Cambricon MLUs.
Déployer des modèles vers des appareils de périphérie et de centre de données exécutant le runtime Neuware.
Intégrer les flux de travail ML avec des fonctionnalités d'accélération spécifiques à MLU.
Format du cours permettant d'évaluer les participants
Cours interactifs et discussions.
Utilisation pratique de BANGPy et Neuware pour le développement et le déploiement.
Exercices guidés axés sur l'optimisation, l'intégration et les tests.
Options de personnalisation du cours
Pour demander une formation personnalisée pour ce cours basée sur votre modèle d'appareil Cambricon ou votre cas d'utilisation, veuillez nous contacter pour organiser cela.
Introduction à Cambricon et à l'architecture MLU
Aperçu de la gamme de puces AI de Cambricon
Architecture MLU et pipeline d'instructions
Types de modèles pris en charge et cas d'utilisation
Installation du chaînon de développement
Installation de BANGPy et du SDK Neuware
Configuration de l'environnement pour Python et C++
Compatibilité des modèles et prétraitement
Développement de modèles avec BANGPy
Gestion de la structure et de la forme du tenseur
Construction du graphe de calcul
Soutien aux opérations personnalisées dans BANGPy
Déploiement avec le runtime Neuware
Conversion et chargement des modèles
Contrôle d'exécution et d'inférence
Pratiques de déploiement pour périphérie et centre de données
Optimisation des performances
Mappage mémoire et réglage par couche
Suivi d'exécution et profilage
Bouchons courants et corrections
Intégration de MLU dans les applications
Utilisation des API Neuware pour l'intégration d'applications
Soutien au streaming et aux modèles multiples
Scénarios d'inférence hybride CPU-MLU
Projet de bout en bout et Use Case
Laboratoire : déploiement d'un modèle vision ou NLP
Inférence périphérique avec intégration BANGPy
Test de précision et de débit
Récapitulatif et prochaines étapes
Compréhension des structures de modèles d'apprentissage automatique
Expérience avec Python et/ou C++
Familiarité avec les concepts de déploiement et d'accélération des modèles
Audience
Développeurs AI embarqués
Ingénieurs ML déployant sur périphérie ou centre de données
Développeurs travaillant avec l'infrastructure AI chinoise
Cette formation en direct avec instructeur à Nantes (en ligne ou sur site) s'adresse aux administrateurs système débutants et aux professionnels de l'informatique qui souhaitent installer, configurer, gérer et dépanner les environnements CUDA.
A l'issue de cette formation, les participants seront capables de :
Comprendre l'architecture, les composants et les capacités de CUDA.
Installer et configurer les environnements CUDA.
Gérer et optimiser les ressources CUDA.
Déboguer et résoudre les problèmes CUDA les plus courants.
Ce formation en direct, dirigée par un formateur (en ligne ou sur site), s'adresse aux développeurs de niveau débutant à intermédiaire qui souhaitent utiliser OpenCL pour programmer des dispositifs hétérogènes et exploiter leur parallélisme.
À la fin de cette formation, les participants seront capables de :
Configurer un environnement de développement incluant le SDK OpenCL, un dispositif compatible avec OpenCL et Visual Studio Code.
Créer un programme de base en OpenCL qui effectue une addition vectorielle sur le dispositif et récupère les résultats à partir de la mémoire du dispositif.
Utiliser l'API OpenCL pour interroger les informations sur le dispositif, créer des contextes, des files d'ordres, des tampons, des noyaux et des événements.
Écrire des noyaux en utilisant le langage C de OpenCL qui s'exécutent sur le dispositif et manipulent les données.
Utiliser les fonctions intégrées, extensions et bibliothèques de OpenCL pour effectuer des tâches et opérations courantes.
Utiliser les modèles de mémoire hôte et dispositif en OpenCL pour optimiser les transferts de données et l'accès à la mémoire.
Utiliser le modèle d'exécution en OpenCL pour contrôler les éléments de travail, les groupes de travaux et les plages ND.
Déboguer et tester des programmes en OpenCL à l'aide d'outils tels que CodeXL, Intel VTune et NVIDIA Nsight.
Optimiser les programmes en OpenCL en utilisant des techniques telles que la vectorisation, le déroulage de boucles, la mémoire locale et le profiling.
Cette formation dispensée par un instructeur en direct à Nantes (en ligne ou sur site) s'adresse aux développeurs de niveau intermédiaire qui souhaitent utiliser CUDA pour créer des applications Python qui s'exécutent en parallèle sur les NVIDIA GPU.
A l'issue de cette formation, les participants seront capables de :
Utiliser le compilateur Numba pour accélérer les applications Python s'exécutant sur les GPU NVIDIA GPU.
Créer, compiler et lancer des kernels CUDA personnalisés.
Gérer la mémoire des GPU GPU.
Convertir une application basée sur le CPU en une application accélérée par les GPU GPU.
Cette formation en direct, dirigée par un instructeur, couvre la programmation de GPUs pour le calcul parallèle, l'utilisation de diverses plateformes, le travail avec la plateforme CUDA et ses fonctionnalités, et l'exécution de diverses techniques d'optimisation à l'aide de CUDA. Les applications comprennent l'apprentissage profond, l'analyse, le traitement d'images et les applications d'ingénierie.
En savoir plus...
Dernière Mise À Jour:
Nos clients témoignent (2)
Très interactif avec des exemples variés, avec une bonne progression de la complexité entre le début et la fin de la formation.
Jenny - Andheo
Formation - GPU Programming with CUDA and Python
Traduction automatique
L'énergie et l'humour des formateurs.
Tadeusz Kaluba - Nokia Solutions and Networks Sp. z o.o.
Graphics Processing Unit formation à Nantes, Weekend GPU cours à Nantes, Soir GPU (Graphics Processing Unit) formation à Nantes, GPU (Graphics Processing Unit) formateur en ligne à Nantes, GPU formation à Nantes, Graphics Processing Unit cours du soir à Nantes, GPU formation Intra à Nantes, Graphics Processing Unit formation Intra Entreprise à Nantes, Graphics Processing Unit (GPU) formation Inter à Nantes, Graphics Processing Unit formation Inter Entreprise à Nantes, GPU (Graphics Processing Unit) préparation aux examens à Nantes, Graphics Processing Unit entraînement à Nantes, Graphics Processing Unit (GPU) formateur à Nantes, GPU (Graphics Processing Unit) coaching à Nantes, Soir Graphics Processing Unit cours à Nantes, Weekend GPU (Graphics Processing Unit) formation à Nantes, Graphics Processing Unit (GPU) sur place à Nantes, GPU (Graphics Processing Unit) coach à Nantes, GPU (Graphics Processing Unit) cours particuliers à Nantes, GPU stage de préparation à Nantes, GPU (Graphics Processing Unit) préparation à Nantes, Graphics Processing Unit cours privé à Nantes, Graphics Processing Unit (GPU) professeur à Nantes,Graphics Processing Unit (GPU) cours à Nantes, Graphics Processing Unit (GPU) instructeur à Nantes