Formation Inférence et Déploiement AI avec CloudMatrix
CloudMatrix est une plateforme unifiée de développement et de déploiement IA conçue par Huawei pour soutenir les pipelines d'inférence évoluant en production.
Cette formation (en ligne ou sur site) animée par un formateur s'adresse aux professionnels AI de niveau débutant à intermédiaire qui souhaitent déployer et surveiller des modèles IA en utilisant la plateforme CloudMatrix avec l'intégration de CANN et MindSpore.
À la fin de cette formation, les participants seront capables de :
- Utiliser CloudMatrix pour emballer, déployer et mettre en service des modèles.
- Convertir et optimiser des modèles pour les processeurs Ascend.
- Configurer des pipelines pour des tâches d'inférence en temps réel et par lots.
- Surveiller les déploiements et ajuster les performances dans un environnement de production.
Format de la formation
- Cours interactif et discussion.
- Utilisation pratique de CloudMatrix avec des scénarios de déploiement réels.
- Exercices guidés axés sur la conversion, l'optimisation et l'échelle.
Options d'adaptation du cours
- Pour demander une formation adaptée à cette formation basée sur votre infrastructure AI ou environnement cloud, veuillez nous contacter pour organiser cela.
Plan du cours
Introduction à Huawei CloudMatrix
- Écosystème de CloudMatrix et flux de déploiement
- Modèles, formats et modes de déploiement pris en charge
- Cas d'utilisation typiques et pucewares supportés
Préparation des modèles pour le déploiement
- Exportation du modèle à partir des outils de formation (MindSpore, TensorFlow, PyTorch)
- Utilisation d'ATC (Ascend Tensor Compiler) pour la conversion de format
- Modèles statiques vs dynamiques
Déploiement sur CloudMatrix
- Création du service et enregistrement du modèle
- Déploiement des services d'inférence via l'interface utilisateur ou la ligne de commande
- Routage, authentification et contrôle d'accès
Traitement des requêtes d'inférence
- Flows d'inférence par lots vs en temps réel
- Pipelines de prétraitement et post-traitement des données
- Appels aux services CloudMatrix à partir d'applications externes
Surveillance et ajustement des performances
- Journalisation du déploiement et suivi des requêtes
- Échelonnement des ressources et équilibrage de charge
- Ajustement de la latence et optimisation du débit
Intégration avec les outils d'entreprise
- Connexion de CloudMatrix à OBS et ModelArts
- Utilisation des workflows et gestion des versions du modèle
- CI/CD pour le déploiement et la reprise des modèles
Pipeline d'inférence de bout en bout
- Déploiement d'un pipeline complet de classification d'image
- Benchmarking et validation de précision
- Simulation des failovers et alertes du système
Résumé et prochaines étapes
Pré requis
- Une compréhension des workflows de formation des modèles IA
- Expérience avec les frameworks ML basés sur Python
- Familiarité de base avec les concepts de déploiement dans le cloud
Public cible
- Équipes d'opérations IA
- Ingénieurs en apprentissage automatique
- Spécialistes du déploiement dans le cloud travaillant avec l'infrastructure Huawei
Les formations ouvertes requièrent plus de 3 participants.
Formation Inférence et Déploiement AI avec CloudMatrix - Booking
Formation Inférence et Déploiement AI avec CloudMatrix - Enquiry
Inférence et Déploiement AI avec CloudMatrix - Demande d'informations consulting
Demande d'informations consulting
Nos clients témoignent (1)
Formation étape par étape avec beaucoup d'exercices. C'était comme un atelier et je suis très content de cela.
Ireneusz - Inter Cars S.A.
Formation - Intelligent Applications Fundamentals
Traduction automatique
Cours à venir
Cours Similaires
Développement d'applications IA avec Huawei Ascend et CANN
21 HeuresLa famille de processeurs Huawei Ascend est conçue pour une inférence et un entraînement de haute performance.
Cette formation en direct (en ligne ou sur site) dispensée par un formateur est destinée aux ingénieurs AI intermédiaires et aux scientifiques des données qui souhaitent développer et optimiser des modèles de réseau neuronal à l'aide du plateau Ascend de Huawei et du kit CANN.
À la fin de cette formation, les participants seront capables de :
- Configurer et paramétrer l'environnement de développement CANN.
- Développer des applications IA en utilisant MindSpore et CloudMatrix workflows.
- Optimiser les performances sur les unités de traitement Ascend NPUs grâce aux opérateurs personnalisés et à la tiling.
- Déployer des modèles dans des environnements de bord ou cloud.
Format du cours permettant d'évaluer les participants
- Cours interactif et discussion.
- Utilisation pratique de Huawei Ascend et du kit CANN dans des applications d'exemple.
- Exercices guidés axés sur la construction, l'entraînement et le déploiement du modèle.
Options de personnalisation du cours
- Pour demander une formation personnalisée basée sur votre infrastructure ou vos jeux de données, veuillez nous contacter pour organiser cela.
Déploiement de modèles AI avec CANN et processeurs Ascend AI
14 HeuresCANN (Compute Architecture for Neural Networks) est la pile de calcul IA de Huawei pour déployer et optimiser les modèles d'IA sur des processeurs Ascend AI.
Cette formation en direct, dirigée par un instructeur (en ligne ou sur site), s'adresse aux développeurs et ingénieurs intermédiaires en IA qui souhaitent déployer efficacement des modèles d'IA formés sur la matériel Huawei Ascend à l'aide du kit de outils CANN et d'outils tels que MindSpore, TensorFlow, ou PyTorch.
À la fin de cette formation, les participants pourront :
- Comprendre l'architecture CANN et son rôle dans le pipeline de déploiement IA.
- Convertir et adapter des modèles de cadres populaires vers des formats compatibles Ascend.
- Utiliser des outils comme ATC, OM model conversion, et MindSpore pour l'inférence à la périphérie et dans le cloud.
- Diagnostiquer les problèmes de déploiement et optimiser les performances sur du matériel Ascend.
Format de la formation
- Cours interactif et démonstration.
- Travail pratique en laboratoire avec des outils CANN et simulateurs ou appareils Ascend.
- Scénarios de déploiement pratiques basés sur des modèles IA du monde réel.
Options de Personnalisation du Cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour en faire la demande.
AI Engineering Fondamentaux
14 HeuresCette formation en direct (en ligne ou sur site) animée par un formateur est destinée aux ingénieurs IA et développeurs logiciels de niveau débutant à intermédiaire qui souhaitent acquérir une compréhension fondamentale des principes et pratiques de l'ingénierie IA.
À la fin de cette formation, les participants seront capables de :
- Comprendre les concepts et technologies clés derrière l'intelligence artificielle (IA) et l'apprentissage automatique.
- Mettre en œuvre des modèles d'apprentissage machine de base à l'aide de TensorFlow et PyTorch.
- Appliquer les techniques IA pour résoudre des problèmes pratiques dans le développement logiciel.
- Gérer et maintenir des projets IA en utilisant les meilleures pratiques de l'ingénierie IA.
- Reconnaître les implications éthiques et responsabilités liées au développement de systèmes IA.
GPU Programming sur les Accélérateurs AI Biren
21 HeuresLes accélérateurs AI de Biren sont des GPU haute performance conçus pour les charges de travail en IA et HPC, avec un soutien à l'entraînement et à l'inference à grande échelle.
Cette formation interactive en direct (en ligne ou sur site) est destinée aux développeurs intermédiaires et avancés qui souhaitent programmer et optimiser des applications en utilisant la pile de technologie propriétaire GPU de Biren, avec des comparaisons pratiques par rapport aux environnements basés sur CUDA.
À la fin de cette formation, les participants seront capables de :
- Comprendre l'architecture et la hiérarchie mémoire Biren GPU.
- Configurer l'environnement de développement et utiliser le modèle de programmation Biren.
- Traduire et optimiser un code style CUDA pour les plateformes Biren.
- Appliquer des techniques d'optimisation de la performance et de débogage.
Format du cours permettant d'évaluer les participants
- Cours interactif et discussion.
- Utilisation pratique de l'SDK Biren dans des charges de travail d'exemple GPU.
- Exercices guidés axés sur le portage et l'optimisation de la performance.
Options de personnalisation du cours
- Pour demander une formation personnalisée basée sur votre pile technologique ou vos besoins d'intégration, veuillez nous contacter pour organiser.
Construction Intelligent Applications avec IA et ML
28 HeuresCette formation en direct avec instructeur à France (en ligne ou sur place) s'adresse aux professionnels de l'IA de niveau intermédiaire à avancé et aux développeurs de logiciels qui souhaitent créer des applications intelligentes à l'aide de l'IA et de la ML.
développeurs de logiciels qui souhaitent créer des applications intelligentes à l'aide de l'IA et de la ML.
A l'issue de cette formation, les participants seront capables de :
- Comprendre les concepts et technologies avancés derrière l'IA et la ML.
- Analyser et visualiser des données pour informer le développement de modèles d'IA/ML.
- Construire, former et déployer des modèles d'IA/ML de manière efficace.
- Créer des applications intelligentes capables de résoudre des problèmes du monde réel.
- Évaluer les implications éthiques des applications de l'IA dans diverses industries.
Introduction à CANN pour les développeurs de frameworks IA
7 HeuresCANN (Architecture de calcul pour Neural Networks) est un kit d'outils de calcul AI de Huawei utilisé pour compiler, optimiser et déployer des modèles IA sur les processeurs Ascend AI.
Cette formation en direct, dirigée par un formateur (en ligne ou sur site), s’adresse aux développeurs IA débutants qui souhaitent comprendre comment CANN s'intègre dans le cycle de vie du modèle, depuis l'entraînement jusqu'au déploiement, et comment il fonctionne avec des cadres comme MindSpore, TensorFlow, et PyTorch.
À la fin de cette formation, les participants seront capables de :
- Comprendre le but et l'architecture du kit d'outils CANN.
- Configurer un environnement de développement avec CANN et MindSpore.
- Convertir et déployer un modèle IA simple sur la matériel Ascend.
- Acquérir une connaissance fondamentale pour des projets futurs d'optimisation ou d'intégration CANN.
Format du cours permettant d'évaluer les participants
- Cours interactif et discussion.
- Ateliers pratiques avec le déploiement de modèles simples.
- Présentation étape par étape de la chaîne d'outils CANN et des points d'intégration.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour en faire la demande.
CANN pour Edge AI Déploiement
14 HeuresLe kit Ascend CANN de Huawei permet d'effectuer des inférences puissantes sur les appareils de bord tels que le Ascend 310. CANN fournit des outils essentiels pour compiler, optimiser et déployer des modèles où la puissance de calcul et la mémoire sont limitées.
Cette formation en direct (en ligne ou sur site) est destinée aux développeurs et intégrateurs d'IA intermédiaires qui souhaitent déployer et optimiser des modèles sur les appareils de bord Ascend en utilisant la chaîne d'outils CANN.
À la fin de cette formation, les participants seront capables de :
- Préparer et convertir des modèles IA pour le Ascend 310 en utilisant les outils CANN.
- Construire des pipelines d'inférence légers à l'aide de MindSpore Lite et AscendCL.
- Optimiser la performance du modèle pour des environnements avec une puissance de calcul et une mémoire limitées.
- Déployer et surveiller les applications IA dans des cas d'utilisation réels en bordure.
Format de la formation
- Cours interactif et démonstration.
- Travail pratique avec des modèles spécifiques au bord et des scénarios.
- Exemples de déploiement en direct sur du matériel virtuel ou physique en bordure.
Options de personnalisation de la formation
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
Comprendre la pile de calcul AI de Huawei : De CANN à MindSpore
14 HeuresLa pile d'IA de Huawei — allant de l'CANN SDK de niveau basique au cadre MindSpore de niveau élevé — offre un environnement intégré pour le développement et la mise en œuvre de l'IA, optimisé pour les matériels Ascend.
Cette formation dispensée par un instructeur (en ligne ou sur site) s'adresse aux professionnels techniques débutants à intermédiaires qui souhaitent comprendre comment les composants CANN et MindSpore fonctionnent ensemble pour soutenir la gestion du cycle de vie de l'IA et les décisions d’infrastructure.
À la fin de cette formation, les participants seront capables de :
- Comprendre l'architecture en couches de la pile de calcul Huawei pour IA.
- Identifier comment CANN soutient l'optimisation des modèles et leur déploiement au niveau matériel.
- Évaluer le cadre MindSpore et sa chaîne d'outils en relation avec les alternatives de l’industrie.
- Positionner la pile IA de Huawei dans les environnements entreprise ou cloud/dans les locaux.
Format du cours permettant d'évaluer les participants
- Cours interactif et discussion.
- Démonstrations de systèmes en direct et parcours basés sur des cas concrets.
- Ateliers guidés optionnels sur le flux de modèles de MindSpore à CANN.
Options de Personnalisation du Cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour en faire la demande.
Optimisation des performances du réseau neuronal avec CANN SDK
14 HeuresCANN SDK (Architecture de calcul pour Neural Networks) est la base de calcul IA de Huawei qui permet aux développeurs d'affiner et d'optimiser les performances des réseaux neuronaux déployés sur les processeurs AI Ascend.
Cette formation en direct animée par un instructeur (en ligne ou sur site) s’adresse aux développeurs et ingénieurs systèmes chevronnés qui souhaitent optimiser les performances d'inférence en utilisant l'ensemble avancé d'outils de CANN, notamment le Graph Engine, TIK et le développement d'opérateurs personnalisés.
À la fin de cette formation, les participants seront capables de :
- Comprendre l’architecture en temps réel de CANN et son cycle de vie des performances.
- Utiliser des outils de profilage et le Graph Engine pour l'analyse et l'optimisation des performances.
- Développer et optimiser des opérateurs personnalisés en utilisant TIK et TVM.
- Résoudre les goulets d'étranglement de mémoire et améliorer la performance du modèle.
Format de la formation
- Cours interactif et discussion.
- Ateliers pratiques avec un profilage en temps réel et l'ajustement des opérateurs.
- Exercices d’optimisation à l’aide de déploiements de cas particuliers.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour en faire la demande.
CANN SDK pour Computer Vision et les pipelines de traitement du langage naturel (NLP)
14 HeuresLe SDK CANN (Compute Architecture pour Neural Networks) fournit des outils puissants de déploiement et d'optimisation pour les applications AI en temps réel dans la vision par ordinateur et le traitement du langage naturel, en particulier sur le matériel Huawei Ascend.
Cette formation interactive (en ligne ou sur site) est destinée aux praticiens intermédiaires de l'IA qui souhaitent construire, déployer et optimiser des modèles de vision et de langage à l'aide du SDK CANN pour des cas d'utilisation en production.
À la fin de cette formation, les participants seront capables de :
- Déployer et optimiser des modèles CV et NLP à l’aide de CANN et AscendCL.
- Utiliser les outils CANN pour convertir les modèles et les intégrer dans des pipelines en temps réel.
- Optimiser les performances d'inférence pour des tâches telles que la détection, la classification et l'analyse de sentiment.
- Créer des pipelines CV/NLP en temps réel pour des scénarios de déploiement basés sur le bord ou dans le cloud.
Format de la formation
- Cours interactif et démonstrations pratiques.
- Atelier pratique avec déploiement de modèles et profilage des performances.
- Conception en direct de pipelines à partir d’utilisations réelles CV et NLP.
Options de personnalisation de la formation
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
Construction d'opérateurs AI personnalisés avec CANN TIK et TVM
14 HeuresCANN TIK (Tensor Instruction Kernel) et Apache TVM permettent une optimisation et une personnalisation avancées des opérateurs de modèles IA pour Huawei Ascend matériel.
Cette formation en direct menée par un formateur (en ligne ou sur site) s'adresse aux développeurs systèmes de niveau avancé qui souhaitent créer, déployer et ajuster des opérateurs personnalisés pour les modèles IA à l'aide du modèle de programmation TIK de CANN et de l'intégration du compilateur TVM.
À la fin de cette formation, les participants seront en mesure de :
- Écrire et tester des opérateurs IA personnalisés à l'aide du TIK DSL pour les processeurs Ascend.
- Intégrer les opérations personnalisées dans le runtime CANN et le graphe d'exécution.
- Utiliser TVM pour l'ordonnancement des opérateurs, l'autotuning et le benchmarking.
- Déboguer et optimiser les performances au niveau de l'instruction pour des schémas de calcul personnalisés.
Format du cours permettant d'évaluer les participants
- Cours interactif et démonstration.
- Codage pratique des opérateurs en utilisant les pipelines TIK et TVM.
- Tests et ajustements sur du matériel Ascend ou des simulateurs.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour faire les arrangements.
Migrer les applications CUDA vers les architectures GPU chinoises
21 HeuresLes architectures chinoises GPU telles que Huawei Ascend, Biren et Cambricon MLUs offrent des alternatives à CUDA adaptées aux marchés locaux de l'IA et du calcul haute performance.
Cette formation en direct (en ligne ou sur site) dispensée par un formateur est destinée aux programmeurs avancés GPU et aux spécialistes d'infrastructure qui souhaitent migrer et optimiser des applications CUDA existantes pour leur déploiement sur des plateformes matérielles chinoises.
À la fin de cette formation, les participants seront capables de :
- Évaluer la compatibilité des charges de travail CUDA existantes avec les alternatives à base de puces chinoises.
- Migrer des bases de code CUDA vers Huawei CANN, Biren SDK et environnements Cambricon BANGPy.
- Comparer les performances et identifier les points d'optimisation sur différents plateformes.
- Aborder les défis pratiques du support inter-architecture et du déploiement.
Format de la formation
- Cours interactif et discussion.
- Laboratoires pratiques de traduction de code et de comparaison des performances.
- Exercices guidés axés sur les stratégies d'adaptation multi-GPU.
Options de personnalisation du cours
- Pour demander une formation personnalisée basée sur votre plateforme ou projet CUDA, veuillez nous contacter pour organiser cela.
Fondements des Applications Intelligentes
14 HeuresCette formation en direct avec instructeur à France (en ligne ou sur place) est destinée aux professionnels de l'informatique de niveau débutant qui souhaitent acquérir une compréhension fondamentale des applications intelligentes et de la manière dont elles peuvent être appliquées dans divers secteurs d'activité.
A l'issue de cette formation, les participants seront capables de :
- Comprendre l'histoire, les principes et l'impact de l'intelligence artificielle.
- Identifier et appliquer différents algorithmes d'apprentissage automatique.
- Gérer et analyser efficacement les données pour les applications de l'IA.
- Reconnaître les applications pratiques et les limites de l'IA dans différents secteurs.
- Discuter des considérations éthiques et des implications sociétales de la technologie de l'IA.
Applications Intelligentes Avancées
21 HeuresCette formation en direct avec instructeur en France (en ligne ou sur site) s'adresse aux data scientists, ingénieurs et praticiens de l'IA de niveau intermédiaire à avancé qui souhaitent maîtriser les subtilités des applications intelligentes et les exploiter pour résoudre des problèmes complexes dans le monde réel.
A l'issue de cette formation, les participants seront capables de :
- Mettre en œuvre et analyser des architectures d'apprentissage profond.
- Appliquer l'apprentissage automatique à grande échelle dans un environnement informatique distribué.
- Concevoir et exécuter des modèles d'apprentissage par renforcement pour la prise de décision.
- Développer des systèmes NLP sophistiqués pour la compréhension du langage.
- Utiliser des techniques de vision par ordinateur pour l'analyse d'images et de vidéos.
- Aborder les considérations éthiques dans le développement et le déploiement des systèmes d'IA.
Performance Optimization on Ascend, Biren, and Cambricon
21 HeuresAscend, Biren et Cambricon sont des plateformes de matériel IA leaders en Chine, chacune offrant des outils uniques d'accélération et de profilage pour les charges de travail AI à l'échelle de production.
Cette formation en direct dirigée par un formateur (en ligne ou sur site) s'adresse aux ingénieurs高级AI基础设施和性能工程师,他们希望在多个中国AI芯片平台上优化模型推理和训练工作流。
到本培训结束时,参与者将能够:
- 在Ascend、Biren和Cambricon平台上对模型进行基准测试。
- 识别系统瓶颈和内存/计算低效问题。
- 应用图级、内核级和操作符级优化。
- 调整部署管道以提高吞吐量和减少延迟。
课程格式
- 互动讲座和讨论。
- 在每个平台上实际使用性能分析和优化工具。
- 专注于实用调优场景的指导练习。
课程定制选项
- 如需基于您的性能环境或模型类型对此课程进行定制培训,请联系我们安排。