Formation AI Inference and Deployment with CloudMatrix
CloudMatrix est la plateforme unifiée de développement et déploiement IA de Huawei conçue pour prendre en charge des pipelines d'inférence évolutifs et de production.
Cette formation en direct (en ligne ou sur site) animée par un instructeur s'adresse aux professionnels de l'IA débutants à intermédiaires qui souhaitent déployer et surveiller des modèles IA en utilisant la plateforme CloudMatrix avec une intégration CANN et MindSpore.
À la fin de cette formation, les participants seront capables de :
- Utiliser CloudMatrix pour l'emballage, le déploiement et le service des modèles.
- Convertir et optimiser des modèles pour les puces Ascend.
- Mettre en place des pipelines pour des tâches d'inférence en temps réel et par lots.
- Surveiller les déploiements et ajuster les performances dans un environnement de production.
Format du cours permettant d'évaluer les participants
- Cours interactif et discussion.
- Utilisation pratique de CloudMatrix avec des scénarios de déploiement réels.
- Exercices guidés axés sur la conversion, l'optimisation et l'échelle.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours basée sur votre infrastructure IA ou environnement cloud, veuillez nous contacter pour en faire la demande.
Plan du cours
Introduction à Huawei CloudMatrix
- Écosystème de CloudMatrix et flux de déploiement
- Modèles, formats et modes de déploiement pris en charge
- Cas d'utilisation typiques et puce compatible
Préparation des Modèles pour le Déploiement
- Exportation des modèles à partir des outils de formation (MindSpore, TensorFlow, PyTorch)
- Utilisation d'ATC (Ascend Tensor Compiler) pour la conversion de format
- Modèles en forme statique vs dynamique
Déploiement sur CloudMatrix
- Création des services et inscription du modèle
- Déploiement des services d'inférence via l'IU ou la CLI
- Routing, authentification et contrôle d'accès
Servir les Demandes d'Inférence
- Flots d'inférence par lots vs en temps réel
- Pipelines de prétraitement et post-traitement des données
- Appels aux services CloudMatrix à partir d'applications externes
Surveillance et Réglage des Performances
- Journaux de déploiement et suivi des demandes
- Mise à l'échelle des ressources et équilibrage de charge
- Réglages du délai de réponse et optimisation du débit
Intégration avec les Outils d'Entreprise
- Connexion de CloudMatrix à OBS et ModelArts
- Utilisation des workflows et versionnement des modèles
- CI/CD pour le déploiement et la réversion du modèle
Pipeline d'Inférence de bout en bout
- Déploiement d'un pipeline complet de classification d'images
- Benchmarking et validation de précision
- Simulation des changements de direction et alertes du système
Récapitulation et Étapes Suivantes
Pré requis
- Une compréhension des workflows de formation des modèles AI
- Expérience avec les frameworks ML basés sur Python
- Familiarité de base avec les concepts de déploiement cloud
Public cible
- Équipes d'opérations AI
- Ingénieurs en apprentissage automatique
- Spécialistes du déploiement cloud travaillant avec l'infrastructure Huawei
Les formations ouvertes requièrent plus de 3 participants.
Formation AI Inference and Deployment with CloudMatrix - Booking
Formation AI Inference and Deployment with CloudMatrix - Enquiry
AI Inference and Deployment with CloudMatrix - Demande d'informations consulting
Demande d'informations consulting
Nos clients témoignent (1)
Formation étape par étape avec beaucoup d'exercices. C'était comme un atelier et je suis très content de cela.
Ireneusz - Inter Cars S.A.
Formation - Intelligent Applications Fundamentals
Traduction automatique
Cours à venir
Cours Similaires
Developing AI Applications with Huawei Ascend and CANN
21 HeuresHuawei Ascend est une famille de processeurs IA conçus pour l'inférence et la formation à haute performance.
Cette formation en direct (en ligne ou sur site) animée par un formateur s'adresse aux ingénieurs AI intermédiaires et aux scientifiques des données qui souhaitent développer et optimiser des modèles de réseau neuronal en utilisant la plateforme Ascend de Huawei et l'outil CANN.
À la fin de cette formation, les participants seront capables de :
- Configurer l'environnement de développement CANN.
- Développer des applications IA à l'aide de MindSpore et des workflows CloudMatrix.
- Optimiser les performances sur les NPUs Ascend en utilisant des opérateurs personnalisés et le tiling.
- Déployer des modèles dans des environnements edge ou cloud.
Format de la formation
- Cours interactif et discussion.
- Utilisation pratique de Huawei Ascend et de l'outil CANN dans des applications d'exemple.
- Exercices guidés axés sur la construction, la formation et le déploiement du modèle.
Options de personnalisation de la formation
- Pour demander une formation personnalisée basée sur votre infrastructure ou vos jeux de données, veuillez nous contacter pour organiser cela.
Deploying AI Models with CANN and Ascend AI Processors
14 HeuresCANN (Compute Architecture for Neural Networks) is Huawei’s AI compute stack for deploying and optimizing AI models on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI developers and engineers who wish to deploy trained AI models efficiently to Huawei Ascend hardware using the CANN toolkit and tools such as MindSpore, TensorFlow, or PyTorch.
By the end of this training, participants will be able to:
- Understand the CANN architecture and its role in the AI deployment pipeline.
- Convert and adapt models from popular frameworks to Ascend-compatible formats.
- Use tools like ATC, OM model conversion, and MindSpore for edge and cloud inference.
- Diagnose deployment issues and optimize performance on Ascend hardware.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab work using CANN tools and Ascend simulators or devices.
- Practical deployment scenarios based on real-world AI models.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
AI Engineering Fundamentals
14 HeuresCette formation en direct avec instructeur à France (en ligne ou sur place) s'adresse aux ingénieurs en IA et aux développeurs de logiciels de niveau débutant à intermédiaire qui souhaitent acquérir une compréhension fondamentale des principes et des pratiques de l'ingénierie de l'IA.
A l'issue de cette formation, les participants seront capables de :
- Comprendre les concepts et technologies de base de l'IA et de l'apprentissage automatique.
- Mettre en œuvre des modèles d'apprentissage automatique de base en utilisant TensorFlow et PyTorch.
- Appliquer les techniques d'IA pour résoudre des problèmes pratiques dans le développement de logiciels.
- Gérer et maintenir des projets d'IA en utilisant les meilleures pratiques de l'ingénierie de l'IA.
- Reconnaître les implications éthiques et les responsabilités liées au développement de systèmes d'IA.
GPU Programming on Biren AI Accelerators
21 HeuresLes accélérateurs Biren AI sont des GPU de haute performance conçus pour les charges de travail en IA et HPC, avec un support pour l'entraînement et l'inférence à grande échelle.
Cette formation en direct (en ligne ou sur site) animée par un formateur est destinée aux développeurs intermédiaires à avancés qui souhaitent programmer et optimiser des applications en utilisant la pile GPU propriétaire de Biren, avec des comparaisons pratiques avec les environnements basés sur CUDA.
À la fin de cette formation, les participants seront capables de :
- Comprendre l'architecture et la hiérarchie mémoire Biren GPU.
- Mettre en place l'environnement de développement et utiliser le modèle de programmation Biren.
- Traduire et optimiser des codes au style CUDA pour les plateformes Biren.
- Appliquer des techniques d'ajustement de performance et de débogage.
Format du cours permettant d'évaluer les participants
- Cours interactif et discussion.
- Utilisation pratique de la SDK Biren dans des charges de travail GPU d'exemple.
- Exercices guidés axés sur le portage et l'ajustement de performance.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours basée sur votre pile d'applications ou vos besoins d'intégration, veuillez nous contacter pour en faire la demande.
Building Intelligent Applications with AI and ML
28 HeuresCette formation en direct avec instructeur à France (en ligne ou sur place) s'adresse aux professionnels de l'IA de niveau intermédiaire à avancé et aux développeurs de logiciels qui souhaitent créer des applications intelligentes à l'aide de l'IA et de la ML.
développeurs de logiciels qui souhaitent créer des applications intelligentes à l'aide de l'IA et de la ML.
A l'issue de cette formation, les participants seront capables de :
- Comprendre les concepts et technologies avancés derrière l'IA et la ML.
- Analyser et visualiser des données pour informer le développement de modèles d'IA/ML.
- Construire, former et déployer des modèles d'IA/ML de manière efficace.
- Créer des applications intelligentes capables de résoudre des problèmes du monde réel.
- Évaluer les implications éthiques des applications de l'IA dans diverses industries.
Introduction to CANN for AI Framework Developers
7 HeuresCANN (Compute Architecture for Neural Networks) is Huawei’s AI computing toolkit used to compile, optimize, and deploy AI models on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at beginner-level AI developers who wish to understand how CANN fits into the model lifecycle from training to deployment, and how it works with frameworks like MindSpore, TensorFlow, and PyTorch.
By the end of this training, participants will be able to:
- Understand the purpose and architecture of the CANN toolkit.
- Set up a development environment with CANN and MindSpore.
- Convert and deploy a simple AI model to Ascend hardware.
- Gain foundational knowledge for future CANN optimization or integration projects.
Format of the Course
- Interactive lecture and discussion.
- Hands-on labs with simple model deployment.
- Step-by-step walkthrough of the CANN toolchain and integration points.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
CANN for Edge AI Deployment
14 HeuresHuawei's Ascend CANN toolkit enables powerful AI inference on edge devices such as the Ascend 310. CANN provides essential tools for compiling, optimizing, and deploying models where compute and memory are constrained.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI developers and integrators who wish to deploy and optimize models on Ascend edge devices using the CANN toolchain.
By the end of this training, participants will be able to:
- Prepare and convert AI models for Ascend 310 using CANN tools.
- Build lightweight inference pipelines using MindSpore Lite and AscendCL.
- Optimize model performance for limited compute and memory environments.
- Deploy and monitor AI applications in real-world edge use cases.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab work with edge-specific models and scenarios.
- Live deployment examples on virtual or physical edge hardware.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Understanding Huawei’s AI Compute Stack: From CANN to MindSpore
14 HeuresHuawei’s AI stack — from the low-level CANN SDK to the high-level MindSpore framework — offers a tightly integrated AI development and deployment environment optimized for Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at beginner-level to intermediate-level technical professionals who wish to understand how the CANN and MindSpore components work together to support AI lifecycle management and infrastructure decisions.
By the end of this training, participants will be able to:
- Understand the layered architecture of Huawei’s AI compute stack.
- Identify how CANN supports model optimization and hardware-level deployment.
- Evaluate the MindSpore framework and toolchain in relation to industry alternatives.
- Position Huawei's AI stack within enterprise or cloud/on-prem environments.
Format of the Course
- Interactive lecture and discussion.
- Live system demos and case-based walkthroughs.
- Optional guided labs on model flow from MindSpore to CANN.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Optimizing Neural Network Performance with CANN SDK
14 HeuresCANN SDK (Compute Architecture for Neural Networks) is Huawei’s AI compute foundation that allows developers to fine-tune and optimize the performance of deployed neural networks on Ascend AI processors.
This instructor-led, live training (online or onsite) is aimed at advanced-level AI developers and system engineers who wish to optimize inference performance using CANN’s advanced toolset, including the Graph Engine, TIK, and custom operator development.
By the end of this training, participants will be able to:
- Understand CANN's runtime architecture and performance lifecycle.
- Use profiling tools and Graph Engine for performance analysis and optimization.
- Create and optimize custom operators using TIK and TVM.
- Resolve memory bottlenecks and improve model throughput.
Format of the Course
- Interactive lecture and discussion.
- Hands-on labs with real-time profiling and operator tuning.
- Optimization exercises using edge-case deployment examples.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
CANN SDK for Computer Vision and NLP Pipelines
14 HeuresThe CANN SDK (Compute Architecture for Neural Networks) provides powerful deployment and optimization tools for real-time AI applications in computer vision and NLP, especially on Huawei Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at intermediate-level AI practitioners who wish to build, deploy, and optimize vision and language models using the CANN SDK for production use cases.
By the end of this training, participants will be able to:
- Deploy and optimize CV and NLP models using CANN and AscendCL.
- Use CANN tools to convert models and integrate them into live pipelines.
- Optimize inference performance for tasks like detection, classification, and sentiment analysis.
- Build real-time CV/NLP pipelines for edge or cloud-based deployment scenarios.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on lab with model deployment and performance profiling.
- Live pipeline design using real CV and NLP use cases.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Building Custom AI Operators with CANN TIK and TVM
14 HeuresCANN TIK (Tensor Instruction Kernel) and Apache TVM enable advanced optimization and customization of AI model operators for Huawei Ascend hardware.
This instructor-led, live training (online or onsite) is aimed at advanced-level system developers who wish to build, deploy, and tune custom operators for AI models using CANN’s TIK programming model and TVM compiler integration.
By the end of this training, participants will be able to:
- Write and test custom AI operators using the TIK DSL for Ascend processors.
- Integrate custom ops into the CANN runtime and execution graph.
- Use TVM for operator scheduling, auto-tuning, and benchmarking.
- Debug and optimize instruction-level performance for custom computation patterns.
Format of the Course
- Interactive lecture and demonstration.
- Hands-on coding of operators using TIK and TVM pipelines.
- Testing and tuning on Ascend hardware or simulators.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Migrating CUDA Applications to Chinese GPU Architectures
21 HeuresLes architectures chinoises GPU telles que Huawei Ascend, Biren et Cambricon MLUs offrent des alternatives à CUDA adaptées aux marchés locaux de l'IA et du calcul haute performance.
Cette formation en direct (en ligne ou sur site) dispensée par un formateur est destinée aux programmeurs avancés GPU et aux spécialistes d'infrastructure qui souhaitent migrer et optimiser des applications CUDA existantes pour leur déploiement sur des plateformes matérielles chinoises.
À la fin de cette formation, les participants seront capables de :
- Évaluer la compatibilité des charges de travail CUDA existantes avec les alternatives à base de puces chinoises.
- Migrer des bases de code CUDA vers Huawei CANN, Biren SDK et environnements Cambricon BANGPy.
- Comparer les performances et identifier les points d'optimisation sur différents plateformes.
- Aborder les défis pratiques du support inter-architecture et du déploiement.
Format de la formation
- Cours interactif et discussion.
- Laboratoires pratiques de traduction de code et de comparaison des performances.
- Exercices guidés axés sur les stratégies d'adaptation multi-GPU.
Options de personnalisation du cours
- Pour demander une formation personnalisée basée sur votre plateforme ou projet CUDA, veuillez nous contacter pour organiser cela.
Intelligent Applications Fundamentals
14 HeuresCette formation en direct avec instructeur à France (en ligne ou sur place) est destinée aux professionnels de l'informatique de niveau débutant qui souhaitent acquérir une compréhension fondamentale des applications intelligentes et de la manière dont elles peuvent être appliquées dans divers secteurs d'activité.
A l'issue de cette formation, les participants seront capables de :
- Comprendre l'histoire, les principes et l'impact de l'intelligence artificielle.
- Identifier et appliquer différents algorithmes d'apprentissage automatique.
- Gérer et analyser efficacement les données pour les applications de l'IA.
- Reconnaître les applications pratiques et les limites de l'IA dans différents secteurs.
- Discuter des considérations éthiques et des implications sociétales de la technologie de l'IA.
Intelligent Applications Advanced
21 HeuresCette formation en direct avec instructeur en France (en ligne ou sur site) s'adresse aux data scientists, ingénieurs et praticiens de l'IA de niveau intermédiaire à avancé qui souhaitent maîtriser les subtilités des applications intelligentes et les exploiter pour résoudre des problèmes complexes dans le monde réel.
A l'issue de cette formation, les participants seront capables de :
- Mettre en œuvre et analyser des architectures d'apprentissage profond.
- Appliquer l'apprentissage automatique à grande échelle dans un environnement informatique distribué.
- Concevoir et exécuter des modèles d'apprentissage par renforcement pour la prise de décision.
- Développer des systèmes NLP sophistiqués pour la compréhension du langage.
- Utiliser des techniques de vision par ordinateur pour l'analyse d'images et de vidéos.
- Aborder les considérations éthiques dans le développement et le déploiement des systèmes d'IA.
Performance Optimization on Ascend, Biren, and Cambricon
21 HeuresAscend, Biren et Cambricon sont des plateformes de matériel IA leaders en Chine, chacune offrant des outils uniques d'accélération et de profilage pour les charges de travail AI à l'échelle de production.
Cette formation en direct dirigée par un formateur (en ligne ou sur site) s'adresse aux ingénieurs高级AI基础设施和性能工程师,他们希望在多个中国AI芯片平台上优化模型推理和训练工作流。
到本培训结束时,参与者将能够:
- 在Ascend、Biren和Cambricon平台上对模型进行基准测试。
- 识别系统瓶颈和内存/计算低效问题。
- 应用图级、内核级和操作符级优化。
- 调整部署管道以提高吞吐量和减少延迟。
课程格式
- 互动讲座和讨论。
- 在每个平台上实际使用性能分析和优化工具。
- 专注于实用调优场景的指导练习。
课程定制选项
- 如需基于您的性能环境或模型类型对此课程进行定制培训,请联系我们安排。