Les Cambricon MLUs (Machine Learning Unités) sont des puces AI spécialisées optimisées pour l'inférence et la formation dans les scénarios de périphérie et de centre de données.
Cette formation en direct (en ligne ou sur site), animée par un formateur, s'adresse aux développeurs intermédiaires souhaitant construire et déployer des modèles AI à l'aide du cadre BANGPy et du SDK Neuware sur le matériel Cambricon MLU.
À la fin de cette formation, les participants seront capables de :
- Configurer et configurer les environnements de développement BANGPy et Neuware.
- Développer et optimiser des modèles basés sur Python et C++ pour Cambricon MLUs.
- Déployer des modèles vers des appareils de périphérie et de centre de données exécutant le runtime Neuware.
- Intégrer les flux de travail ML avec des fonctionnalités d'accélération spécifiques à MLU.
Format du cours permettant d'évaluer les participants
- Cours interactifs et discussions.
- Utilisation pratique de BANGPy et Neuware pour le développement et le déploiement.
- Exercices guidés axés sur l'optimisation, l'intégration et les tests.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours basée sur votre modèle d'appareil Cambricon ou votre cas d'utilisation, veuillez nous contacter pour organiser cela.
Introduction à Cambricon et à l'architecture MLU
- Aperçu de la gamme de puces AI de Cambricon
- Architecture MLU et pipeline d'instructions
- Types de modèles pris en charge et cas d'utilisation
Installation du chaînon de développement
- Installation de BANGPy et du SDK Neuware
- Configuration de l'environnement pour Python et C++
- Compatibilité des modèles et prétraitement
Développement de modèles avec BANGPy
- Gestion de la structure et de la forme du tenseur
- Construction du graphe de calcul
- Soutien aux opérations personnalisées dans BANGPy
Déploiement avec le runtime Neuware
- Conversion et chargement des modèles
- Contrôle d'exécution et d'inférence
- Pratiques de déploiement pour périphérie et centre de données
Optimisation des performances
- Mappage mémoire et réglage par couche
- Suivi d'exécution et profilage
- Bouchons courants et corrections
Intégration de MLU dans les applications
- Utilisation des API Neuware pour l'intégration d'applications
- Soutien au streaming et aux modèles multiples
- Scénarios d'inférence hybride CPU-MLU
Projet de bout en bout et Use Case
- Laboratoire : déploiement d'un modèle vision ou NLP
- Inférence périphérique avec intégration BANGPy
- Test de précision et de débit
Récapitulatif et prochaines étapes
- Compréhension des structures de modèles d'apprentissage automatique
- Expérience avec Python et/ou C++
- Familiarité avec les concepts de déploiement et d'accélération des modèles
Audience
- Développeurs AI embarqués
- Ingénieurs ML déployant sur périphérie ou centre de données
- Développeurs travaillant avec l'infrastructure AI chinoise
Récapitulatif et prochaines étapes
En savoir plus...