Plan du cours
Fondements du déploiement hybride de l'IA
- Comprendre les modèles de déploiement hybride, cloud et edge
- Caractéristiques des charges de travail IA et contraintes d'infrastructure
- Choisir la bonne topologie de déploiement
Conteneurisation des charges de travail IA avec Docker
- Création de conteneurs d'inférence GPU et CPU
- Gestion d'images et de registres sécurisés
- Mise en œuvre d'environnements reproductibles pour l'IA
Déploiement de services IA dans des environnements cloud
- Exécution d'inférences sur AWS, Azure et GCP via Docker
- Provisionnement de ressources de calcul cloud pour le service de modèles
- Sécurisation des points d'accès IA basés sur le cloud
Techniques de déploiement Edge et On-Prem
- Exécution d'IA sur des appareils IoT, des passerelles et des microserveurs
- Environnements de runtime légers pour l'edge
- Gestion de la connectivité intermittente et de la persistance locale
Réseautage hybride et connectivité sécurisée
- Tunneling sécurisé entre l'edge et le cloud
- Certificats, secrets et accès basé sur des jetons
- Optimisation des performances pour une inférence à faible latence
Orchestration de déploiements d'IA distribués
- Utilisation de K3s, K8s ou d'orchestration légère pour des configurations hybrides
- Découverte de services et planification de charges de travail
- Automatisation des stratégies de déploiement multi-emplacements
Surveillance et observabilité à travers les environnements
- Suivi des performances d'inférence à travers les emplacements
- Journalisation centralisée pour les systèmes IA hybrides
- Détection de pannes et récupération automatique
Évolutivité et optimisation des systèmes d'IA hybride
- Évolutivité des clusters edge et des nœuds cloud
- Optimisation de l'utilisation de la bande passante et du caching
- Équilibrage des charges de calcul entre le cloud et l'edge
Résumé et étapes suivantes
Pré requis
- Une compréhension des concepts de conteneurisation
- Une expérience avec les opérations en ligne de commande Linux
- Une familiarité avec les flux de travail de déploiement de modèles IA
Public cible
- Architectes d'infrastructure
- Ingénieurs de fiabilité des sites (SREs)
- Développeurs Edge et IoT
Nos clients témoignent (5)
OC est nouveau pour nous et nous avons beaucoup appris, les laboratoires étaient excellents.
sharkey dollie
Formation - OpenShift 4 for Administrators
Traduction automatique
Très informatif et direct au point. Pratique pratique (Note: "pratique pratique" is a literal translation but may sound redundant in French. A better phrasing could be "Pratique appliquée". However, since the guideline specifies not to modify or add content beyond what is provided, the above translation adheres strictly to the given text.)
Gil Matias - FINEOS
Formation - Introduction to Docker
Traduction automatique
Ateliers et discussions techniques.
Dinesh Panchal - AXA XL
Formation - Advanced Docker
Traduction automatique
Il a fourni une bonne base pour Docker et Kubernetes.
Stephen Dowdeswell - Global Knowledge Networks UK
Formation - Docker (introducing Kubernetes)
Traduction automatique
J'ai surtout apprécié les connaissances du formateur.
- Inverso Gesellschaft fur innovative Versicherungssoftware mbH
Formation - Docker, Kubernetes and OpenShift for Developers
Traduction automatique