Plan du cours

Fondements du déploiement hybride de l'IA

  • Comprendre les modèles de déploiement hybride, cloud et edge
  • Caractéristiques des charges de travail IA et contraintes d'infrastructure
  • Choisir la bonne topologie de déploiement

Conteneurisation des charges de travail IA avec Docker

  • Création de conteneurs d'inférence GPU et CPU
  • Gestion d'images et de registres sécurisés
  • Mise en œuvre d'environnements reproductibles pour l'IA

Déploiement de services IA dans des environnements cloud

  • Exécution d'inférences sur AWS, Azure et GCP via Docker
  • Provisionnement de ressources de calcul cloud pour le service de modèles
  • Sécurisation des points d'accès IA basés sur le cloud

Techniques de déploiement Edge et On-Prem

  • Exécution d'IA sur des appareils IoT, des passerelles et des microserveurs
  • Environnements de runtime légers pour l'edge
  • Gestion de la connectivité intermittente et de la persistance locale

Réseautage hybride et connectivité sécurisée

  • Tunneling sécurisé entre l'edge et le cloud
  • Certificats, secrets et accès basé sur des jetons
  • Optimisation des performances pour une inférence à faible latence

Orchestration de déploiements d'IA distribués

  • Utilisation de K3s, K8s ou d'orchestration légère pour des configurations hybrides
  • Découverte de services et planification de charges de travail
  • Automatisation des stratégies de déploiement multi-emplacements

Surveillance et observabilité à travers les environnements

  • Suivi des performances d'inférence à travers les emplacements
  • Journalisation centralisée pour les systèmes IA hybrides
  • Détection de pannes et récupération automatique

Évolutivité et optimisation des systèmes d'IA hybride

  • Évolutivité des clusters edge et des nœuds cloud
  • Optimisation de l'utilisation de la bande passante et du caching
  • Équilibrage des charges de calcul entre le cloud et l'edge

Résumé et étapes suivantes

Pré requis

  • Une compréhension des concepts de conteneurisation
  • Une expérience avec les opérations en ligne de commande Linux
  • Une familiarité avec les flux de travail de déploiement de modèles IA

Public cible

  • Architectes d'infrastructure
  • Ingénieurs de fiabilité des sites (SREs)
  • Développeurs Edge et IoT
 21 Heures

Nombre de participants


Prix ​​par Participant

Nos clients témoignent (5)

Cours à venir

Catégories Similaires