Prenez contact avec nous

Plan du cours

Introduction à EXO et au clustering d’IA local

  • Vue d’ensemble du framework EXO et de l’écosystème exo-explore
  • Comparaison entre l’inférence cloud centralisée et l’inférence locale distribuée
  • Architecture : découverte des appareils via libp2p, backend MLX, tableau de bord et couches API
  • Exigences matérielles : Apple Silicon (M3 Ultra, M4 Pro/Max), Thunderbolt 5, stockage partagé

Installation d’EXO sur macOS

  • Configuration d’Xcode, du Metal ToolChain et des prérequis macOS
  • Installation de uv, Node.js et de la toolchain Rust nightly
  • Installation de la version fourchée macmon pour la surveillance des appareils Apple Silicon
  • Clonage du dépôt et compilation du tableau de bord avec npm
  • Exécution d’EXO depuis les sources et vérification du tableau de bord localhost:52415

Installation d’EXO sur Linux

  • Installation des dépendances via apt ou Homebrew sous Linux
  • Configuration de uv, Node.js 18+ et Rust nightly
  • Compilation du tableau de bord et exécution d’EXO en mode uniquement CPU
  • Architecture des répertoires : chemins XDG Base Directory pour la configuration, les données, le cache et les journaux

Découverte automatique des appareils et formation du cluster

  • Compréhension de la découverte automatique basée sur libp2p sur les réseaux locaux
  • Configuration de nomspaces personnalisés avec EXO_LIBP2P_NAMESPACE pour l’isolation du cluster
  • Vérification de l’appartenance des nœuds dans la vue cluster du tableau de bord
  • Gestion des échecs de découverte et des problèmes de segmentation réseau

Activation du RDMA sur Thunderbolt 5

  • Architecture RDMA et affirmation d’une réduction de la latence de 99 %
  • Activation du RDMA en mode Recovery macOS avec rdma_ctl
  • Exigences en câbles et contraintes de topologie des ports sur Mac Studio
  • Uniformité des versions macOS sur tous les nœuds du cluster
  • Diagnostic des problèmes de découverte RDMA et de configuration DHCP

Déploiement des modèles de pointe

  • Utilisation du tableau de bord pour charger et sharder les modèles DeepSeek v3.1, Qwen3-235B et la famille Llama
  • Aperçu des emplacements des instances via le point de terminaison /instance/previews de l’API
  • Création d’instances de modèles avec le sharding en pipeline ou en parallélisme tensoriel
  • Configuration de cartes de modèle personnalisées depuis le hub HuggingFace

Surveillance et diagnostic

  • Lecture des journaux EXO et compréhension du traçage distribué
  • Interprétation de la santé du cluster dans la vue cluster du tableau de bord
  • Diagnostic des pannes des nœuds workers et du comportement de reconnexion
  • Utilisation d’EXO_TRACING_ENABLED pour l’analyse des goulets d’étranglement de performance

Maintenance et mises à jour du cluster

  • Mise à jour des binaires EXO et procédures de recompilation du tableau de bord
  • Migration des caches de modèles et gestion des modèles pré-téléchargés via NFS
  • Suppression graduelle des nœuds et rééquilibrage des charges de travail

Pré requis

  • Compréhension des fondamentaux du réseau (IP, sous-réseautage, pare-feu)
  • Expérience en administration de la ligne de commande macOS ou Linux
  • Connaissance de la gestion des paquets Python (pip/uv) et des outils Node.js

Public cible

  • Administrateurs système
  • Ingénieurs DevOps
  • Architectes d’infrastructure IA responsables du déploiement de LLM sur site
 21 Heures

Nombre de participants


Prix par participant

Cours à venir

Catégories Similaires