Prenez contact avec nous

Plan du cours

Souveraineté de l'IA et déploiement local des LLM

  • Risques des LLM cloud : conservation des données, entraînement sur les entrées, juridiction étrangère.
  • Architecture d'Ollama : serveur de modèles, registre et API compatible OpenAI.
  • Comparaison avec vLLM, llama.cpp et Text Generation Inference.
  • Licences des modèles : conditions d'utilisation de Llama, Mistral, Qwen et Gemma.

Installation et configuration matérielle

  • Installation d'Ollama sur Linux avec prise en charge de CUDA et ROCm.
  • Solution de repli uniquement sur CPU et optimisation AVX/AVX2.
  • Déploiement Docker et mappage des volumes persistants.
  • Configuration multi-GPU et stratégies d'allocation de VRAM.

Gestion des modèles

  • Téléchargement de modèles depuis le registre Ollama : ollama pull llama3.
  • Importation de modèles GGUF depuis HuggingFace et TheBloke.
  • Niveaux de quantification : compromis entre Q4_K_M, Q5_K_M et Q8_0.
  • Basculer entre les modèles et limites de chargement simultané des modèles.

Fichiers Modelfiles personnalisés

  • Écriture de la syntaxe du fichier Modelfile : FROM, PARAMETER, SYSTEM, TEMPLATE.
  • Réglage de la température, top_p et de la pénalité de répétition.
  • Ingénierie du prompt système pour un comportement spécifique au rôle.
  • Création et publication de modèles personnalisés vers le registre local.

Intégration API

  • Point de terminaison OpenAI-compatible /v1/chat/completions.
  • Réponses en streaming et mode JSON.
  • Intégration avec LangChain, LlamaIndex et applications personnalisées.
  • Authentification et limitation du débit avec proxy inverse.

Optimisation des performances

  • Taille de la fenêtre de contexte et gestion du cache KV.
  • Inférence par lots et gestion des requêtes parallèles.
  • Allocation des threads CPU et prise en compte de la NUMA.
  • Surveillance de l'utilisation du GPU et de la pression sur la mémoire.

Sécurité et conformité

  • Isolation réseau pour les points de terminaison de service de modèles.
  • Pipelines de filtrage des entrées et de modération des sorties.
  • Journalisation des prompts et des complétions aux fins d'audit.
  • Provenance des modèles et vérification par hash.

Pré requis

  • Administration intermédiaire de Linux et des conteneurs.
  • Compréhension des modèles d'apprentissage automatique et des transformers à un niveau élevé.
  • Connaissance des API REST et du format JSON.

Audience

  • Ingénieurs en IA et développeurs remplaçant les API de LLM cloud.
  • Organisations dont la sensibilité des données empêche l'utilisation de modèles cloud.
  • Équipes gouvernementales et de défense nécessitant des modèles de langage hors réseau (air-gapped).
 14 Heures

Nombre de participants


Prix par participant

Cours à venir

Catégories Similaires