Merci d'avoir envoyé votre demande ! Un membre de notre équipe vous contactera sous peu.
Merci d'avoir envoyé votre réservation ! Un membre de notre équipe vous contactera sous peu.
Plan du cours
Souveraineté de l'IA et déploiement local des LLM
- Risques des LLM cloud : conservation des données, entraînement sur les entrées, juridiction étrangère.
- Architecture d'Ollama : serveur de modèles, registre et API compatible OpenAI.
- Comparaison avec vLLM, llama.cpp et Text Generation Inference.
- Licences des modèles : conditions d'utilisation de Llama, Mistral, Qwen et Gemma.
Installation et configuration matérielle
- Installation d'Ollama sur Linux avec prise en charge de CUDA et ROCm.
- Solution de repli uniquement sur CPU et optimisation AVX/AVX2.
- Déploiement Docker et mappage des volumes persistants.
- Configuration multi-GPU et stratégies d'allocation de VRAM.
Gestion des modèles
- Téléchargement de modèles depuis le registre Ollama : ollama pull llama3.
- Importation de modèles GGUF depuis HuggingFace et TheBloke.
- Niveaux de quantification : compromis entre Q4_K_M, Q5_K_M et Q8_0.
- Basculer entre les modèles et limites de chargement simultané des modèles.
Fichiers Modelfiles personnalisés
- Écriture de la syntaxe du fichier Modelfile : FROM, PARAMETER, SYSTEM, TEMPLATE.
- Réglage de la température, top_p et de la pénalité de répétition.
- Ingénierie du prompt système pour un comportement spécifique au rôle.
- Création et publication de modèles personnalisés vers le registre local.
Intégration API
- Point de terminaison OpenAI-compatible /v1/chat/completions.
- Réponses en streaming et mode JSON.
- Intégration avec LangChain, LlamaIndex et applications personnalisées.
- Authentification et limitation du débit avec proxy inverse.
Optimisation des performances
- Taille de la fenêtre de contexte et gestion du cache KV.
- Inférence par lots et gestion des requêtes parallèles.
- Allocation des threads CPU et prise en compte de la NUMA.
- Surveillance de l'utilisation du GPU et de la pression sur la mémoire.
Sécurité et conformité
- Isolation réseau pour les points de terminaison de service de modèles.
- Pipelines de filtrage des entrées et de modération des sorties.
- Journalisation des prompts et des complétions aux fins d'audit.
- Provenance des modèles et vérification par hash.
Pré requis
- Administration intermédiaire de Linux et des conteneurs.
- Compréhension des modèles d'apprentissage automatique et des transformers à un niveau élevé.
- Connaissance des API REST et du format JSON.
Audience
- Ingénieurs en IA et développeurs remplaçant les API de LLM cloud.
- Organisations dont la sensibilité des données empêche l'utilisation de modèles cloud.
- Équipes gouvernementales et de défense nécessitant des modèles de langage hors réseau (air-gapped).
14 Heures