Merci d'avoir envoyé votre demande ! Un membre de notre équipe vous contactera sous peu.
Merci d'avoir envoyé votre réservation ! Un membre de notre équipe vous contactera sous peu.
Plan du cours
Introduction à Ollama pour le déploiement de LLM
- Vue d'ensemble des capacités de Ollama
- Avantages du déploiement local de modèles d'IA
- Comparaison avec les solutions d'hébergement d'IA basées sur le cloud
Configuration de l'environnement de déploiement
- Installation de Ollama et des dépendances nécessaires
- Configuration du matériel et de l'accélération GPU.
- [Optimisation Docker pour des déploiements évolutifs
Déploiement de LLM avec Ollama
- Chargement et gestion des modèles d'IA
- Déployer Llama 3, DeepSeek, Mistral et d'autres modèles
- Création d'API et de points d'extrémité pour l'accès aux modèles d'IA
Optimisation des performances des LLM
- Ajustement des modèles pour plus d'efficacité
- Réduction de la latence et amélioration des temps de réponse
- Gestion de la mémoire et de l'allocation des ressources
Intégration de Ollama dans les flux de travail d'IA
- Connecter Ollama aux applications et aux services
- Automatiser les processus pilotés par l'IA
- Utilisation de Ollama dans les environnements informatiques périphériques
Surveillance et maintenance
- Suivi des performances et débogage des problèmes
- Mise à jour et gestion des modèles d'IA
- Garantir la sécurité et la conformité des déploiements d'IA
Mise à l'échelle des déploiements de modèles d'IA
- Meilleures pratiques pour gérer les charges de travail élevées
- Mise à l'échelle Ollama pour les cas d'utilisation en entreprise
- Progrès futurs dans le déploiement de modèles d'IA locaux
Résumé et prochaines étapes
Pré requis
- Expérience de base de l'apprentissage automatique et des modèles d'IA
- Familiarité avec les interfaces en ligne de commande et les scripts
- Compréhension des environnements de déploiement (local, edge, cloud)
Audience
- Ingénieurs en IA optimisant les déploiements d'IA en local et dans le cloud
- Praticiens ML déployant et affinant les LLM
- Spécialistes DevOps gérant l'intégration des modèles d'IA
14 Heures