Merci d'avoir envoyé votre demande ! Un membre de notre équipe vous contactera sous peu.
Merci d'avoir envoyé votre réservation ! Un membre de notre équipe vous contactera sous peu.
Plan du cours
Introduction à Ollama
- Qu'est-ce que Ollama et comment fonctionne-t-il ?
- Avantages de l'exécution locale des modèles IA
- Aperçu des LLMs pris en charge (Llama, DeepSeek, Mistral, etc.)
Installation et configuration de Ollama
- Exigences système et considérations matérielles
- Installation de Ollama sur différents systèmes d'exploitation
- Configuration des dépendances et du environnement
Exécution locale des modèles IA
- Téléchargement et chargement de modèles IA dans Ollama
- Interaction avec les modèles via la ligne de commande
- Ingénierie basique des prompts pour les tâches locales AI
Optimisation des performances et de l'utilisation des ressources
- Gestion des ressources matérielles pour une exécution efficace de l'IA
- Réduction du délai d'exécution et amélioration du temps de réponse des modèles
- Benchmarks des performances pour différents modèles
Use Case pour le déploiement local de l'IA
- Chatbots et assistants virtuels basés sur IA
- Traitement des données et tâches d'automatisation
- Applications AI axées sur la confidentialité
Récapitulatif et prochaines étapes
Pré requis
- Compréhension de base des concepts d'IA et de l'apprentissage automatique
- Familiarité avec les interfaces en ligne de commande
Public cible
- Développeurs exécutant des modèles IA sans dépendance cloud
- Business professionnels intéressés par la confidentialité de l'IA et un déploiement rentable
- Enthusiastes de l'IA explorant le déploiement local des modèles
7 Heures