Plan du cours

Introduction à Ollama

  • Qu'est-ce que Ollama et comment fonctionne-t-il ?
  • Avantages de l'exécution locale des modèles IA
  • Aperçu des LLMs pris en charge (Llama, DeepSeek, Mistral, etc.)

Installation et configuration de Ollama

  • Exigences système et considérations matérielles
  • Installation de Ollama sur différents systèmes d'exploitation
  • Configuration des dépendances et du environnement

Exécution locale des modèles IA

  • Téléchargement et chargement de modèles IA dans Ollama
  • Interaction avec les modèles via la ligne de commande
  • Ingénierie basique des prompts pour les tâches locales AI

Optimisation des performances et de l'utilisation des ressources

  • Gestion des ressources matérielles pour une exécution efficace de l'IA
  • Réduction du délai d'exécution et amélioration du temps de réponse des modèles
  • Benchmarks des performances pour différents modèles

Use Case pour le déploiement local de l'IA

  • Chatbots et assistants virtuels basés sur IA
  • Traitement des données et tâches d'automatisation
  • Applications AI axées sur la confidentialité

Récapitulatif et prochaines étapes

Pré requis

  • Compréhension de base des concepts d'IA et de l'apprentissage automatique
  • Familiarité avec les interfaces en ligne de commande

Public cible

  • Développeurs exécutant des modèles IA sans dépendance cloud
  • Business professionnels intéressés par la confidentialité de l'IA et un déploiement rentable
  • Enthusiastes de l'IA explorant le déploiement local des modèles
 7 Heures

Nombre de participants


Prix ​​par Participant

Cours à venir

Catégories Similaires