Merci d'avoir envoyé votre demande ! Un membre de notre équipe vous contactera sous peu.
Merci d'avoir envoyé votre réservation ! Un membre de notre équipe vous contactera sous peu.
Plan du cours
Introduction à OpenAI Codex CLI
- Qu'est-ce que Codex CLI et l'architecture open-source Rust de 2025
- Fonctionnalités clés : invites, opérations sur les fichiers, exécution de bash, tâches multi-étapes
- Comparaison avec Claude Code et d'autres agents terminaux
- Aperçu des modes d'approbation et des limites de sécurité
Installation et configuration
- Installation de Codex CLI sur macOS et Linux
- Configuration des clés API pour OpenAI et les fournisseurs compatibles
- Connexion aux backends locaux via Ollama et Atomic Chat
- Configuration de SSH et de l'environnement de développement distant
Commandes de flux de travail central
- Exécution d'invites uniques et de sessions multi-tours
- Opérations de lecture, d'écriture et de modification de fichiers depuis les invites
- Exécution de commandes shell et sorties en mode pipe
- Gestion des répertoires de travail et du contexte du projet
Modes d'approbation et sécurité
- Configuration des modes automatique, demandant avant d'exécuter et entièrement manuel
- Isolement (sandboxing) et sessions en lecture seule versus activant l'écriture
- Gestion sécurisée des commandes destructrices et des suppressions de fichiers
Intégration Git et CI
- Utilisation de Codex CLI pour générer des commits et des diffs
- Hooks pré-commit avec examen par agent
- Exécution de Codex CLI dans des environnements CI sans tête (headless)
- Intégration avec GitHub Actions et GitLab CI
Intégration des serveurs MCP
- Connexion aux serveurs du Protocol de Contexte des Modèles (Model Context Protocol)
- Extension des capacités des outils avec des points de terminaison MCP personnalisés
- Création d'outils MCP internes pour les systèmes propriétaires
Prise en charge multi-backends
- Basculement entre les API OpenAI, Gemini et GitHub Models
- Inférence locale avec Ollama et points de terminaison auto-hébergés
- Stratégies de sélection des modèles pour la latence par rapport à la qualité
Déploiement en équipe et gouvernance
- Configuration partagée et gestion des secrets
- Politiques d'utilisation et journalisation des audits pour les entreprises
- Mise en place d'invites et de garde-fous standardisés pour l'équipe
Invites et workflows personnalisés
- Rédaction de modèles d'invites réutilisables
- Enchaînement des tâches pour des projets de refactoring complexes
- Traitement par lots de plusieurs fichiers et dépôts
Optimisation des performances
- Compréhension des caractéristiques de performance de Rust
- Optimisation de l'utilisation des tokens pour les grands projets
- Mise en cache et gestion de l'état de session
Résolution des problèmes courants
- Résolution des échecs de connexion aux backends
- Débogage de l'ambiguïté des invites et des interprétations erronées
- Gestion de la limitation du débit et des stratégies de nouvelle tentative
Bonnes pratiques de sécurité
- Protection des clés API dans les environnements partagés
- Prévention de l'injection d'invites et de la prise de contrôle des commandes
- Considérations relatives à la résidence des données et à la conformité
Résumé et prochaines étapes
- Rappel des capacités et flux de travail principaux
- Ressources communautaires et contributions open-source
- Passage aux sujets avancés d'orchestration multi-agents
Pré requis
- Expérience en développement logiciel dans n'importe quel langage de programmation
- Connaissances de base de l'utilisation de la ligne de commande et du terminal
- Familiarité avec les bases de Git
Public cible
- Développeurs logiciels souhaitant utiliser des agents terminaux IA dans leur flux de travail
- Ingénieurs DevOps explorant les outils IA basés sur Rust
- Chefs d'équipe évaluant l'adoption d'OpenAI Codex CLI pour le groupe
14 Heures