Merci d'avoir envoyé votre demande ! Un membre de notre équipe vous contactera sous peu.
Merci d'avoir envoyé votre réservation ! Un membre de notre équipe vous contactera sous peu.
Plan du cours
Environnement ML sur iOS et configuration du développement
- Architecture du ML sur l'appareil d'Apple : CoreML, Vision, Speech, NaturalLanguage
- Configuration de l'environnement de développement : Anaconda, Python, Xcode et Swift
- Introduction à coremltools et au pipeline de conversion du ML sur iOS
- TP 1 : Valider l'environnement macOS/Swift, installer Python/Anaconda et vérifier l'intégration des outils en ligne de commande d'Xcode
Entraînement de modèles personnalisés avec Python et les bibliothèques ML populaires
- Sélection du modèle : quand utiliser Keras/TensorFlow plutôt que scikit-learn ou libsvm
- Prétraitement des données, boucles d'entraînement et métriques d'évaluation en Python
- Intégration d'Anaconda et Spyder pour un développement et un débogage efficaces des modèles
- Gestion des modèles hérités : importation de réseaux Caffe via coremltools
- TP 2 : Entraîner un modèle de classification/régression personnalisé en Python (Keras/scikit-learn) et l'exporter au format .h5/.pkl
Conversion des modèles vers CoreML et intégration sur iOS
- Utilisation de coremltools pour convertir les modèles TensorFlow, Keras, scikit-learn, libsvm et Caffe au format .mlmodel
- Inspection des modèles CoreML dans Xcode : couches, entrées/sorties, précision et niveaux d'optimisation
- Chargement des modèles CoreML dans Swift : MLModel, MLFeatureProvider et inférence asynchrone
- TP 3 : Convertir un modèle entraîné en Python vers CoreML, l'inspecter dans Xcode et le charger dans un playground Swift
Construction de l'intelligence iOS avec CoreML et Vision
- Framework Vision : détection de visages, détection d'objets, reconnaissance de texte et lecture de codes-barres
- Intégration CoreGraphics : prétraitement des images, masquage de la région d'intérêt (ROI) et rendu des superpositions
- GameplayKit : application d'arbres de comportement IA, recherche de chemin et logique de jeu en parallèle du ML dans l'application
- Optimisation de l'inférence en temps réel : pipelines multi-modèles, mise en cache et gestion de la mémoire
- TP 4 : Implémenter une fonctionnalité d'analyse d'image en temps réel utilisant Vision + un modèle CoreML personnalisé + superposition CoreGraphics
Reconnaissance vocale, TAL (Traitement Automatique des Langues) et intégration Siri
- Framework Speech : reconnaissance vocale en temps réel, vocabulaire personnalisé et injection de modèle linguistique
- Framework NaturalLanguage : tokenisation, analyse des sentiments, détection des entités nommées (NER) et identification de la langue
- SiriKit et Shortcuts : ajout de commandes vocales, intentions personnalisées et prise en charge de Siri sur l'appareil
- Vie privée et sécurité : sandboxing de CoreML, chiffrement des données et compromis entre l'inférence sur l'appareil et dans le cloud
- TP 5 : Ajouter des commandes vocales, l'analyse de texte et des raccourcis Siri à l'application iOS
Projet final et déploiement de l'application
- Flux de travail complet : entraînement en Python → conversion CoreML → interface utilisateur Swift → déploiement sur iOS
- Profilage des performances : Instruments, diagnostics CoreML et quantification des modèles (FP16/INT8)
- Directives de l'App Store pour les applications ML : limites de taille, manifests de confidentialité et gestion des données sur l'appareil
- Projet final : Déployer une application iOS complète avec un modèle CoreML personnalisé, un traitement Vision, des fonctionnalités vocales/TAL et une intégration Siri
- Revue, questions-réponses et prochaines étapes : Passage à SwiftUI, Core ML multi-modales et MLOps pour iOS
Pour demander un plan de cours personnalisé pour cette formation, veuillez nous contacter.
Pré requis
- Expérience avérée en programmation Swift (Xcode, SwiftUI/UIKit, async/await, fermetures (closures))
- Aucune connaissance préalable en apprentissage automatique ou science des données n'est requise
- Une familiarité avec les bases de la ligne de commande et la syntaxe Python est un atout
Audience cible
- Développeurs iOS et mobiles
- Ingénieurs logiciels souhaitant se reconvertir vers l'IA sur l'appareil (on-device AI)
- Responsables techniques évaluant les stratégies de déploiement du ML sur iOS
14 Heures
Nos clients témoignent (1)
La méthode de transmission des connaissances et les compétences du formateur.
Jakub Rekas - Bitcomp Sp. z o.o.
Formation - Machine Learning on iOS
Traduction automatique