Prenez contact avec nous

Plan du cours

Environnement ML sur iOS et configuration du développement

  • Architecture du ML sur l'appareil d'Apple : CoreML, Vision, Speech, NaturalLanguage
  • Configuration de l'environnement de développement : Anaconda, Python, Xcode et Swift
  • Introduction à coremltools et au pipeline de conversion du ML sur iOS
  • TP 1 : Valider l'environnement macOS/Swift, installer Python/Anaconda et vérifier l'intégration des outils en ligne de commande d'Xcode

Entraînement de modèles personnalisés avec Python et les bibliothèques ML populaires

  • Sélection du modèle : quand utiliser Keras/TensorFlow plutôt que scikit-learn ou libsvm
  • Prétraitement des données, boucles d'entraînement et métriques d'évaluation en Python
  • Intégration d'Anaconda et Spyder pour un développement et un débogage efficaces des modèles
  • Gestion des modèles hérités : importation de réseaux Caffe via coremltools
  • TP 2 : Entraîner un modèle de classification/régression personnalisé en Python (Keras/scikit-learn) et l'exporter au format .h5/.pkl

Conversion des modèles vers CoreML et intégration sur iOS

  • Utilisation de coremltools pour convertir les modèles TensorFlow, Keras, scikit-learn, libsvm et Caffe au format .mlmodel
  • Inspection des modèles CoreML dans Xcode : couches, entrées/sorties, précision et niveaux d'optimisation
  • Chargement des modèles CoreML dans Swift : MLModel, MLFeatureProvider et inférence asynchrone
  • TP 3 : Convertir un modèle entraîné en Python vers CoreML, l'inspecter dans Xcode et le charger dans un playground Swift

Construction de l'intelligence iOS avec CoreML et Vision

  • Framework Vision : détection de visages, détection d'objets, reconnaissance de texte et lecture de codes-barres
  • Intégration CoreGraphics : prétraitement des images, masquage de la région d'intérêt (ROI) et rendu des superpositions
  • GameplayKit : application d'arbres de comportement IA, recherche de chemin et logique de jeu en parallèle du ML dans l'application
  • Optimisation de l'inférence en temps réel : pipelines multi-modèles, mise en cache et gestion de la mémoire
  • TP 4 : Implémenter une fonctionnalité d'analyse d'image en temps réel utilisant Vision + un modèle CoreML personnalisé + superposition CoreGraphics

Reconnaissance vocale, TAL (Traitement Automatique des Langues) et intégration Siri

  • Framework Speech : reconnaissance vocale en temps réel, vocabulaire personnalisé et injection de modèle linguistique
  • Framework NaturalLanguage : tokenisation, analyse des sentiments, détection des entités nommées (NER) et identification de la langue
  • SiriKit et Shortcuts : ajout de commandes vocales, intentions personnalisées et prise en charge de Siri sur l'appareil
  • Vie privée et sécurité : sandboxing de CoreML, chiffrement des données et compromis entre l'inférence sur l'appareil et dans le cloud
  • TP 5 : Ajouter des commandes vocales, l'analyse de texte et des raccourcis Siri à l'application iOS

Projet final et déploiement de l'application

  • Flux de travail complet : entraînement en Python → conversion CoreML → interface utilisateur Swift → déploiement sur iOS
  • Profilage des performances : Instruments, diagnostics CoreML et quantification des modèles (FP16/INT8)
  • Directives de l'App Store pour les applications ML : limites de taille, manifests de confidentialité et gestion des données sur l'appareil
  • Projet final : Déployer une application iOS complète avec un modèle CoreML personnalisé, un traitement Vision, des fonctionnalités vocales/TAL et une intégration Siri
  • Revue, questions-réponses et prochaines étapes : Passage à SwiftUI, Core ML multi-modales et MLOps pour iOS

Pour demander un plan de cours personnalisé pour cette formation, veuillez nous contacter.

Pré requis

  • Expérience avérée en programmation Swift (Xcode, SwiftUI/UIKit, async/await, fermetures (closures))
  • Aucune connaissance préalable en apprentissage automatique ou science des données n'est requise
  • Une familiarité avec les bases de la ligne de commande et la syntaxe Python est un atout

Audience cible

  • Développeurs iOS et mobiles
  • Ingénieurs logiciels souhaitant se reconvertir vers l'IA sur l'appareil (on-device AI)
  • Responsables techniques évaluant les stratégies de déploiement du ML sur iOS
 14 Heures

Nombre de participants


Prix par participant

Nos clients témoignent (1)

Cours à venir

Catégories Similaires