Formation Sécurité et confidentialité dans les applications TinyML
TinyML est une approche consistant à déployer des modèles d'apprentissage automatique sur des appareils à faible puissance et à ressources limitées, fonctionnant au bord du réseau.
Cette formation en ligne ou sur site, dirigée par un formateur, s'adresse aux professionnels de niveau avancé qui souhaitent sécuriser les pipelines TinyML et mettre en œuvre des techniques de préservation de la confidentialité dans les applications d'IA au bord.
À la fin de cette formation, les participants seront capables de :
- Identifier les risques de sécurité propres à l'inférence TinyML sur appareil.
- Mettre en œuvre des mécanismes de préservation de la confidentialité pour les déploiements d'IA au bord.
- Durcir les modèles TinyML et les systèmes embarqués contre les menaces adversaires.
- Appliquer les meilleures pratiques pour la gestion sécurisée des données dans des environnements contraints.
Format de la formation
- Des présentations captivantes soutenues par des discussions dirigées par un expert.
- Des exercices pratiques mettant l'accent sur des scénarios de menace réels.
- Une mise en œuvre pratique utilisant les outils de sécurité embarquée et TinyML.
Options de personnalisation de la formation
- Les organisations peuvent demander une version sur mesure de cette formation pour s'aligner avec leurs besoins spécifiques en matière de sécurité et de conformité.
Plan du cours
Introduction à la sécurité dans TinyML
- Les défis de sécurité dans les systèmes d'apprentissage automatique à ressources limitées
- Les modèles de menace pour les déploiements TinyML
- Les catégories de risque pour les applications d'IA embarquée
Confidentialité des données en IA au bord
- Les considérations de confidentialité pour le traitement des données sur appareil
- Minimiser l'exposition et le transfert des données
- Techniques de gestion décentralisée des données
Attaques adverses sur les modèles TinyML
- Menaces d'évasion et d'empoisonnement des modèles
- Manipulation des entrées sur les capteurs embarqués
- Évaluation de la vulnérabilité dans des environnements contraints
Durcissement de la sécurité pour l'IA embarquée
- Couches de protection logicielle et matérielle
- Contrôle d'accès et mécanismes de démarrage sécurisé
- Meilleures pratiques pour protéger les pipelines d'inférence
Techniques de préservation de la confidentialité en TinyML
- Considérations sur la quantification et la conception des modèles pour la confidentialité
- Techniques d'anonymisation sur appareil
- Méthodes de chiffrement léger et de calcul sécurisé
Déploiement et maintenance sécurisés
- Provisionnement sécurisé des appareils TinyML
- Mises à jour OTA et stratégies de correction
- Surveillance et réponse aux incidents au bord du réseau
Test et validation des systèmes TinyML sécurisés
- Cadres de test de sécurité et de confidentialité
- Simulation de scénarios d'attaque réels
- Considérations sur la validation et la conformité
Études de cas et scénarios appliqués
- Échecs de sécurité dans les écosystèmes d'IA au bord
- Conception d'architectures TinyML résilientes
- Évaluation des compromis entre performance et protection
Synthèse et étapes suivantes
Pré requis
- Une compréhension des architectures des systèmes embarqués
- Une expérience avec les flux de travail d'apprentissage automatique
- Des connaissances en fondamentaux de la cybersécurité
Public cible
- Analystes de sécurité
- Développeurs d'IA
- Ingénieurs embarqués
Les formations ouvertes requièrent plus de 3 participants.
Formation Sécurité et confidentialité dans les applications TinyML - Réservation
Formation Sécurité et confidentialité dans les applications TinyML - Enquiry
Sécurité et confidentialité dans les applications TinyML - Demande d'informations consulting
Demande d'informations consulting
Cours à venir
Cours Similaires
AI Governance, Compliance, et Sécurité pour les Dirigeants d'Entreprise
14 HeuresCette formation en direct (en ligne ou sur site) est destinée aux dirigeants intermédiaires de l'entreprise qui souhaitent comprendre comment gouverner et sécuriser les systèmes d'intelligence artificielle de manière responsable et en conformité avec les cadres juridiques mondiaux émergents tels que le Règlement AI UE, GDPR, ISO/CEI 42001 et l'Ordre exécutif américain sur l'IA.
À la fin de cette formation, les participants seront capables de :
- Comprendre les risques juridiques, éthiques et réglementaires associés à l'utilisation de l'IA dans différents départements.
- Interpréter et appliquer les principaux cadres de gouvernance de l'IA (Règlement AI UE, NIST AI RMF, ISO/CEI 42001).
- Établir des politiques de sécurité, d'audit et de supervision pour le déploiement de l'IA dans l'entreprise.
- Développer des lignes directrices d'achat et d'utilisation pour les systèmes d'IA tiers et internes.
AI Risk Management et Sécurité dans le Secteur Public
7 HeuresArtificial Intelligence (AI) introduit de nouvelles dimensions des risques opérationnels, des défis de gouvernance et de l'exposition à la cybersécurité pour les agences et départements du gouvernement.
Cette formation en direct (en ligne ou sur site) animée par un formateur est destinée aux professionnels IT et du risque du secteur public avec une expérience limitée en intelligence artificielle qui souhaitent comprendre comment évaluer, surveiller et sécuriser les systèmes d'IA dans le contexte gouvernemental ou réglementaire.
À la fin de cette formation, les participants seront capables de :
- Interpréter les concepts clés de risque liés aux systèmes d'IA, y compris les biais, l'imprévisibilité et le dérive du modèle.
- Appliquer des cadres de gouvernance et d'audit spécifiques à l'IA tels que NIST AI RMF et ISO/IEC 42001.
- Reconnaître les menaces de cybersécurité ciblant les modèles et les pipelines de données IA.
- Établir des plans de gestion des risques interdépartementaux et une mise en conformité avec la politique pour le déploiement d'IA.
Format du cours permettant d'évaluer les participants
- Cours interactif et discussion sur les cas d'utilisation du secteur public.
- Exercices de cadres de gouvernance IA et cartographie des politiques.
- Modélisation des menaces basée sur des scénarios et évaluation des risques.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour arranger cela.
Introduction à la confiance, au risque et à Security Management de l'IA (AI TRiSM)
21 HeuresCe formation en direct, dirigée par un formateur (en ligne ou sur site), s'adresse aux professionnels TI de niveau débutant à intermédiaire qui souhaitent comprendre et mettre en œuvre la gestion de confiance, des risques et de la sécurité pour l'IA (AI TRiSM) dans leur organisation.
À la fin de cette formation, les participants seront capables de :
- Maîtriser les concepts clés et l'importance de la gestion de la confiance, des risques et de la sécurité en matière d'IA.
- Identifier et atténuer les risques liés aux systèmes d'IA.
- Mettre en œuvre les meilleures pratiques en matière de sécurité pour l'IA.
- Comprendre la conformité réglementaire et les considérations éthiques relatives à l'IA.
- Développer des stratégies efficaces pour la gouvernance et la gestion de l'IA.
Construction d'applications de modèle linguistique large sécurisées et responsables
14 HeuresCette formation dirigée par un instructeur, en ligne ou sur site à France, est destinée aux développeurs AI, architectes et gestionnaires de produits intermédiaires à avancés qui souhaitent identifier et atténuer les risques associés aux applications alimentées par des LLM (modèles linguistiques larges), notamment les injections de prompts, les fuites de données et les sorties non filtrées, tout en intégrant des contrôles de sécurité tels que la validation des entrées, le contrôle humain dans la boucle et les garde-fous de sortie.
À la fin de cette formation, les participants seront en mesure de :
- Comprendre les vulnérabilités fondamentales des systèmes basés sur les LLM.
- Appliquer des principes de conception sécurisés à l'architecture des applications LLM.
- Utiliser des outils tels que Guardrails AI et LangChain pour la validation, le filtrage et la sécurité.
- Intégrer des techniques telles que le bac à sable (sandboxing), les équipes rouges (red teaming) et l'examen humain dans la boucle dans des pipelines de production de qualité.
Cybersécurité dans les systèmes d'IA
14 HeuresCe cours en direct, dispensé par un formateur (en ligne ou sur site), s'adresse aux professionnels intermédiaires de l'intelligence artificielle et de la cybersécurité qui souhaitent comprendre et traiter les vulnérabilités de sécurité spécifiques aux modèles et systèmes d'IA, en particulier dans des secteurs réglementés tels que la finance, la gouvernance des données et le conseil.
À l’issue de ce cours, les participants seront capables de :
- Comprendre les types d'attaques adversaires ciblant les systèmes d'IA et les méthodes pour y faire face.
- Mettre en œuvre des techniques de renforcement du modèle pour sécuriser les pipelines de l'apprentissage automatique.
- Garantir la sécurité et l'intégrité des données dans les modèles d'apprentissage automatique.
- Naviguer dans les exigences de conformité réglementaire liées à la sécurité de l'IA.
Introduction à AI Security et Risk Management
14 HeuresCette formation en direct animée par un formateur (en ligne ou sur place) s'adresse aux professionnels débutants de la sécurité informatique, du risque et de la conformité qui souhaitent comprendre les concepts fondamentaux de la sécurité de l'IA, les vecteurs de menace et les cadres mondiaux tels que NIST AI RMF et ISO/IEC 42001.
À la fin de cette formation, les participants pourront :
- Comprendre les risques de sécurité uniques introduits par les systèmes IA.
- Identifier des vecteurs de menace tels que les attaques adversaires, le poisonnement des données et l'inversion du modèle.
- Appliquer des modèles de gouvernance fondamentaux comme le cadre NIST AI Risk Management.
- Aligner l'utilisation de l'IA avec les normes émergentes, les directives de conformité et les principes éthiques.
Déploiement de l'IA sur les microcontrôleurs avec TinyML
21 HeuresCette formation en direct, dirigée par un formateur (en ligne ou sur site), s'adresse aux ingénieurs intermédiaires des systèmes embarqués et développeurs IA qui souhaitent déployer des modèles d'apprentissage automatique sur des microcontrôleurs en utilisant TensorFlow Lite et Edge Impulse.
À la fin de cette formation, les participants seront capables de :
- Comprendre les fondamentaux du TinyML et ses avantages pour les applications d'IA aux bords.
- Configurer un environnement de développement pour des projets TinyML.
- Former, optimiser et déployer des modèles IA sur des microcontrôleurs à faible consommation.
- Utiliser TensorFlow Lite et Edge Impulse pour mettre en œuvre des applications TinyML réelles.
- Optimiser les modèles IA pour l'efficacité énergétique et les contraintes de mémoire.
Sécurité de l'IA Générative (GenAI) OWASP
14 HeuresBasée sur les dernières directives du projet OWASP GenAI Security, les participants apprendront à identifier, évaluer et atténuer les menaces spécifiques aux IA à travers des exercices pratiques et des scénarios réels.
Privacy-Preserving Machine Learning
14 HeuresCe entraînement en direct, dirigé par un formateur (en ligne ou sur site), s'adresse aux professionnels avancés qui souhaitent mettre en œuvre et évaluer des techniques telles que l'apprentissage fédéré, le calcul multipartie sécurisé, le chiffrement homomorphique et la confidentialité différentielle dans les pipelines d'apprentissage automatique réels.
À la fin de cet entraînement, les participants seront en mesure de :
- Comprendre et comparer les techniques clés de préservation de la vie privée en ML.
- Mettre en œuvre des systèmes d'apprentissage fédéré à l'aide de cadres open-source.
- Appliquer la confidentialité différentielle pour un partage de données et une formation de modèles sûrs.
- Utiliser des techniques de chiffrement et de calcul sécurisé pour protéger les entrées et les sorties des modèles.
Red Teaming AI Systems: Offensive Security for ML Models
14 HeuresCe cours en direct, animé par un instructeur (en ligne ou sur place), s'adresse aux professionnels avancés de la sécurité et aux spécialistes de l'IA qui souhaitent simuler des attaques sur les systèmes d'intelligence artificielle, découvrir les vulnérabilités et renforcer la robustesse des modèles IA déployés.
À la fin de ce cours, les participants seront en mesure de :
- Simuler des menaces du monde réel pour les modèles d'apprentissage automatique.
- Générer des exemples adverses pour tester la robustesse du modèle.
- Évaluer la surface d'attaque des API et pipelines IA.
- Concevoir des stratégies de red teaming pour les environnements de déploiement AI.
Securing Edge AI et Intelligence Embbedded
14 HeuresCe formation en direct (en ligne ou sur site) dispensée par un formateur est destinée aux ingénieurs intermédiaires et aux professionnels de la sécurité qui souhaitent sécuriser les modèles IA déployés au niveau des périphéries contre des menaces telles que l'altération, la fuite de données, les entrées adversaires et les attaques physiques.
À la fin de cette formation, les participants seront en mesure de :
- Identifier et évaluer les risques de sécurité dans les déploiements d'IA au niveau des périphéries.
- Appliquer des techniques de résistance aux altérations et d'inférence chiffrée.
- Renforcer les modèles déployés sur le périmètre et sécuriser les canaux de données.
- Mettre en œuvre des stratégies de mitigation des menaces spécifiques aux systèmes embarqués et contraints.
Securing AI Models: Threats, Attacks, and Defenses
14 HeuresCe cours en direct, animé par un formateur (en ligne ou sur place), s'adresse aux professionnels intermédiaires de l'apprentissage automatique et de la cybersécurité qui souhaitent comprendre et atténuer les menaces émergentes contre les modèles IA, à travers des cadres conceptuels et des défenses pratiques comme un entraînement robuste et une confidentialité différentielle.
À la fin de ce cours, les participants seront capables de :
- Identifier et classifier les menaces spécifiques à l'IA telles que les attaques adversaires, l'inversion et le poisonnement des données.
- Utiliser des outils comme le Adversarial Robustness Toolbox (ART) pour simuler des attaques et tester des modèles.
- Appliquer des défenses pratiques, y compris l'entraînement adversaire, l'injection de bruit et les techniques préservant la confidentialité.
- Concevoir des stratégies d'évaluation des menaces pour les modèles dans un environnement de production.
IA Agente Sécurisée et Fiable : Gouvernance, Identité et Red-Teaming
21 HeuresCe cours couvre la gouvernance, la gestion des identités et les tests adverses pour les systèmes d'IA agente, en mettant l'accent sur les modèles de déploiement sécurisés pour les entreprises et des techniques pratiques de red-teaming.
Cette formation dirigée par un instructeur (en ligne ou sur site) est destinée aux praticiens de niveau avancé souhaitant concevoir, sécuriser et évaluer des systèmes d'IA basés sur les agents dans des environnements de production.
À la fin de cette formation, les participants seront en mesure de :
- Définir des modèles et des politiques de gouvernance pour des déploiements d'IA agente sécurisés.
- Concevoir des flux d'identité et d'authentification non humains pour les agents avec un accès à privilèges minimums.
- Mettre en œuvre des contrôles d'accès, des traces d'audit et une observabilité adaptés aux agents autonomes.
- Planifier et exécuter des exercices de red-teaming pour découvrir les mauvais usages, les chemins d'escalade et les risques d'exfiltration de données.
- Atténuer les menaces courantes aux systèmes agente par le biais de politiques, de contrôles d'ingénierie et de surveillance.
Format du Cours
- Conférences interactives et ateliers de modélisation des menaces.
- Ateliers pratiques : provisionnement d'identité, application des politiques et simulation d'adversaires.
- Exercices de red-team/blue-team et évaluation finale du cours.
Options de Personnalisation du Cours
- Pour demander une formation personnalisée pour ce cours, merci de nous contacter pour organiser.
Introduction à TinyML
14 HeuresCe formation en direct (en ligne ou sur site) est destinée aux ingénieurs et scientifiques des données de niveau débutant qui souhaitent comprendre les fondamentaux du TinyML, explorer ses applications et déployer des modèles d'IA sur des microcontrôleurs.
À la fin de cette formation, les participants seront capables de :
- Comprendre les fondamentaux du TinyML et son importance.
- Déployer des modèles d'IA légers sur des microcontrôleurs et des appareils de bord.
- Optimiser et affiner les modèles d'apprentissage automatique pour une consommation énergétique faible.
- Appliquer le TinyML à des applications réelles telles que la reconnaissance gestuelle, la détection d'anomalies et le traitement audio.
TinyML : Exécuter de l'IA sur des Dispositifs de Bords à Très Faible Consommation Énergétique
21 HeuresCette formation en direct, animée par un instructeur (en ligne ou sur site), s'adresse aux ingénieurs embarqués de niveau intermédiaire, aux développeurs IoT et aux chercheurs en IA qui souhaitent mettre en œuvre des techniques TinyML pour les applications alimentées par l'IA sur des matériels économes en énergie.
À la fin de cette formation, les participants seront capables de :
- Comprendre les fondamentaux du TinyML et de l'IA aux bords du réseau (edge AI).
- Déployer des modèles d'IA légers sur des microcontrôleurs.
- Optimiser la déduction IA pour une faible consommation énergétique.
- Intégrer le TinyML avec les applications IoT du monde réel.