Formation Data Vault: Building a Scalable Data Warehouse
Data Vault La modélisation est une technique de modélisation de base de données qui permet le stockage historique à long terme de données provenant de sources multiples. Un coffre-fort de données stocke une version unique des faits, ou "toutes les données, tout le temps". Sa conception flexible, évolutive, cohérente et adaptable englobe les meilleurs aspects de la 3e forme normale (3NF) et du schéma en étoile.
Au cours de cette formation en direct dirigée par un instructeur, les participants apprendront à construire un Data Vault.
A la fin de cette formation, les participants seront capables de :
- Comprendre l'architecture et les concepts de conception derrière Data Vault 2.0, et son interaction avec Big Data, NoSQL et l'IA.
- Utiliser les techniques de mise en voûte des données pour permettre l'audit, le traçage et l'inspection des données historiques dans un entrepôt de données.
- Développer un processus ETL (Extract, Transform, Load) cohérent et reproductible.
- Construire et déployer des entrepôts hautement évolutifs et reproductibles.
Format du cours permettant d'évaluer les participants
- En partie cours magistral, en partie discussion, exercices et pratique intensive.
Plan du cours
Introduction
- Les lacunes des architectures existantes de modélisation des données des entrepôts de données
- Avantages de la modélisation Data Vault
Aperçu de l'architecture Data Vault et des principes de conception
- SEI / CMM / Conformité
Applications Data Vault
- Entrepôt de données dynamique
- Entrepôt d'exploration
- In-Database Data Mining
- Liaison rapide d'informations externes
Data Vault composants
- Hubs, Links, Satellites
Construction d'un Data Vault
Modélisation des nœuds, des liens et des satellites
Règles de référence Data Vault
Comment les composants interagissent entre eux
Modéliser et alimenter un Data Vault
Conversion de 3NF OLTP en Data Vault Enterprise Data Warehouse (EDW)
Comprendre les dates de chargement, les dates de fin et les opérations de jointure
[Clés, relations, tables de liens et techniques de jointure
Techniques d'interrogation
Traitement des charges et traitement des requêtes
Vue d'ensemble de la Matrix méthodologie
Introduire des données dans les entités de données
Chargement des entités de base
Chargement des entités de liaison
Chargement des satellites
Utilisation des modèles SEI/CMM niveau 5 pour obtenir des résultats reproductibles, fiables et quantifiables
Développer un processus ETL (Extract, Transform, Load) cohérent et reproductible
Construire et déployer des entrepôts hautement évolutifs et reproductibles
Remarques finales
Pré requis
- Compréhension des concepts d'entreposage de données
- Compréhension des concepts de base de données et de modélisation des données
Public
- Modélisateurs de données
- Spécialistes de l'entreposage de données
- [Spécialistes de l'intelligence
- Ingénieurs de données
- Database administrateurs
Les formations ouvertes requièrent plus de 3 participants.
Formation Data Vault: Building a Scalable Data Warehouse - Booking
Formation Data Vault: Building a Scalable Data Warehouse - Enquiry
Data Vault: Building a Scalable Data Warehouse - Demande d'informations consulting
Demande d'informations consulting
Nos clients témoignent (1)
comment le formateur démontre ses connaissances dans le sujet qu'il enseigne
john ernesto ii fernandez - Philippine AXA Life Insurance Corporation
Formation - Data Vault: Building a Scalable Data Warehouse
Traduction automatique
Cours à venir
Cours Similaires
From Data to Decision with Big Data and Predictive Analytics
21 HeuresPublic
Si vous essayez de comprendre les données auxquelles vous avez accès ou souhaitez analyser des données non structurées disponibles sur le réseau (comme Twitter, Linked in, etc.), ce cours est pour vous.
Il s’adresse principalement aux décideurs et aux personnes qui doivent choisir les données qui méritent d’être collectées et celles qui méritent d’être analysées.
Cela ne vise pas les personnes qui configurent la solution, ces personnes bénéficieront d'une vue d'ensemble.
Mode de livraison
Pendant le cours, des exemples concrets de technologies principalement open source seront présentés aux délégués.
De courtes conférences seront suivies de présentations et d'exercices simples des participants.
Contenu et logiciel utilisés
Tous les logiciels utilisés sont mis à jour à chaque exécution du cours, nous vérifions donc les dernières versions possibles.
Il couvre le processus d'obtention, de formatage, de traitement et d'analyse des données, afin d'expliquer comment automatiser le processus de prise de décision avec l'apprentissage automatique.
Data Mining and Analysis
28 HeuresObjectif :
Les délégués seront en mesure d'analyser des ensembles de données volumineuses, d'extraire des modèles, de choisir la bonne variable ayant un impact sur les résultats afin qu'un nouveau modèle soit prévu avec des résultats prédictifs.
Data Mining
21 HeuresLe cours peut être fourni avec tous les outils, y compris des logiciels gratuits d'exploration de données open source et des applications
Data Mining with Python
14 HeuresCette formation en direct, animée par un instructeur (sur site ou à distance), est destinée aux analystes de données et aux scientifiques qui souhaitent mettre en œuvre des techniques d'analyse de données plus avancées pour l'exploration de données à l'aide de Python .
À la fin de cette formation, les participants seront en mesure de:
- Comprendre les principaux domaines de l'exploration de données, notamment l'exploration de règles d'association, l'analyse des sentiments dans le texte, la synthèse automatique de texte et la détection d'anomalies dans les données.
- Comparer et mettre en œuvre diverses stratégies pour résoudre des problèmes réels d'exploration de données.
- Comprendre et interpréter les résultats.
Format du cours permettant d'évaluer les participants
- Cours et discussion interactifs.
- De nombreux exercices et mises en pratique.
- Mise en œuvre pratique dans un environnement de laboratoire en direct.
Options de personnalisation du cours
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
Data Mining with R
14 HeuresR est un langage de programmation gratuit à source ouverte pour l'informatique statistique, l'analyse de données et les graphiques. R est utilisé par un nombre croissant de gestionnaires et d'analystes de données au sein de sociétés et d'universités. R propose une grande variété de packages pour l'exploration de données.
Data Visualization
28 HeuresCe cours est destiné aux ingénieurs et aux décideurs travaillant dans l’exploration de données et l’exploration de connaissances.
Vous apprendrez à créer des parcelles de terrain efficaces et à présenter et à représenter vos données de manière à attirer les décideurs et à les aider à comprendre les informations cachées.
Data Mining & Machine Learning avec R
14 HeuresR est un langage de programmation libre et gratuit pour le calcul statistique, l'analyse de données et les graphiques. R est utilisé par un nombre croissant de gestionnaires et d'analystes de données dans les entreprises et les universités. R dispose d'une grande variété de packages pour l'exploration de données.
Data Science for Big Data Analytics
35 HeuresLes données volumineuses sont des ensembles de données si volumineux et complexes qu'un logiciel de traitement de données traditionnel ne permet pas de les traiter. Les défis du Big Data incluent la capture, le stockage, l'analyse, la recherche, le partage, le transfert, la visualisation, l'interrogation, la mise à jour et la confidentialité des informations.
Foundation R
7 HeuresCette formation dispensée par un formateur en direct dans France (en ligne ou sur site) s'adresse aux professionnels débutants qui souhaitent maîtriser les fondamentaux de R et savoir travailler avec des données.
À la fin de cette formation, les participants seront capables de :
- Comprendre l'environnement de programmation R et l'interface RStudio.
- Importer, manipuler et explorer des jeux de données en utilisant des commandes et packages R.
- Réaliser une analyse statistique de base et une synthèse de données.
- Générer des visualisations à la fois avec R de base et ggplot2.
- Gérer efficacement les espaces de travail, les scripts et les packages.
KNIME Analytics Platform for BI
21 HeuresKNIME Analytics Platform est l'une des principales options open source pour l'innovation pilotée par les données. Elle vous permet de découvrir le potentiel caché dans vos données, d'explorer de nouvelles informations ou de prévoir de nouveaux futurs. Avec plus de 1000 modules, des centaines d'exemples prêts à l'emploi, une gamme complète d'outils intégrés et le plus vaste choix d'algorithmes avancés disponibles, KNIME Analytics Platform est la boîte à outils idéale pour tout informaticien ou analyste métier.
Cette formation pour KNIME Analytics Platform est une occasion idéale pour les débutants, les utilisateurs expérimentés et les experts KNIME de se familiariser avec KNIME , d'apprendre à l'utiliser plus efficacement et à créer des rapports clairs et complets basés sur les workflows de KNIME
Platforma analityczna KNIME - szkolenie kompleksowe
35 HeuresLa formation "Analytics Platform KNIME" offre une vue d'ensemble de cette plateforme gratuite d'analyse de données. Le programme couvre une introduction au traitement et à l'analyse des données, l'installation et la configuration KNIME, la création de flux de travail, les méthodologies de modélisation d'entreprise et la modélisation des données. Le cours aborde également les outils d'analyse de données avancés, l'importation et l'exportation de flux de travail, l'intégration d'outils, les processus ETL, l'exploration de données, la visualisation, les extensions et les intégrations avec des outils tels que R, Java, Python, Gephi, Neo4j. La conclusion comprend une discussion sur les rapports, l'intégration avec BIRT et KNIME WebPortal.
Oracle SQL Intermediate - Data Extraction
14 HeuresL'objectif de ce cours est de permettre aux participants de maîtriser l'utilisation du langage SQL dans une base de données Oracle pour l'extraction de données à un niveau intermédiaire.
Process Mining
21 HeuresL'exploration de processus, ou Automated Business Process Discovery (ABPD), est une technique qui applique des algorithmes aux journaux d'événements dans le but d'analyser les processus d'entreprise. Le Process Mining va au-delà du stockage et de l'analyse des données ; il fait le lien entre les données et les processus et permet de comprendre les tendances et les modèles qui affectent l'efficacité des processus.
Format du cours permettant d'évaluer les participants
- Le cours commence par une vue d'ensemble des techniques les plus couramment utilisées pour l'exploration de processus. Nous discutons des différents algorithmes de découverte de processus et des outils utilisés pour découvrir et modéliser les processus basés sur des données brutes d'événements. Des études de cas réels sont examinées et des ensembles de données sont analysés en utilisant le framework open-source ProM.
Introductory R for Biologists
28 HeuresR est un langage de programmation gratuit à source ouverte pour l'informatique statistique, l'analyse de données et les graphiques. R est utilisé par un nombre croissant de gestionnaires et d'analystes de données au sein de sociétés et d'universités. R a également trouvé des adeptes parmi les statisticiens, ingénieurs et scientifiques sans compétences en programmation informatique et qui le trouvent facile à utiliser. Sa popularité est due à l'utilisation croissante de l'extraction de données pour divers objectifs, tels que fixer les prix des annonces, trouver plus rapidement de nouveaux médicaments ou affiner les modèles financiers. R propose une grande variété de packages pour l'exploration de données.
Statistics with SPSS Predictive Analytics Software
14 HeuresGoal :
Apprendre à travailler avec SPSS au niveau de l'indépendance
Les destinataires :
Analystes, chercheurs, scientifiques, étudiants et tous ceux qui souhaitent acquérir la capacité d'utiliser le progiciel SPSS et apprendre les techniques populaires d'exploration de données.