Plan du cours
Section 1 : Data Management dans HDFS
- Différents formats de données (JSON / Avro / Parquet)
- Schémas de compression
- Masquage des données
- Labs : Analyser les différents formats de données ; activer la compression
Section 2 : Pig avancé
- Fonctions définies par l'utilisateur
- Introduction aux bibliothèques Pig (ElephantBird / Data-Fu)
- Chargement de données structurées complexes avec Pig
- Ajustement de Pig
- Labs : scripting Pig avancé, analyse des types de données complexes
Section 3 : Avancé Hive
- Fonctions définies par l'utilisateur
- Tables compressées
- Hive Optimisation des performances
- Labs : création de tables compressées, évaluation des formats de tables et de la configuration
Section 4 : HBase avancé
- Modélisation avancée des schémas
- Compression
- Ingestion de données en masse
- Comparaison table large / table haute
- HBase et Pig
- HBase et Hive
- Optimisation des performances de HBase
- Labs : réglage de HBase ; accès aux données HBase à partir de Pig & Hive ; utilisation de Phoenix pour la modélisation des données
Pré requis
- être à l'aise avec Java langage de programmation (la plupart des exercices de programmation se font en Java)
- être à l'aise dans l'environnement Linux (être capable de naviguer sur la ligne de commande Linux, d'éditer des fichiers en utilisant vi / nano)
- une connaissance pratique de Hadoop.
Environnement du laboratoire
Zéro installation : Il n'est pas nécessaire d'installer le logiciel Hadoop sur les machines des étudiants ! Un cluster Hadoop fonctionnel sera fourni aux étudiants.
Les étudiants auront besoin des éléments suivants
- un client SSH (Linux et Mac ont déjà des clients SSH, pour Windows Putty est recommandé)
- un navigateur pour accéder au cluster. Nous recommandons le navigateur Firefox
Nos clients témoignent (5)
Les exemples en direct
Ahmet Bolat - Accenture Industrial SS
Formation - Python, Spark, and Hadoop for Big Data
Traduction automatique
Pendant les exercices, James m'a expliqué chaque étape en détail là où j'étais bloqué. Je n'avais aucune expérience avec NIFI au départ. Il m'a expliqué le véritable objectif de NIFI, y compris des notions de base comme le code source ouvert. Il a couvert tous les concepts de Nifi, du niveau débutant au niveau développeur.
Firdous Hashim Ali - MOD A BLOCK
Formation - Apache NiFi for Administrators
Traduction automatique
Préparation et organisation du formateur, et qualité des matériaux fournis sur GitHub.
Mateusz Rek - MicroStrategy Poland Sp. z o.o.
Formation - Impala for Business Intelligence
Traduction automatique
Que je l'aie eu dans un premier temps.
Peter Scales - CACI Ltd
Formation - Apache NiFi for Developers
Traduction automatique
les choses pratiques à faire, ainsi que la théorie qui a été bien expliquée par Ajay
Dominik Mazur - Capgemini Polska Sp. z o.o.
Formation - Hadoop Administration on MapR
Traduction automatique