Les formations Big Data

Les formations Big Data

Le terme BigData vise l'ensemble des solutions liées au stockage et au traitement d'un ensemble considérable de données. Les solutions BigData ont été initialement développées par Google, cependant, désormais, beaucoup d'implémentations open-source sont disponibles, dont Apache Hadoop, Cassandra ou Cloudera Impala. Selon des rapports de Gartner, BigData est la prochaine étape au niveau des technologies de l'information, aprés le Cloud Computing et sera la nouvelle tendance pour les prochaine années.

Nos Clients témoignent

★★★★★
★★★★★

Plans de cours Big Data

CodeNomDuréeAperçu
smtwebintSemantic Web Overview7 heuresLe Web sémantique est un mouvement de collaboration mené par le World Wide Web Consortium (W3C) qui fait la promotion de formats communs pour les données sur le Web. Le Web sémantique fournit un cadre commun permettant le partage et la réutilisation des données à travers les frontières des applications, des entreprises et des communautés.
ApacheIgniteApache Ignite: Improve Speed, Scale and Availability with In-Memory Computing14 heuresApache Ignite is an in-memory computing platform that sits between the application and data layer to improve speed, scale, and availability.

In this instructor-led, live training, participants will learn the principles behind persistent and pure in-memory storage as they step through the creation of a sample in-memory computing project.

By the end of this training, participants will be able to:

- Use Ignite for in-memory, on-disk persistence as well as a purely distributed in-memory database.
- Achieve persistence without syncing data back to a relational database.
- Use Ignite to carry out SQL and distributed joins.
- Improve performance by moving data closer to the CPU, using RAM as a storage.
- Spread data sets across a cluster to achieve horizontal scalability.
- Integrate Ignite with RDBMS, NoSQL, Hadoop and machine learning processors.

Audience

- Developers

Format of the course

- Part lecture, part discussion, exercises and heavy hands-on practice
graphcomputingIntroduction to Graph Computing28 heuresUn grand nombre de problèmes du monde réel peuvent être décrits en termes de graphiques Par exemple, le graphique Web, le graphique du réseau social, le graphique du réseau ferroviaire et le graphique du langage Ces graphiques ont tendance à être extrêmement volumineux; Leur traitement nécessite un ensemble spécialisé d'outils et de processus Ces outils et processus peuvent être appelés Graph Computing (également appelé Graph Analytics) Dans cette formation en ligne, les participants apprendront sur les offres technologiques et les approches de mise en œuvre pour le traitement des données graphiques L'objectif est d'identifier les objets du monde réel, leurs caractéristiques et relations, puis de modéliser ces relations et de les traiter comme des données en utilisant une approche de calcul graphique Nous commençons par un large aperçu et nous nous concentrons sur des outils spécifiques au fur et à mesure que nous progressons dans une série d'études de cas, d'exercices pratiques et de déploiements en direct À la fin de cette formation, les participants seront en mesure de: Comprendre comment les données graphiques sont persistantes et traversées Sélectionnez le meilleur framework pour une tâche donnée (des bases de données graphiques aux frameworks de traitement par lots) Implémenter Hadoop, Spark, GraphX ​​et Pregel pour effectuer le calcul graphique sur plusieurs machines en parallèle Voir les problèmes de big data de realworld en termes de graphiques, de processus et de traversées Public Développeurs Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
matlabpredanalyticsMatlab for Predictive Analytics21 heuresL'analyse prédictive est le processus d'utilisation de l'analyse de données pour faire des prédictions sur le futur Ce processus utilise des données ainsi que des techniques d'exploration de données, de statistiques et d'apprentissage automatique pour créer un modèle prédictif de prévision d'événements futurs Dans cette formation en ligne, les participants apprendront à utiliser Matlab pour créer des modèles prédictifs et les appliquer à de grands ensembles de données pour prédire les événements futurs en fonction des données À la fin de cette formation, les participants seront en mesure de: Créer des modèles prédictifs pour analyser les modèles dans les données historiques et transactionnelles Utiliser la modélisation prédictive pour identifier les risques et les opportunités Construire des modèles mathématiques qui capturent les tendances importantes Utiliser les données des appareils et des systèmes d'entreprise pour réduire le gaspillage, gagner du temps ou réduire les coûts Public Développeurs Ingénieurs Les experts du domaine Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
nifidevApache NiFi for Developers7 heuresApache NiFi (Hortonworks DataFlow) est une plate-forme de traitement de données et de logistique de données intégrée en temps réel qui permet le déplacement, le suivi et l'automatisation des données entre les systèmes Il est écrit en utilisant la programmation basée sur les flux et fournit une interface utilisateur basée sur le Web pour gérer les flux de données en temps réel Dans cette formation en ligne, les participants apprendront les principes fondamentaux de la programmation basée sur les flux en développant un certain nombre d'extensions de démonstration, de composants et de processeurs utilisant Apache NiFi À la fin de cette formation, les participants seront en mesure de: Comprendre l'architecture de NiFi et les concepts de flux de données Développer des extensions en utilisant des API NiFi et tierces Personnaliser développer leur propre processeur Apache Nifi Ingest et traitement de données en temps réel à partir de formats de fichiers et de sources de données disparates et peu communs Public Développeurs Les ingénieurs de données Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
nifiApache NiFi for Administrators21 heuresApache NiFi (Hortonworks DataFlow) est une plate-forme de traitement de données et de logistique de données intégrée en temps réel qui permet le déplacement, le suivi et l'automatisation des données entre les systèmes Il est écrit en utilisant la programmation basée sur les flux et fournit une interface utilisateur basée sur le Web pour gérer les flux de données en temps réel Dans cette formation en ligne, les participants apprendront comment déployer et gérer Apache NiFi dans un environnement de laboratoire en direct À la fin de cette formation, les participants seront en mesure de: Installez et configurez Apachi NiFi Source, transformer et gérer les données à partir de sources de données dispersées et disparates, y compris des bases de données et des lacs de données volumineuses Automatiser les flux de données Activer l'analyse en continu Appliquer différentes approches pour l'ingestion de données Transformez les Big Data et les informations sur les entreprises Public Administrateurs système Les ingénieurs de données Développeurs DevOps Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
solrcloudSolrCloud14 heuresApache SolrCloud est un moteur de traitement de données distribué qui facilite la recherche et l'indexation de fichiers sur un réseau distribué Dans cette formation en ligne, les participants apprendront comment configurer une instance SolrCloud sur Amazon AWS À la fin de cette formation, les participants seront en mesure de: Comprendre les fonctionnalités de SolCloud et comment elles se comparent à celles des clusters masterslave conventionnels Configurer un cluster centralisé SolCloud Automatisez les processus tels que la communication avec les partitions, l'ajout de documents aux partitions, etc Utilisez Zookeeper conjointement avec SolrCloud pour automatiser davantage les processus Utiliser l'interface pour gérer les rapports d'erreurs Équilibrer la charge d'une installation SolrCloud Configurer SolrCloud pour un traitement continu et un basculement Public Développeurs Solr Chefs de projet Administrateurs système Analystes de recherche Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
datavaultData Vault: Building a Scalable Data Warehouse28 heuresLa modélisation du coffre-fort de données est une technique de modélisation de base de données qui fournit un stockage historique à long terme des données provenant de plusieurs sources Un coffre de données stocke une seule version des faits, ou "toutes les données, tout le temps" Sa conception flexible, évolutive, cohérente et adaptable englobe les meilleurs aspects de la 3ème forme normale (3NF) et du schéma en étoile Dans cette formation en ligne, les participants apprendront comment créer un coffre-fort de données À la fin de cette formation, les participants seront en mesure de: Comprendre les concepts d'architecture et de conception derrière Data Vault 20, et son interaction avec Big Data, NoSQL et AI Utiliser des techniques de stockage de données pour activer l'audit, le suivi et l'inspection des données historiques dans un entrepôt de données Développer un processus ETL (Extract, Transform, Load) cohérent et reproductible Construire et déployer des entrepôts hautement évolutifs et reproductibles Public Modélisateurs de données Spécialiste de l'entreposage de données Spécialistes de la Business Intelligence Les ingénieurs de données Administrateurs de base de données Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
datameerDatameer for Data Analysts14 heuresDatameer est une plateforme de business intelligence et d'analyse basée sur Hadoop Il permet aux utilisateurs finaux d'accéder, d'explorer et de mettre en corrélation des données à grande échelle, structurées, semi-structurées et non structurées de manière simple Dans cette formation en ligne, les participants apprendront à utiliser Datameer pour surmonter la courbe d'apprentissage abrupte d'Hadoop à mesure qu'ils progressent dans la configuration et l'analyse d'une série de sources de données volumineuses À la fin de cette formation, les participants seront en mesure de: Créer, organiser et explorer de manière interactive un lac de données d'entreprise Accéder aux entrepôts de données de Business Intelligence, aux bases de données transactionnelles et aux autres magasins analytiques Utiliser une interface utilisateur de feuille de calcul pour concevoir des pipelines de traitement de données endtoend Accéder à des fonctions prédéfinies pour explorer des relations de données complexes Utilisez les assistants draganddrop pour visualiser les données et créer des tableaux de bord Utiliser des tableaux, des graphiques, des graphiques et des cartes pour analyser les résultats de la requête Public Analystes de données Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
tigonTigon: Real-time Streaming for the Real World14 heuresTigon est un framework de traitement de flux opensource, temps réel, lowlatency, highthroughput, native natif, qui se trouve au-dessus de HDFS et de HBase pour la persistance Les applications Tigon traitent des cas d'utilisation tels que la détection et l'analyse des intrusions sur le réseau, l'analyse des marchés des médias sociaux, l'analyse de l'emplacement et les recommandations en temps réel aux utilisateurs Cette formation en ligne, introduite par un instructeur, présente l'approche de Tigon qui consiste à mélanger le traitement en temps réel et le traitement par lots tout en guidant les participants à travers la création d'un exemple d'application À la fin de cette formation, les participants seront en mesure de: Créez de puissantes applications de traitement de flux pour gérer de gros volumes de données Traiter des sources de flux telles que Twitter et Webserver Logs Utilisez Tigon pour joindre, filtrer et agréger rapidement des flux Public Développeurs Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
vespaVespa: Serving Large-Scale Data in Real-Time14 heuresVespa est un moteur de traitement de données et de traitement de données opensource créé par Yahoo Il est utilisé pour répondre aux requêtes des utilisateurs, faire des recommandations et fournir un contenu personnalisé et des publicités en temps réel Cette formation en ligne, instruite, introduit les défis de la diffusion de données à grande échelle et guide les participants à travers la création d'une application capable de calculer les réponses aux demandes des utilisateurs, sur de grands ensembles de données en temps réel À la fin de cette formation, les participants seront en mesure de: Utilisez Vespa pour calculer rapidement les données (stocker, rechercher, classer, organiser) au moment du service pendant qu'un utilisateur attend Implémenter Vespa dans des applications existantes impliquant la recherche de fonctionnalités, les recommandations et la personnalisation Intégrez et déployez Vespa avec les systèmes Big Data existants tels que Hadoop et Storm Public Développeurs Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
bigdatabicriminalBig Data Business Intelligence for Criminal Intelligence Analysis35 heuresLes progrès technologiques et la quantité croissante d'informations transforment la façon dont les organismes d'application de la loi sont menés Les défis que pose le Big Data sont presque aussi décourageants que la promesse de Big Data Stocker des données efficacement est l'un de ces défis; l'analyser efficacement en est une autre Dans cette formation en ligne, les participants apprendront la manière d'aborder les technologies Big Data, évalueront leur impact sur les processus et politiques existants et mettront en œuvre ces technologies dans le but d'identifier les activités criminelles et de prévenir le crime Des études de cas provenant d'organismes d'application de la loi du monde entier seront examinées afin de mieux comprendre leurs approches, défis et résultats en matière d'adoption À la fin de cette formation, les participants seront en mesure de: Combinez la technologie Big Data avec des processus de collecte de données traditionnels pour reconstituer une histoire au cours d'une enquête Mettre en œuvre des solutions industrielles de stockage et de traitement de Big Data pour l'analyse de données Préparer une proposition pour l'adoption des outils et des processus les plus adéquats pour permettre une approche de l'enquête criminelle axée sur les données Public Spécialistes de l'application de la loi avec un bagage technique Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
apexApache Apex: Processing Big Data-in-Motion21 heuresApache Apex est une plate-forme YARNnative qui unifie le traitement des flux et des lots Il traite les données importantes de manière évolutive, performante, tolérante, dynamique, distribuée et facilement exploitable Cette formation en ligne, en mode instructeur, présente l'architecture de traitement de flux unifié d'Apache Apex et guide les participants à travers la création d'une application distribuée utilisant Apex sur Hadoop À la fin de cette formation, les participants seront en mesure de: Comprendre les concepts de pipeline de traitement de données tels que les connecteurs pour les sources et les puits, les transformations de données communes, etc Construire, dimensionner et optimiser une application Apex Traiter les flux de données en temps réel de manière fiable et avec une latence minimale Utilisez Apex Core et la bibliothèque Apex Malhar pour accélérer le développement d'applications Utiliser l'API Apex pour écrire et réutiliser le code Java existant Intégrer Apex dans d'autres applications en tant que moteur de traitement Régler, tester et mettre à l'échelle les applications Apex Public Développeurs Architectes d'entreprise Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
alluxioAlluxio: Unifying Disparate Storage Systems7 heuresAlexio est un système de stockage distribué virtuel opensource qui unifie les systèmes de stockage disparates et permet aux applications d'interagir avec les données à la vitesse de la mémoire Il est utilisé par des sociétés telles que Intel, Baidu et Alibaba Dans cette formation en ligne, les participants apprendront à utiliser Alexio pour rapprocher différents cadres de calcul avec des systèmes de stockage et gérer efficacement des données à l'échelle de plusieurs octets au fur et à mesure de la création d'une application avec Alluxio À la fin de cette formation, les participants seront en mesure de: Développer une application avec Alluxio Connectez des systèmes et applications Big Data tout en préservant un espace de nom Extraction efficace de la valeur de Big Data dans n'importe quel format de stockage Améliorer les performances de la charge de travail Déployer et gérer Alluxio autonome ou en cluster Public Data scientist Développeur Administrateur du système Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
flinkFlink for Scalable Stream and Batch Data Processing28 heuresApache Flink est un framework opensource pour le traitement de données de flux et de lots évolutif Cette formation en ligne, introduite par un instructeur, présente les principes et les approches qui sous-tendent le traitement distribué des données par lots et par lots, et guide les participants à travers la création d'une application de streaming de données en temps réel À la fin de cette formation, les participants seront en mesure de: Mettre en place un environnement pour développer des applications d'analyse de données Intégrez, exécutez et surveillez les applications de streaming de données basées sur Flinkbased, faulttolerant Gérer des charges de travail diverses Effectuer des analyses avancées à l'aide de Flink ML Configurer un cluster Flink multinoeud Mesurer et optimiser les performances Intégrez Flink avec différents systèmes Big Data Comparez les capacités de Flink avec celles d'autres grands frameworks de traitement de données Public Développeurs Architectes Les ingénieurs de données Les professionnels de l'analyse Directeurs techniques Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
samzaSamza for Stream Processing14 heuresApache Samza est une architecture computationnelle asynchrone, nearrealtime, opensource pour le traitement de flux Il utilise Apache Kafka pour la messagerie et Apache Hadoop YARN pour la tolérance aux pannes, l'isolation du processeur, la sécurité et la gestion des ressources Cette formation en direct instruite introduit les principes qui sous-tendent les systèmes de messagerie et le traitement des flux distribués, tout en guidant les participants à travers la création d'un exemple de projet Samzabased et d'exécution de tâches À la fin de cette formation, les participants seront en mesure de: Utilisez Samza pour simplifier le code nécessaire pour produire et consommer des messages Découpler la gestion des messages d'une application Utilisez Samza pour implémenter le calcul asynchrone nearrealtime Utilisez le traitement de flux pour fournir un plus haut niveau d'abstraction sur les systèmes de messagerie Public Développeurs Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
zeppelinZeppelin for Interactive Data Analytics14 heuresApache Zeppelin est un bloc-notes basé sur le Web pour la capture, l'exploration, la visualisation et le partage de données basées sur Hadoop et Spark Cette formation en ligne, introduite en classe, présente les concepts de l'analyse interactive des données et guide les participants à travers le déploiement et l'utilisation de Zeppelin dans un environnement à utilisateur unique ou multi-utilisateur À la fin de cette formation, les participants seront en mesure de: Installer et configurer Zeppelin Développer, organiser, exécuter et partager des données dans une interface basée sur un navigateur Visualisez les résultats sans faire référence à la ligne de commande ou aux détails du cluster Exécuter et collaborer sur de longs workflows Travailler avec un certain nombre de plugin language / dataprocessingbackends, tels que Scala (avec Apache Spark), Python (avec Apache Spark), SQL Spark, JDBC, Markdown et Shell Intégrez Zeppelin avec Spark, Flink et Map Reduce Instances multi-utilisateurs sécurisées de Zeppelin avec Apache Shiro Public Les ingénieurs de données Analystes de données Les scientifiques de données Les développeurs de logiciels Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
magellanMagellan: Geospatial Analytics on Spark14 heuresMagellan est un moteur d'exécution distribuée opensource pour l'analyse géospatiale sur Big Data Implémenté au-dessus d'Apache Spark, il étend Spark SQL et fournit une abstraction relationnelle pour l'analyse géospatiale Cette formation en ligne, introduite en classe, présente les concepts et les approches pour la mise en œuvre de l'analyse géospaciale et guide les participants à travers la création d'une application d'analyse prédictive à l'aide de Magellan sur Spark À la fin de cette formation, les participants seront en mesure de: Interrogez, analysez et joignez efficacement les ensembles de données géospatiales à l'échelle Implémenter des données géospatiales dans les applications de business intelligence et d'analyse prédictive Utiliser le contexte spatial pour étendre les capacités des appareils mobiles, des capteurs, des journaux et des accessoires connectés Public Les développeurs d'applications Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
hdpHortonworks Data Platform (HDP) for Administrators21 heuresHortonworks Data Platform est une plate-forme de support Apache Hadoop opensource qui fournit une base stable pour le développement de solutions Big Data sur l'écosystème Apache Hadoop Cette formation en direct instruit présente Hortonworks et les participants à la marche à travers le déploiement de la solution Spark + Hadoop À la fin de cette formation, les participants seront en mesure de: Utilisez Hortonworks pour exécuter Hadoop de manière fiable à grande échelle Unifiez les capacités de sécurité, de gouvernance et d'opérations de Hadoop grâce aux flux de travail analytiques agiles de Spark Utiliser Hortonworks pour étudier, valider, certifier et supporter chacun des composants d'un projet Spark Traitez différents types de données, notamment les données structurées, non structurées, inmotion et atrest Public Les administrateurs Hadoop Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
PentahoDIPentaho Data Integration Fundamentals21 heuresPentaho Data Integration est un outil d'intégration de données opensource permettant de définir des tâches et des transformations de données Dans cette formation en ligne, les participants apprendront à utiliser les capacités ETL puissantes de Pentaho Data Integration et leur interface utilisateur graphique pour gérer un cycle de vie complet des données volumineuses, en maximisant la valeur des données pour l'organisation À la fin de cette formation, les participants seront en mesure de: Créer, prévisualiser et exécuter des transformations de données de base contenant des étapes et des sauts Configurer et sécuriser le référentiel Pentaho Enterprise Exploitez des sources de données disparates et générez une version unique et unifiée de la vérité dans un format analyticsready Fournir des résultats aux applications tierces pour traitement ultérieur Public Analyste de données Développeurs ETL Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
BDATRBig Data Analytics for Telecom Regulators16 heuresPour répondre à la conformité des régulateurs, les fournisseurs de services de communication (CSP) peuvent exploiter Big Data Analytics qui non seulement les aide à respecter la conformité, mais dans le cadre de la même projet, ils peuvent augmenter la satisfaction du client et ainsi réduire le taux de désabonnement En fait depuis la conformité est liée à la qualité de service liée à un contrat, toute initiative visant à conformité, améliorera «l'avantage concurrentiel» des DSP Par conséquent, il est important que Les régulateurs devraient être en mesure de conseiller / orienter un ensemble de pratiques analytiques Big Data pour les CSP qui seront être mutuellement bénéfique entre les régulateurs et les DSP 2 jours de cours: 8 modules, 2 heures chacun = 16 heures .
sparkpythonPython and Spark for Big Data (PySpark)21 heuresPython est un langage de programmation de haut niveau connu pour sa syntaxe claire et sa lisibilité Spark est un moteur de traitement de données utilisé dans l'interrogation, l'analyse et la transformation de Big Data PySpark permet aux utilisateurs d'interfacer Spark avec Python Dans cette formation en ligne, les participants apprendront à utiliser Python et Spark ensemble pour analyser les données volumineuses lorsqu'ils travaillent sur des exercices handson À la fin de cette formation, les participants seront en mesure de: Apprenez à utiliser Spark avec Python pour analyser les données volumineuses Travailler sur des exercices qui imitent les circonstances du monde réel Utilisez différents outils et techniques pour l'analyse de données volumineuses à l'aide de PySpark Public Développeurs Professionnels de l'informatique Data Scientists Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
kylinApache Kylin: From Classic OLAP to Real-Time Data Warehouse14 heuresApache Kylin est un moteur d'analyse distribué extrême pour le big data Dans cette formation en direct, les participants apprendront comment utiliser Apache Kylin pour mettre en place un entrepôt de données en temps réel À la fin de cette formation, les participants seront en mesure de: Consommer des données de streaming en temps réel en utilisant Kylin Utiliser les fonctionnalités puissantes d'Apache Kylin, y compris la prise en charge du schéma de flocon de neige, une interface SQL riche, le cubage d'étincelles et la latence de requête secondaire Remarque Nous utilisons la dernière version de Kylin (à ce jour, Apache Kylin v20) Public Ingénieurs Big Data Les analystes Big Data Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
foundrFoundation R7 heuresL'objectif du cours est de permettre aux participants de maîtriser les fondamentaux de R et de travailler avec les données .
sparkcloudApache Spark in the Cloud21 heuresApache Spark's learning curve is slowly increasing at the begining, it needs a lot of effort to get the first return. This course aims to jump through the first tough part. After taking this course the participants will understand the basics of Apache Spark , they will clearly differentiate RDD from DataFrame, they will learn Python and Scala API, they will understand executors and tasks, etc. Also following the best practices, this course strongly focuses on cloud deployment, Databricks and AWS. The students will also understand the differences between AWS EMR and AWS Glue, one of the lastest Spark service of AWS.

AUDIENCE:

Data Engineer, DevOps, Data Scientist
bigdataanahealthBig Data Analytics in Health21 heuresL'analyse des données volumineuses implique le processus consistant à examiner de grandes quantités d'ensembles de données variés afin de découvrir des corrélations, des modèles cachés et d'autres informations utiles L'industrie de la santé a des quantités massives de données médicales et cliniques hétérogènes complexes L'application de l'analyse des données volumineuses aux données sur la santé présente un énorme potentiel pour obtenir des informations sur l'amélioration de la prestation des soins de santé Cependant, l'énormité de ces ensembles de données pose de grands défis dans les analyses et les applications pratiques à un environnement clinique Dans le cadre de cette formation en ligne (à distance), les participants apprendront à effectuer des analyses de données volumineuses en matière de santé au cours d'une série d'exercices pratiques À la fin de cette formation, les participants seront en mesure de: Installer et configurer des outils d'analyse de Big Data tels que Hadoop MapReduce et Spark Comprendre les caractéristiques des données médicales Appliquer des techniques de big data pour traiter les données médicales Étudier les systèmes de données volumineuses et les algorithmes dans le contexte des applications de santé Public Développeurs Data Scientists Format du cours Partie conférence, discussion partielle, exercices et pratique lourde de handson Remarque Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser .
sqoopMoving Data from MySQL to Hadoop with Sqoop14 heuresSqoop est un outil logiciel open source permettant de transférer des données entre Hadoop et des bases de données relationnelles ou des mainframes Il peut être utilisé pour importer des données à partir d'un système de gestion de base de données relationnelle (SGBDR) tel que MySQL ou Oracle ou un ordinateur central dans le système de fichiers distribués Hadoop (HDFS) Par la suite, les données peuvent être transformées dans Hadoop MapReduce, puis réexportées dans un SGBDR Dans cette formation en ligne, les participants apprendront comment utiliser Sqoop pour importer des données d'une base de données relationnelle traditionnelle vers un stockage Hadoop tel que HDFS ou Hive et vice versa À la fin de cette formation, les participants seront en mesure de: Installez et configurez Sqoop Importer des données de MySQL vers HDFS et Hive Importer des données de HDFS et Hive vers MySQL Public Administrateurs système Les ingénieurs de données Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson Remarque Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser .
beamUnified Batch and Stream Processing with Apache Beam14 heuresApache Beam est un modèle de programmation unifiée et open source permettant de définir et d'exécuter des pipelines de traitement de données parallèles Sa puissance réside dans sa capacité à exécuter à la fois des pipelines batch et de streaming, l'exécution étant effectuée par l'un des backends de traitement distribué pris en charge par Apache: Apache Apex, Apache Flink, Apache Spark et Google Cloud Dataflow Apache Beam est utile pour les tâches ETL (Extraction, Transformation et Chargement) telles que le déplacement de données entre différents supports de stockage et sources de données, la transformation des données dans un format plus souhaitable et le chargement de données sur un nouveau système Dans cette formation en ligne instruite, les participants apprendront comment implémenter les SDK Apache Beam dans une application Java ou Python qui définit un pipeline de traitement de données pour décomposer un gros ensemble de données en plus petits morceaux pour un traitement parallèle indépendant À la fin de cette formation, les participants seront en mesure de: Installez et configurez Apache Beam Utilisez un seul modèle de programmation pour effectuer à la fois le traitement par lots et le traitement de flux à partir de leur application Java ou Python Exécutez des pipelines dans plusieurs environnements Public Développeurs Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson Remarque Ce cours sera disponible Scala dans le futur S'il vous plaît contactez-nous pour organiser .
pentahoPentaho Open Source BI Suite Community Edition (CE)28 heuresPentaho Open Source BI Suite Édition Communautaire (CE) est un progiciel d'aide à la décision qui fournit des fonctionnalités d'intégration de données, de création de rapports, de tableaux de bord et de chargement Dans cette formation en ligne, les participants apprendront comment optimiser les fonctionnalités de Pentaho Open Source BI Suite Community Edition (CE) À la fin de cette formation, les participants seront en mesure de: Installez et configurez Pentaho Open Source BI Suite Édition communautaire (CE) Comprendre les principes fondamentaux des outils Pentaho CE et leurs fonctionnalités Construire des rapports en utilisant Pentaho CE Intégrez des données tierces dans Pentaho CE Travaillez avec Big Data et analytique dans Pentaho CE Public Programmeurs BI Développeurs Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson Remarque Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser .
amazonredshiftAmazon Redshift21 heuresAmazon Redshift est un service d'entrepôt de données cloud basé sur petabytescale dans AWS Dans cette formation en ligne, les participants apprendront les principes fondamentaux d'Amazon Redshift À la fin de cette formation, les participants seront en mesure de: Installer et configurer Amazon Redshift Charger, configurer, déployer, interroger et visualiser des données avec Amazon Redshift Public Développeurs Professionnels de l'informatique Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson Remarque Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser .

Prochains cours Big Data

FormationDate FormationPrix [A distance / Classe]
AI Awareness for Telecom - Toulouse, centre villemer, 2018-12-26 09:303500EUR / 4100EUR
AI Awareness for Telecom - Amiens, Centre Villejeu, 2019-01-03 09:303500EUR / 4100EUR
AI Awareness for Telecom - Poitiersjeu, 2019-01-03 09:303500EUR / 4100EUR
AI Awareness for Telecom - Nantes, Zenithjeu, 2019-01-10 09:303500EUR / 4100EUR
AI Awareness for Telecom - Limoges, Centre Villejeu, 2019-01-31 09:303500EUR / 4100EUR
Weekend Big Data cours, Soir Big Data formation, Big Data stage d’entraînement, Big Data formateur à distance, Big Data formateur en ligne, Big Data formateur Online, Big Data cours en ligne, Big Data cours à distance, Big Data professeur à distance, Big Data visioconférence, Big Data stage d’entraînement intensif, Big Data formation accélérée, Big Data formation intensive, Formation inter Big Data, Formation intra Big Data, Formation intra Enteprise Big Data, Formation inter Entreprise Big Data, Weekend Big Data formation, Soir Big Data cours, Big Data coaching, Big Data entraînement, Big Data préparation, Big Data instructeur, Big Data professeur, Big Data formateur, Big Data stage de formation, Big Data cours, Big Data sur place, Big Data formations privées, Big Data formation privée, Big Data cours particulier, Big Data cours particuliers

Réduction spéciale

FormationLieuDate FormationPrix [A distance / Classe]
R for Data Analysis and Research Tours, Parc Honoré de Balzacmar, 2018-12-18 09:301575EUR / 1975EUR
Docker and KubernetesParis, Opera Boursemer, 2019-01-16 09:304455EUR / 5255EUR
Advanced Automation with AnsibleParis, Opera Bourselun, 2019-02-11 09:302700EUR / 3300EUR
Advanced Statistics using SPSS Predictive Analytics SoftwareStrasbourg, Kibitzenau Station lun, 2019-04-01 09:306300EUR / 7300EUR
R for Data Analysis and Research Orléans, gare centralelun, 2019-04-15 09:301575EUR / 1975EUR

Newsletter offres spéciales

Nous respectons le caractère privé de votre adresse mail. Nous ne divulguerons ni ne vendrons votre adresse email à quiconque
Vous pouvez toujours modifier vos préférences ou vous désinscrire complètement.

Nos clients

is growing fast!

We are looking to expand our presence in France!

As a Business Development Manager you will:

  • expand business in France
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!