Les formations Big Data

Les formations Big Data

Le terme BigData vise l'ensemble des solutions liées au stockage et au traitement d'un ensemble considérable de données. Les solutions BigData ont été initialement développées par Google, cependant, désormais, beaucoup d'implémentations open-source sont disponibles, dont Apache Hadoop, Cassandra ou Cloudera Impala. Selon des rapports de Gartner, BigData est la prochaine étape au niveau des technologies de l'information, aprés le Cloud Computing et sera la nouvelle tendance pour les prochaine années.

Nos Clients témoignent

★★★★★
★★★★★

Plans de cours Big Data

Nom du Cours
Durée
Aperçu
Nom du Cours
Durée
Aperçu
21 heures
Python est un langage de programmation scalable, flexible et largement utilisé pour la science des données et l'apprentissage automatique. Spark est un moteur de traitement de données utilisé dans la recherche, l'analyse et la transformation de données grandes, tandis que Hadoop est un cadre de bibliothèque logicielle pour le stockage et le traitement de données à grande échelle. Cette formation guidée par les instructeurs (online ou on-site) est destinée aux développeurs qui souhaitent utiliser et intégrer Spark, Hadoop, et Python pour traiter, analyser et transformer de grands et complexes ensembles de données. À la fin de cette formation, les participants seront en mesure de :
    Créez l’environnement nécessaire pour commencer à traiter les grandes données avec Spark, Hadoop, et Python. Comprendre les caractéristiques, les composants de base et l'architecture de Spark et Hadoop. Apprenez à intégrer Spark, Hadoop, et Python pour le traitement de données grandes. Explorez les outils dans l'écosystème Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka, et Flume). Construisez des systèmes de recommandations de filtration collaboratives similaires à Netflix, YouTube, Amazon, Spotify et Google. Utilisez Apache Mahout pour échanger les algorithmes d’apprentissage automatique.
Le format du cours
    Lecture et discussion interactives. Beaucoup d’exercices et de pratiques. La mise en œuvre dans un environnement de laboratoire en direct.
Options de personnalisation de cours
    Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser.
14 heures
Waikato Environment for Knowledge Analysis (Weka) est un logiciel de visualisation de mining de données à source ouverte. Il fournit une collection d'algorithmes d'apprentissage automatique pour la préparation des données, la classification, le cluster et d'autres activités de minage de données. Cette formation guidée par des instructeurs, en direct (online ou sur site) est destinée à des analystes de données et des scientifiques de données qui souhaitent utiliser Weka pour effectuer des tâches de minage de données. À la fin de cette formation, les participants seront en mesure de :
    Installer et configurer Weka Comprendre Weka l’environnement et le système de travail. Exécuter des tâches de minage de données en utilisant Weka.
Le format du cours
    Lecture et discussion interactives. Beaucoup d’exercices et de pratiques. La mise en œuvre dans un environnement de laboratoire en direct.
Options de personnalisation de cours
    Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser.
14 heures
IBM SPSS Modeler est un logiciel utilisé pour la mining de données et l'analyse de texte. Il fournit un ensemble d'outils de minage de données qui peuvent construire des modèles prédictifs et effectuer des tâches d'analyse de données. Cette formation guidée par des instructeurs, en direct (online ou sur site) est destinée à des analystes de données ou à toute personne qui souhaite utiliser SPSS Modeler pour effectuer des activités de minage de données. À la fin de cette formation, les participants seront en mesure de :
    Comprendre les principes fondamentaux de la mining de données. Apprenez comment importer et évaluer la qualité des données avec le Modèleur. Développer, déployer et évaluer efficacement les modèles de données.
Le format du cours
    Lecture et discussion interactives. Beaucoup d’exercices et de pratiques. La mise en œuvre dans un environnement de laboratoire en direct.
Options de personnalisation de cours
    Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser.
35 heures
Les participants qui complètent cette formation guidée par l'instructeur, en direct, acquériront une compréhension pratique et réelle de Big Data et de ses technologies, méthodologies et outils connexes. Les participants auront la possibilité de mettre ces connaissances en pratique à travers des exercices pratiques. L’interaction de groupe et le feedback d’instructeur constituent un élément important de la classe. Le cours commence par une introduction aux concepts élémentaires de Big Data, puis progresse dans les langues de programmation et les méthodologies utilisées pour réaliser Data Analysis. Enfin, nous discutons des outils et des infrastructures qui permettent Big Data stockage, traitement distribué, et Scalacapacité. Le format du cours
    Lecture partielle, discussion partielle, pratique et mise en œuvre, quiz occasionnel pour mesurer le progrès.
21 heures
In this instructor-led, live training in France, participants will learn how to use Python and Spark together to analyze big data as they work on hands-on exercises. By the end of this training, participants will be able to:
  • Learn how to use Spark with Python to analyze Big Data.
  • Work on exercises that mimic real world cases.
  • Use different tools and techniques for big data analysis using PySpark.
7 heures
This course covers how to use Hive SQL language (AKA: Hive HQL, SQL on Hive, HiveQL) for people who extract data from Hive
21 heures
La découverte de connaissances dans les bases de données (KDD) est le processus de découverte de connaissances utiles à partir d’une collection de données. Les applications réelles pour cette technique de minage de données comprennent le marketing, la détection de fraudes, les télécommunications et la fabrication. Dans ce cours guidé par l'instructeur, en direct, nous introduisons les processus impliqués dans le KDD et effectuons une série d'exercices pour pratiquer la mise en œuvre de ces processus. Audience
    Analystes de données ou toute personne intéressée à apprendre à interpréter les données pour résoudre les problèmes
Le format du cours
    Après une discussion théorique de KDD, l'instructeur présentera des cas de vie réelle qui demandent l'application de KDD pour résoudre un problème. Les participants prépareront, sélectionneront et nettoyeront des ensembles de données et utiliseront leurs connaissances antérieures sur les données pour proposer des solutions basées sur les résultats de leurs observations.
14 heures
Apache Kylin est un moteur d'analyse extrême et distribué pour le Big Data. Lors de cette formation en direct animée par un instructeur, les participants apprendront à utiliser Apache Kylin pour configurer un entrepôt de données en temps réel. À la fin de cette formation, les participants seront en mesure de:
  • Consommez des données en streaming en temps réel avec Kylin
  • Utilisez Apache Kylin fonctionnalités puissantes d’ Apache Kylin , son interface SQL riche, son cubage par étincelle et sa latence de requête inférieure à la seconde
Remarque
  • Nous utilisons la dernière version de Kylin (au moment d'écrire ces lignes, Apache Kylin v2.0)
Public
  • Ingénieurs Big Data
  • Big Data
Format du cours
  • Partie de conférence, partie de discussion, exercices et exercices intensifs
14 heures
Datameer est une plateforme de business intelligence et d'analyse basée sur Hadoop Il permet aux utilisateurs finaux d'accéder, d'explorer et de mettre en corrélation des données à grande échelle, structurées, semi-structurées et non structurées de manière simple Dans cette formation en ligne, les participants apprendront à utiliser Datameer pour surmonter la courbe d'apprentissage abrupte d'Hadoop à mesure qu'ils progressent dans la configuration et l'analyse d'une série de sources de données volumineuses À la fin de cette formation, les participants seront en mesure de: Créer, organiser et explorer de manière interactive un lac de données d'entreprise Accéder aux entrepôts de données de Business Intelligence, aux bases de données transactionnelles et aux autres magasins analytiques Utiliser une interface utilisateur de feuille de calcul pour concevoir des pipelines de traitement de données endtoend Accéder à des fonctions prédéfinies pour explorer des relations de données complexes Utilisez les assistants draganddrop pour visualiser les données et créer des tableaux de bord Utiliser des tableaux, des graphiques, des graphiques et des cartes pour analyser les résultats de la requête Public Analystes de données Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
14 heures
L'exploration de données est le processus d'identification des modèles dans les mégadonnées avec des méthodes de science des données telles que l'apprentissage automatique. En utilisant Excel comme suite analytique de données, les utilisateurs peuvent effectuer une exploration et une analyse des données. Cette formation en direct dirigée par un instructeur (sur site ou à distance) s'adresse aux scientifiques des données qui souhaitent utiliser Excel pour l'exploration de données. À la fin de cette formation, les participants seront en mesure de:
  • Explorez les données avec Excel pour effectuer une exploration et une analyse des données.
  • Utilisez des algorithmes Microsoft pour l'exploration de données.
  • Comprendre les concepts de l'exploration de données Excel .
Format du cours
  • Conférence et discussion interactives.
  • Beaucoup d'exercices et de pratique.
  • Implémentation pratique dans un environnement de laboratoire en direct.
Options de personnalisation des cours
  • Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser.
21 heures
Dremio est une plate-forme de données open-source qui accélère la recherche de différents types de sources de données. Dremio intégré avec des bases de données relatives, Apache Hadoop, MongoDB, Amazon S3, ElasticSearch, et d'autres sources de données. Il soutient SQL et fournit un UI Web pour les requêtes de construction. Dans cette formation guidée par l'instructeur, les participants apprendront comment installer, configurer et utiliser Dremio en tant que couche unifiante pour les outils d'analyse des données et les repositaires de données de base. À la fin de cette formation, les participants seront en mesure de :
    Installer et configurer Dremio Exécuter des requêtes contre plusieurs sources de données, indépendamment de l’emplacement, de la taille ou de la structure Intégrer Dremio avec BI et sources de données telles que Tableau et Elasticsearch
Audience
    Les scientifiques de données Business Les analystes Ingénieurs de données
Format du cours
    Lecture partielle, discussion partielle, exercices et pratiques lourdes
Notes
    Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser.
14 heures
The objective of the course is to enable participants to gain a mastery of how to work with the SQL language in Oracle database for data extraction at intermediate level.
21 heures
Apache Drill est un moteur de requête SQL en colonnes, distribué et inmémoire pour Hadoop, NoSQL et d'autres systèmes de stockage de nuages ​​et de fichiers La puissance d'Apache Drill réside dans sa capacité à joindre des données provenant de plusieurs banques de données en utilisant une seule requête Apache Drill prend en charge de nombreuses bases de données et systèmes de fichiers NoSQL, notamment HBase, MongoDB, MapRDB, HDFS, MapRFS, Amazon S3, Azure Blob Storage, Google Cloud Storage, Swift, NAS et les fichiers locaux Apache Drill est la version open source du système Dremel de Google, disponible en tant que service d'infrastructure appelé Google BigQuery Dans cette formation en ligne, les participants apprendront les principes de base d'Apache Drill, puis tireront parti de la puissance et de la commodité de SQL pour interroger interactivement les grandes données sur plusieurs sources de données, sans écrire de code Les participants apprendront également comment optimiser leurs requêtes Drill pour l'exécution SQL distribuée À la fin de cette formation, les participants seront en mesure de: Effectuer une exploration "selfservice" sur des données structurées et semi-structurées sur Hadoop Interrogation de données connues et inconnues à l'aide de requêtes SQL Comprendre comment Apache Drills reçoit et exécute des requêtes Écrivez des requêtes SQL pour analyser différents types de données, y compris des données structurées dans Hive, des données semi-structurées dans des tables HBase ou MapRDB, et des données enregistrées dans des fichiers tels que Parquet et JSON Utilisez Apache Drill pour effectuer la découverte de schéma onthefly, en évitant le besoin d'opérations ETL et de schémas complexes Intégrez Apache Drill à des outils BI (Business Intelligence) tels que Tableau, Qlikview, MicroStrategy et Excel Public Analystes de données Les scientifiques de données Programmeurs SQL Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
14 heures
Apache Arrow is an open-source in-memory data processing framework. It is often used together with other data science tools for accessing disparate data stores for analysis. It integrates well with other technologies such as GPU databases, machine learning libraries and tools, execution engines, and data visualization frameworks. In this onsite instructor-led, live training, participants will learn how to integrate Apache Arrow with various Data Science frameworks to access data from disparate data sources. By the end of this training, participants will be able to:
  • Install and configure Apache Arrow in a distributed clustered environment
  • Use Apache Arrow to access data from disparate data sources
  • Use Apache Arrow to bypass the need for constructing and maintaining complex ETL pipelines
  • Analyze data across disparate data sources without having to consolidate it into a centralized repository
Audience
  • Data scientists
  • Data engineers
Format of the Course
  • Part lecture, part discussion, exercises and heavy hands-on practice
Note
  • To request a customized training for this course, please contact us to arrange.
35 heures
Advances in technologies and the increasing amount of information are transforming how business is conducted in many industries, including government. Government data generation and digital archiving rates are on the rise due to the rapid growth of mobile devices and applications, smart sensors and devices, cloud computing solutions, and citizen-facing portals. As digital information expands and becomes more complex, information management, processing, storage, security, and disposition become more complex as well. New capture, search, discovery, and analysis tools are helping organizations gain insights from their unstructured data. The government market is at a tipping point, realizing that information is a strategic asset, and government needs to protect, leverage, and analyze both structured and unstructured information to better serve and meet mission requirements. As government leaders strive to evolve data-driven organizations to successfully accomplish mission, they are laying the groundwork to correlate dependencies across events, people, processes, and information. High-value government solutions will be created from a mashup of the most disruptive technologies:
  • Mobile devices and applications
  • Cloud services
  • Social business technologies and networking
  • Big Data and analytics
IDC predicts that by 2020, the IT industry will reach $5 trillion, approximately $1.7 trillion larger than today, and that 80% of the industry's growth will be driven by these 3rd Platform technologies. In the long term, these technologies will be key tools for dealing with the complexity of increased digital information. Big Data is one of the intelligent industry solutions and allows government to make better decisions by taking action based on patterns revealed by analyzing large volumes of data — related and unrelated, structured and unstructured. But accomplishing these feats takes far more than simply accumulating massive quantities of data.“Making sense of thesevolumes of Big Datarequires cutting-edge tools and technologies that can analyze and extract useful knowledge from vast and diverse streams of information,” Tom Kalil and Fen Zhao of the White House Office of Science and Technology Policy wrote in a post on the OSTP Blog. The White House took a step toward helping agencies find these technologies when it established the National Big Data Research and Development Initiative in 2012. The initiative included more than $200 million to make the most of the explosion of Big Data and the tools needed to analyze it. The challenges that Big Data poses are nearly as daunting as its promise is encouraging. Storing data efficiently is one of these challenges. As always, budgets are tight, so agencies must minimize the per-megabyte price of storage and keep the data within easy access so that users can get it when they want it and how they need it. Backing up massive quantities of data heightens the challenge. Analyzing the data effectively is another major challenge. Many agencies employ commercial tools that enable them to sift through the mountains of data, spotting trends that can help them operate more efficiently. (A recent study by MeriTalk found that federal IT executives think Big Data could help agencies save more than $500 billion while also fulfilling mission objectives.). Custom-developed Big Data tools also are allowing agencies to address the need to analyze their data. For example, the Oak Ridge National Laboratory’s Computational Data Analytics Group has made its Piranha data analytics system available to other agencies. The system has helped medical researchers find a link that can alert doctors to aortic aneurysms before they strike. It’s also used for more mundane tasks, such as sifting through résumés to connect job candidates with hiring managers.
21 heures
Public Si vous essayez de comprendre les données auxquelles vous avez accès ou souhaitez analyser des données non structurées disponibles sur le réseau (comme Twitter, Linked in, etc.), ce cours est pour vous. Il s’adresse principalement aux décideurs et aux personnes qui doivent choisir les données qui méritent d’être collectées et celles qui méritent d’être analysées. Cela ne vise pas les personnes qui configurent la solution, ces personnes bénéficieront d'une vue d'ensemble. Mode de livraison Pendant le cours, des exemples concrets de technologies principalement open source seront présentés aux délégués. De courtes conférences seront suivies de présentations et d'exercices simples des participants. Contenu et logiciel utilisés Tous les logiciels utilisés sont mis à jour à chaque exécution du cours, nous vérifions donc les dernières versions possibles. Il couvre le processus d'obtention, de formatage, de traitement et d'analyse des données, afin d'expliquer comment automatiser le processus de prise de décision avec l'apprentissage automatique.
35 heures
Jour 1 - fournit un aperçu de haut niveau des domaines essentiels du Big Data . Le module est divisé en une série de sections, chacune étant accompagnée d'un exercice pratique. Jour 2 - explore une gamme de sujets qui associent des pratiques et des outils d'analyse aux environnements Big Data . Il n'entre pas dans les détails de mise en œuvre ou de programmation, mais conserve la couverture à un niveau conceptuel, en se concentrant sur des sujets permettant aux participants de développer une compréhension complète des fonctions d'analyse communes offertes par Big Data solutions Big Data . Jour 3 - donne un aperçu des sujets fondamentaux et essentiels liés à l’architecture de la plateforme de la solution Big Data . Il couvre Big Data mécanismes Big Data requis pour le développement d'une plate-forme de solution Big Data et les options architecturales pour l'assemblage d'une plate-forme de traitement de données. Des scénarios courants sont également présentés pour fournir une compréhension de base de la manière dont une plate-forme de solution Big Data est généralement utilisée. Jour 4: poursuit le troisième jour en explorant des sujets avancés relatifs à l'architecture de la plateforme de la solution Big Data . En particulier, différentes couches architecturales constituant la plate-forme de solution Big Data sont introduites et discutées, notamment les sources de données, l'entrée de données, le stockage de données, le traitement de données et la sécurité. Jour 5 - couvre un certain nombre d’exercices et de problèmes conçus pour tester la capacité des délégués à appliquer leurs connaissances des sujets traités les jours 3 et 4.
21 heures
Big Data désigne des solutions destinées au stockage et au traitement de grands ensembles de données. Développé par Go Ogle au départ, ces Big Data volumes de Big Data des solutions ont évolué et inspiré d' autres projets similaires, dont beaucoup sont disponibles en open source. R est un langage de programmation populaire dans le secteur financier.
14 heures
Lorsque les technologies de stockage traditionnelles ne gèrent pas la quantité de données que vous avez besoin de stocker, il existe des centaines d’alternatives. Ce cours essaie de montrer aux participants quelles sont les alternatives pour stocker et analyser le Big Data et quels sont leurs avantages et leurs inconvénients. Ce cours est principalement axé sur la discussion et la présentation de solutions, bien que des exercices pratiques soient disponibles sur demande.
14 heures
Le cours fait partie des compétences de Data Scientist (domaine: données et technologie).
35 heures
Les données volumineuses sont des ensembles de données si volumineux et complexes qu'un logiciel de traitement de données traditionnel ne permet pas de les traiter. Les défis du Big Data incluent la capture, le stockage, l'analyse, la recherche, le partage, le transfert, la visualisation, l'interrogation, la mise à jour et la confidentialité des informations.
14 heures
Vespa est un moteur de traitement de données et de traitement de données opensource créé par Yahoo Il est utilisé pour répondre aux requêtes des utilisateurs, faire des recommandations et fournir un contenu personnalisé et des publicités en temps réel Cette formation en ligne, instruite, introduit les défis de la diffusion de données à grande échelle et guide les participants à travers la création d'une application capable de calculer les réponses aux demandes des utilisateurs, sur de grands ensembles de données en temps réel À la fin de cette formation, les participants seront en mesure de: Utilisez Vespa pour calculer rapidement les données (stocker, rechercher, classer, organiser) au moment du service pendant qu'un utilisateur attend Implémenter Vespa dans des applications existantes impliquant la recherche de fonctionnalités, les recommandations et la personnalisation Intégrez et déployez Vespa avec les systèmes Big Data existants tels que Hadoop et Storm Public Développeurs Format du cours Partie conférence, discussion en partie, exercices et pratique lourde de handson .
14 heures
Pour satisfaire à la conformité des régulateurs, les CSP (fournisseurs de services de Communication ) peuvent exploiter Big Data Analytics, qui les aide non seulement à respecter la conformité, mais dans le cadre du même projet, ils peuvent augmenter la satisfaction de la clientèle et ainsi réduire le taux de désabonnement. En fait, puisque la conformité est liée à la qualité de service liée à un contrat, toute initiative visant à respecter la conformité améliorera «l’avantage concurrentiel» des DSP. Par conséquent, il est important que les régulateurs soient en mesure de conseiller / orienter un ensemble de pratiques analytiques Big Data pour les DSP, qui apporteront un bénéfice mutuel entre les régulateurs et les DSP. Le cours comprend 8 modules (4 le jour 1 et 4 le jour 2)
35 heures
Les progrès technologiques et la quantité croissante d'informations transforment la manière dont la police est appliquée. Les défis que Big Data posent sont presque aussi difficile que Big Data promesse. Le stockage efficace des données est l’un de ces défis; l’analyser efficacement en est un autre. Dans le cadre de cette formation en direct animée par un instructeur, les participants apprendront l’état d’esprit permettant d’approcher Big Data technologies Big Data , d’évaluer leur impact sur les processus et les politiques existants, et de mettre en œuvre ces technologies afin de détecter les activités criminelles et de les prévenir. Des études de cas d’organismes d’application de la loi du monde entier seront examinées pour mieux comprendre leurs approches, leurs défis et leurs résultats en matière d’adoption. À la fin de cette formation, les participants seront en mesure de:
  • Combinez Big Data technologie Big Data avec les processus de collecte de données traditionnels pour reconstituer une histoire au cours d'une enquête
  • Mettre en œuvre des solutions industrielles de stockage et de traitement de données volumineuses pour l'analyse de données
  • Préparer une proposition en vue de l'adoption des outils et des processus les plus adéquats pour permettre une approche des enquêtes criminelles fondée sur les données
Public
  • Spécialistes de l'application de la loi avec une formation technique
Format du cours
  • Partie de conférence, partie de discussion, exercices et exercices intensifs
14 heures
Cette session de formation en classe explorera le Big Data . Les délégués disposeront d'exemples sur ordinateur et d'exercices d'étude de cas à entreprendre avec des outils Big Data pertinents.
14 heures
Objectif : cette formation vise à aider les participants à comprendre pourquoi le Big Data change nos vies et comment il modifie la façon dont les entreprises nous perçoivent en tant que consommateurs. En effet, les utilisateurs de Big Data dans les entreprises trouvent que le Big Data libère une mine d'informations et d'informations qui se traduisent par des profits plus élevés, des coûts réduits et des risques réduits. Cependant, l'inconvénient était la frustration parfois due à une trop grande insistance sur les technologies individuelles et à une focalisation insuffisante sur les piliers de la gestion du Big Data. Durant ce cours, les participants apprendront comment gérer le Big Data à l'aide de ses trois piliers: intégration des données, gouvernance des données et sécurité des données, afin de transformer le Big Data en une véritable valeur métier. Différents exercices conduits sur une étude de cas de gestion de la clientèle aideront les participants à mieux comprendre les processus sous-jacents.
7 heures
Cette formation en direct, animée par un instructeur (sur site ou à distance), est destinée aux techniciens souhaitant apprendre à mettre en œuvre une stratégie d’apprentissage automatique tout en maximisant l’utilisation du Big Data. À la fin de cette formation, les participants:
  • Comprendre l'évolution et les tendances de l'apprentissage automatique.
  • Savoir comment l'apprentissage machine est utilisé dans différents secteurs.
  • Familiarisez-vous avec les outils, les compétences et les services disponibles pour implémenter l'apprentissage automatique au sein d'une organisation.
  • Comprendre comment l'apprentissage automatique peut être utilisé pour améliorer l'exploration et l'analyse de données.
  • Découvrez ce qu'est un backend de données et comment il est utilisé par les entreprises.
  • Comprenez le rôle que jouent le big data et les applications intelligentes dans tous les secteurs.
Format du cours
  • Conférence interactive et discussion.
  • Beaucoup d'exercices et de pratique.
  • Mise en œuvre pratique dans un environnement de laboratoire réel.
Options de personnalisation du cours
  • Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser cela.
7 heures
Apache Sqoop est une interface de ligne de commande pour le déplacement des données à partir de bases de données relationnelles et de Hadoop. Apache Flume est un logiciel distribué pour la gestion des données volumineuses. En utilisant Sqoop et Flume, les utilisateurs peuvent transférer des données entre les systèmes et importer des données volumineuses dans des architectures de stockage telles que Hadoop. Cette formation en direct dirigée par un instructeur (sur place ou à distance) s’adresse aux ingénieurs logiciels qui souhaitent utiliser Sqoop et Flume pour transférer des données entre les systèmes. À la fin de cette formation, les participants pourront :
  • Ingérer le Big Data avec Sqoop et Flume.
  • Ingérer les données provenant de sources de données multiples.
  • Déplacer les données des bases de données relationnelles vers HDFS et Hive.
  • Exportation des données de HDFS vers une base de données relationnelle.
Format du cours
  • Conférence interactive et discussion.
  • Beaucoup d’exercices et de pratique.
  • Mise en œuvre pratique dans un environnement de laboratoire en direct.
Options de personnalisation de cours
  • Pour demander une formation personnalisée pour ce cours, s’il vous plaît contactez-nous pour organiser.
28 heures
Talend Open Studio pour Big Data est un outil ETL open source pour le traitement de données grandes. Il comprend un environnement de développement pour interagir avec Big Data sources et objectifs, et effectuer des emplois sans avoir à écrire des codes. Cette formation guidée par les instructeurs, en direct (online ou sur site) est destinée aux personnes techniques qui souhaitent déployer Talend Open Studio pour Big Data pour simplifier le processus de lecture et de crunching à travers Big Data. À la fin de cette formation, les participants seront en mesure de :
    Installation et configuration Talend Open Studio pour Big Data. Connectez-vous à des systèmes Big Data tels que Cloudera, HortonWorks, MapR, Amazon EMR et Apache. Comprendre et configurer les grands composants de données et connecteurs Open Studio. Configurez les paramètres pour générer automatiquement le code MapReduce. Utilisez l'interface de drag-and-drop de Open Studio's pour exécuter Hadoop de tâches. Prototype de big data pipelines. Projets d’intégration automatique de big data.
Le format du cours
    Lecture et discussion interactives. Beaucoup d’exercices et de pratiques. La mise en œuvre dans un environnement de laboratoire en direct.
Options de personnalisation de cours
    Pour demander une formation personnalisée pour ce cours, veuillez nous contacter pour organiser.
21 heures
The course is dedicated to IT specialists that are looking for a solution to store and process large data sets in distributed system environment Course goal: Getting knowledge regarding Hadoop cluster administration

Dernière mise à jour :

Prochains cours Big Data

Weekend Big Data cours, Soir Big Data formation, Big Data stage d’entraînement, Big Data formateur à distance, Big Data formateur en ligne, Big Data formateur Online, Big Data cours en ligne, Big Data cours à distance, Big Data professeur à distance, Big Data visioconférence, Big Data stage d’entraînement intensif, Big Data formation accélérée, Big Data formation intensive, Formation inter Big Data, Formation intra Big Data, Formation intra Enteprise Big Data, Formation inter Entreprise Big Data, Weekend Big Data formation, Soir Big Data cours, Big Data coaching, Big Data entraînement, Big Data préparation, Big Data instructeur, Big Data professeur, Big Data formateur, Big Data stage de formation, Big Data cours, Big Data sur place, Big Data formations privées, Big Data formation privée, Big Data cours particulier, Big Data cours particuliers

Réduction spéciale

Newsletter offres spéciales

Nous respectons le caractère privé de votre adresse mail. Nous ne divulguerons ni ne vendrons votre adresse email à quiconque
Vous pouvez toujours modifier vos préférences ou vous désinscrire complètement.

Nos clients

is growing fast!

Nous recherchons des formateurs alliant compétences techniques et savoir-être en France!

En tant que formateur NobleProg, vous serez responsable de :

  • délivrer des formations dans le monde entier
  • préparer les supports de cours
  • apporter des améliorations au fil des formations
  • fournir des prestations de conseil

Pour le moment, nous nous concentrons sur les domaines suivants :

  • Statistic, Forecasting, Big Data Analysis, Data Mining, Evolution Alogrithm, Natural Language Processing, Machine Learning (recommender system, neural networks .etc...)
  • SOA, BPM, BPMN
  • Hibernate/Spring, Scala, Spark, jBPM, Drools
  • R, Python
  • Mobile Development (iOS, Android)
  • LAMP, Drupal, Mediawiki, Symfony, MEAN, jQuery
  • Si vous avez de la patience et de l'empathie pour les personnes que vous formez, vous êtes fait pour rejoindre NobleProg.

Pour postuler, veuillez s'il vous plaît créer votre profil formateur en cliquant sur le lien ci-dessous :

Postuler ici

Ce site dans d'autres pays/régions