Formation Platforma analityczna KNIME - szkolenie kompleksowe
KNIME est le nom abrégé de Konstanz Information Miner, une plateforme d'intégration, d'analyse interactive des données et de création de rapports, disponible sur une base libre et gratuite. KNIME permet l'intégration d'une grande variété de composants d'apprentissage automatique et d'exploration de données grâce à un concept modulaire de traitement de pipeline de données. L'interface utilisateur graphique et l'utilisation de JDBC permettent d'assembler rapidement et facilement des nœuds pour les relier les uns aux autres. L'interface utilisateur graphique et l'utilisation de JDBC permettent de configurer facilement et rapidement desnœuds pour relier différentes sources de données, y compris le prétraitement (ETL) et la modélisation, l'analyse et la visualisation des données, sans programmation (ou avec une programmation minimale). Dans une certaine mesure, KNIME, en tant qu'outil analytique avancé, peut être considéré comme une alternative SAS.
Depuis 2006, KNIME est utilisé dans l'industrie pharmaceutique. KNIME a été utilisé dans la recherche pharmaceutique, ainsi que dans d'autres domaines tels que l'analyse des données clients (CRM), la veille stratégique (BI) et l'analyse des données financières.
Plan du cours
- Introduction au traitement et à l'analyse des données
- Informations de base sur la plate-forme KNIME
- installation et configuration
- aperçu de l'interface
- Discussion de la plate-forme en termes d'intégration d'outils
- Introduction aux flux de travail. Création de flux de travail
- Méthodologie pour la création de modèles d'entreprise et de processus de données
- documentation des flux de travail
- Méthodes d'importation et d'exportation des processus
- Discussion sur les nœuds de base
- Discussion des processus ETL
- Méthodologies d'exploration des données
- Méthodologies d'importation de données
- Importation de données à partir de fichiers
- Importation de données à partir de bases de données relationnelles à l'aide de SQL
- génération de requêtes SQL
- Discussion sur les nœuds avancés
- Analyse des données
- préparation des données pour l'analyse
- qualité et vérification des données
- tests statistiques des données
- modélisation des données
- Introduction à l'utilisation de variables et de boucles
- Construction de processus avancés et automatisés
- Visualisation des résultats
- Sources de données publiques et gratuites
- Notions de base Data Mining
- Vue d'ensemble de certains types de tâches et de processus Data Mining
- Découvrir des connaissances à partir de données
- Exploration du Web
- SNA - réseaux sociaux
- Text Mining - analyse de documents
- Visualisation de données sur des cartes
- Intégration d'autres outils avec KNIME
- R
- Java
- Python
- Gephi
- Neo4j
- Construction du rapport
- Résumé de la formation
Pré requis
Connaissance des bases de l'analyse mathématique.
Connaissance des bases de la statistique.
Les formations ouvertes requièrent plus de 3 participants.
Formation Platforma analityczna KNIME - szkolenie kompleksowe - Booking
Formation Platforma analityczna KNIME - szkolenie kompleksowe - Enquiry
Platforma analityczna KNIME - szkolenie kompleksowe - Demande d'informations consulting
Demande d'informations consulting
Nos clients témoignent (2)
Très utile car cela m'aide à comprendre ce que nous pouvons faire avec les données dans notre contexte. Cela m'aidera également
Nicolas NEMORIN - Adecco Groupe France
Formation - KNIME Analytics Platform for BI
Traduction automatique
C'est une session pratique.
Vorraluck Sarechuer - Total Access Communication Public Company Limited (dtac)
Formation - Talend Open Studio for ESB
Traduction automatique
Cours à venir
Cours Similaires
Data Mining
21 HeuresLe cours peut être fourni avec tous les outils, y compris des logiciels gratuits d'exploration de données open source et des applications
KNIME Analytics Platform for BI
21 HeuresKNIME Analytics Platform est l'une des principales options open source pour l'innovation pilotée par les données. Elle vous permet de découvrir le potentiel caché dans vos données, d'explorer de nouvelles informations ou de prévoir de nouveaux futurs. Avec plus de 1000 modules, des centaines d'exemples prêts à l'emploi, une gamme complète d'outils intégrés et le plus vaste choix d'algorithmes avancés disponibles, KNIME Analytics Platform est la boîte à outils idéale pour tout informaticien ou analyste métier.
Cette formation pour KNIME Analytics Platform est une occasion idéale pour les débutants, les utilisateurs expérimentés et les experts KNIME de se familiariser avec KNIME , d'apprendre à l'utiliser plus efficacement et à créer des rapports clairs et complets basés sur les workflows de KNIME
Data Science with KNIME Analytics Platform
21 HeuresKNIME La plate-forme d’analyse est une option de source ouverte de premier plan pour l’innovation basée sur les données, vous aidant à découvrir le potentiel caché dans vos données, à miner pour de nouvelles informations ou à prédire de nouvelles futures. Avec plus de 1000 modules, des centaines d’exemples prêts à se lancer, un large éventail d’outils intégrés et la plus large sélection d’algorithmes avancés disponibles, KNIME Analytics Platform est la boîte d’outils idéale pour tout scientifique de données et analyste d’affaires.
Ce cours pour KNIME Platform Analytics est une opportunité idéale pour les débutants, les utilisateurs avancés et KNIME experts à être introduits à KNIME, pour apprendre à l'utiliser plus efficacement, et comment créer des rapports clairs et complets basés sur KNIME flux de travail
Cette formation guidée par des instructeurs, en direct (online ou sur site) est destinée à des professionnels de données qui souhaitent utiliser KNIME pour répondre aux besoins complexes des entreprises.
Il est ciblé pour le public qui ne connaît pas la programmation et vise à utiliser des outils de pointe pour mettre en œuvre des scénarios d'analyse.
À la fin de cette formation, les participants seront en mesure de :
- Installer et configurer KNIME.
- Créer des scénarios Data Science
- Trains, tests et modèles validés
- La mise en œuvre met fin à la chaîne de valeur finale des modèles de la science des données
Format du cours permettant d'évaluer les participants permettant d'évaluer les participants
- Lecture et discussion interactives.
- Beaucoup d’exercices et de pratiques.
- La mise en œuvre dans un environnement de laboratoire en direct.
Options de personnalisation de cours
- Pour demander une formation personnalisée pour ce cours ou pour en savoir plus sur ce programme, veuillez nous contacter pour organiser.
KNIME with Python and R for Machine Learning
14 HeuresCette formation en direct dans France (en ligne ou sur site) est destinée aux data scientists qui souhaitent programmer en Python et en R pour KNIME.
A l'issue de cette formation, les participants seront capables de :
- Planifier, construire et déployer des modèles d'apprentissage automatique en KNIME.
- Prendre des décisions basées sur les données pour les opérations.
- Mettre en œuvre des projets de science des données de bout en bout.
Oracle GoldenGate
14 HeuresCette formation en direct avec instructeur (en ligne ou sur site) s'adresse aux administrateurs système et aux développeurs qui souhaitent mettre en place, déployer et gérer Oracle GoldenGate pour la transformation des données.
A l'issue de cette formation, les participants seront capables de :
- Installer et configurer Oracle GoldenGate.
- Comprendre la réplication des bases de données Oracle à l'aide de l'outil Oracle GoldenGate.
- Comprendre l'architecture Oracle GoldenGate.
- Configurer et exécuter la réplication et la migration d'une base de données.
- Optimiser les performances de Oracle GoldenGate et résoudre les problèmes.
Pentaho Open Source BI Suite Community Edition (CE)
28 Heures[Open Source BI Suite Community Edition (CE) est un progiciel de Business Intelligence qui offre des fonctionnalités d'intégration de données, de reporting, de tableaux de bord et de chargement.
Dans cette formation en direct, dirigée par un instructeur, les participants apprendront à maximiser les fonctionnalités de Pentaho Open Source BI Suite Community Edition (CE).
A la fin de cette formation, les participants seront capables de :
- Installer et configurer Pentaho Open Source BI Suite Community Edition (CE)
- Comprendre les principes fondamentaux des outils de Pentaho CE et leurs fonctionnalités
- Créer des rapports à l'aide de Pentaho CE
- Intégrer des données tierces dans Pentaho CE
- Travailler avec les big data et l'analytique dans Pentaho CE
Public
- Programmeurs
- Développeurs BI
Format du cours permettant d'évaluer les participants
- En partie conférence, en partie discussion, exercices et pratique intensive.
Remarque
- Pour demander une formation personnalisée pour ce cours, veuillez nous contacter.
Pentaho Data Integration Fundamentals
21 HeuresPentaho Data Integration est un outil d'intégration de données open-source permettant de définir des tâches et des transformations de données.
Dans cette formation, les participants apprendront à utiliser les puissantes capacités ETL de Pentaho Data Integration et son interface graphique riche pour gérer l'ensemble du cycle de vie des big data et maximiser la valeur des données au sein de leur organisation.
A la fin de cette formation, les participants seront capables de :
- Créer, prévisualiser et exécuter des transformations de données de base contenant des étapes et des sauts.
- Configurer et sécuriser le Pentaho Référentiel d'entreprise
- Exploiter des sources de données disparates et générer une version unique et unifiée de la vérité dans un format prêt pour l'analyse.
- Fournir des résultats à des applications tierces pour un traitement ultérieur
Audience
- Analystes de données
- Développeurs ETL
Format du cours permettant d'évaluer les participants
- En partie conférence, en partie discussion, exercices et pratique intensive.
Sensor Fusion Algorithms
14 Heures[L'intégration de données provenant de plusieurs capteurs permet d'obtenir une vision plus précise, plus fiable et plus contextuelle des données.
Les implémentations Sensor Fusion nécessitent des algorithmes pour filtrer et intégrer différentes sources de données.
Public
Ce cours s'adresse aux ingénieurs, programmeurs et architectes qui travaillent sur des implémentations multi-capteurs.
Statistics with SPSS Predictive Analytics Software
14 HeuresGoal :
Apprendre à travailler avec SPSS au niveau de l'indépendance
Les destinataires :
Analystes, chercheurs, scientifiques, étudiants et tous ceux qui souhaitent acquérir la capacité d'utiliser le progiciel SPSS et apprendre les techniques populaires d'exploration de données.
Talend Administration Center (TAC)
14 HeuresCette formation en direct avec instructeur (en ligne ou sur site) s'adresse aux administrateurs système, aux scientifiques des données et aux analystes commerciaux qui souhaitent configurer le Talend Centre d'administration pour déployer et gérer les rôles et les tâches de l'organisation.
A l'issue de cette formation, les participants seront capables de :
- Installer et configurer le Centre d'administration Talend.
- Comprendre et mettre en œuvre les principes fondamentaux de la gestion Talend.
- Construire, déployer et exécuter des projets ou des tâches d'entreprise dans Talend.
- Surveiller la sécurité des ensembles de données et développer des routines commerciales basées sur le cadre TAC.
- Obtenir une compréhension plus large des applications de big data.
Talend Big Data Integration
28 HeuresCette formation en direct (en ligne ou sur site) est destinée aux personnes techniques qui souhaitent déployer Talend Open Studio for Big Data pour simplifier le processus de lecture et d'analyse des données.
A l'issue de cette formation, les participants seront capables de :
- Installer et configurer Talend Open Studio for Big Data.
- Connecter avec les systèmes Big Data tels que Cloudera, HortonWorks, MapR, Amazon EMR et Apache.
- Comprendre et configurer les composants et connecteurs Big Data d'Open Studio.
- Configurer les paramètres pour générer automatiquement du code MapReduce.
- Utiliser l'interface glisser-déposer d'Open Studio pour exécuter des tâches Hadoop.
- Prototypez des pipelines de big data.
- Automatiser les projets d'intégration de big data.
Talend Cloud
7 HeuresCette formation en direct avec instructeur (en ligne ou sur site) s'adresse aux administrateurs de données et aux développeurs qui souhaitent gérer, surveiller et exploiter les processus d'intégration de données à l'aide des services Talend Cloud.
A l'issue de cette formation, les participants seront capables de :
- Naviguer dans la Talend console de gestion pour gérer les utilisateurs et les rôles dans la plateforme.
- Évaluer les données pour trouver et comprendre les ensembles de données pertinents.
- Créer un pipeline pour traiter et surveiller les données au repos ou en action.
- Préparer les données pour l'analyse afin de générer des informations pertinentes pour l'entreprise.
Talend Data Stewardship
14 HeuresCette formation en direct avec instructeur (en ligne ou sur site) s'adresse aux analystes de données de niveau débutant ou intermédiaire qui souhaitent approfondir leur compréhension et leurs compétences en matière de gestion et d'amélioration de la qualité des données à l'aide de Talend Data Stewardship.
A l'issue de cette formation, les participants seront capables de :
-
Comprendre le rôle de la gestion des données dans le maintien de la qualité des données.
Utiliser Talend Data Stewardship pour gérer les tâches liées à la qualité des données.
Créer, assigner et gérer des tâches dans Talend Data Stewardship, y compris la personnalisation du flux de travail.
Utiliser les capacités de reporting et de surveillance de l'outil pour suivre la qualité des données et les efforts d'intendance.
Talend Open Studio for ESB
21 HeuresDans cette formation en direct, dirigée par un instructeur, les participants apprendront à utiliser Talend Open Studio for ESB pour créer, connecter, médiatiser et gérer des services et leurs interactions.
A l'issue de cette formation, les participants seront en mesure de
- Intégrer, améliorer et fournir les technologies ESB sous forme de paquets uniques dans une variété d'environnements de déploiement.
- Comprendre et utiliser Talend les composants les plus utilisés d'Open Studio.
- Intégrer n'importe quelle application, base de données, API ou services Web.
- Intégrer de manière transparente des systèmes et des applications hétérogènes.
- Intégrer les bibliothèques de code Java existantes pour étendre les projets.
- Mettre à profit les composants et le code de la communauté pour étendre les projets.
- Intégrer rapidement des systèmes, des applications et des sources de données dans un environnement Eclipse de type "glisser-déposer".
- Réduire le temps de développement et les coûts de maintenance en générant un code optimisé et réutilisable.