Formation Python in Data Science
Le cours d'entraînement aidera les participants à se préparer au développement d'applications Web en utilisant Python Programming avec Data Analytics. Une telle visualisation de données est un excellent outil pour Top Management dans la prise de décision.
Plan du cours
Jour 1
- Data Science
- [Composition de l'équipe (Data Scientist, Data Engineer, Data Visualizer, Process Owner)
- Business Intelligence
- Types d'outils Business Intelligence
- Développement des Business Intelligence outils
- [et les Data Visualization
- Data Visualization
- Importance de Data Visualization
- La présentation visuelle des données
- Les Data Visualization outils (infographies, cadrans et jauges, cartes géographiques, lignes de lumière, cartes thermiques, diagrammes à barres, diagrammes circulaires et diagrammes de fièvre détaillés)
- Peindre par les chiffres et jouer avec les couleurs pour créer des histoires visuelles
- Activité
Jour 2
- Data Visualization dans Python Programming
- Data Science avec Python
- Révision sur les Python fondamentaux
- Variables et types de données (str, numeric, sequence, mapping, set types, Boolean, binary, casting)
- Opérateurs, listes, tuples. Ensembles, Dictionnaires
- Déclarations conditionnelles
- Fonctions, Lambda, tableaux, classes, objets, héritage, itérateurs
- Portée, Modules, Dates, JSON, RegEx, PIP
- Try / Except, entrée de commande, formatage des chaînes de caractères
- Traitement des fichiers
- Activité
Jour 3
- Python et MySQL
- Création d'un tableau Database et d'une table
- Manipulation Database (Insérer, Sélectionner, Mettre à jour, Supprimer, Where Statement, Order by)
- Déposer une table
- Limite
- Joindre des tables
- Suppression des doublons de liste
- Inverser une chaîne
- Data Visualization avec Python et MySQL
- Utilisation de Matplotlib (tracé de base)
- Dictionnaires et Pandas
- Logique, flux de contrôle et filtrage
- Manipulation des propriétés des graphiques (police, taille, couleurs)
- Activité
Jour 4
- Représentation des données dans différents formats de graphiques
- Histogramme
- Ligne
- Barre
- Diagramme en boîte
- Diagramme circulaire
- Donut
- Diagramme de dispersion
- Radar
- Zone
- Diagramme de densité 2D / 3D
- Dendogramme
- Carte (Bubble, chaleur)
- Graphique empilé
- Diagramme de Venn
- Pépin de mer
- Activité
Jour 5
- Data Visualization avec Python et MySQL
- Travail de groupe : Créer une présentation top Management Data Visualization en utilisant les données locales ULIMS de l'ITDI
- Présentation des résultats
Pré requis
- Compréhension de la structure des données.
- Expérience avec Programming.
Audience
- Programmeurs
- Data Scientist
- Ingénieurs
Les formations ouvertes requièrent plus de 3 participants.
Formation Python in Data Science - Booking
Formation Python in Data Science - Enquiry
Python in Data Science - Demande d'informations consulting
Demande d'informations consulting
Nos clients témoignent (1)
Le formateur était accommodant. Et il m'a vraiment encouragé à suivre la formation.
Grace Goh - DBS Bank Ltd
Formation - Python in Data Science
Traduction automatique
Cours à venir
Cours Similaires
Anaconda Ecosystem for Data Scientists
14 HeuresCette formation en direct avec instructeur en France (en ligne ou sur site) s'adresse aux data scientists qui souhaitent utiliser l'écosystème Anaconda pour capturer, gérer et déployer des packages et des workflows d'analyse de données dans une plateforme unique.
A la fin de cette formation, les participants seront capables de :
- Installer et configurer les composants et les bibliothèques Anaconda.
- Comprendre les concepts de base, les fonctionnalités et les avantages de Anaconda.
- Gérer les paquets, les environnements et les canaux à l'aide du Anaconda Navigator.
- Utiliser Conda, R et les paquets Python pour la science des données et l'apprentissage automatique.
- Connaître des cas d'utilisation pratiques et des techniques pour gérer des environnements de données multiples.
Big Data Business Intelligence for Telecom and Communication Service Providers
35 HeuresRésumé
Les fournisseurs de services (CSP) sont confrontés à une pression pour réduire les coûts et maximiser le revenu moyen par utilisateur (ARPU), tout en assurant une excellente expérience client, mais les volumes de données continuent de croître. Le trafic mondial de données mobiles va croître à un taux de croissance annuel combiné (CAGR) de 78 % à 2016, atteignant 10,8 exabytes par mois.
Pendant ce temps, les CSP génèrent de grands volumes de données, y compris les enregistrements détaillés des appels (CDR), les données réseau et les données client. Les entreprises qui exploitent pleinement ces données gagnent une limite concurrentielle. Selon une récente enquête de The Economist Intelligence Unit, les entreprises qui utilisent la prise de décision basée sur les données bénéficient d’une augmentation de productivité de 5-6%. Cependant, 53% des entreprises n’utilisent que la moitié de leurs données précieuses, et un quart des répondants a noté que de vastes quantités de données utiles ne sont pas utilisées. Les volumes de données sont si élevés que l'analyse manuelle est impossible, et la plupart des systèmes logiciels héréditaires ne peuvent pas se maintenir, ce qui entraîne que les données précieuses sont déchirées ou ignorées.
Avec Big Data & Analytics’ logiciel de big data à grande vitesse, scalable, les CSPs peuvent miner tous leurs données pour une meilleure prise de décision en moins de temps. Différents Big Data produits et techniques fournissent une plate-forme logicielle end-to-end pour la collecte, la préparation, l'analyse et la présentation d'informations sur les grandes données. Les domaines d'application comprennent la surveillance des performances du réseau, la détection de fraudes, la détection du client et l'analyse du risque de crédit. Big Data & Scale des produits d'analyse pour gérer des terabytes de données mais la mise en œuvre de ces outils nécessite un nouveau type de système de base de données basé sur le cloud comme Hadoop ou un processeur de calcul parallèle à grande échelle (KPU, etc.)
Ce cours travaille sur Big Data BI pour Telco couvre toutes les nouvelles zones émergentes dans lesquelles les CSP investissent pour augmenter la productivité et ouvrir de nouveaux flux de revenus d'affaires. Le cours fournira une vue complète de 360 degrés sur Big Data BI à Telco afin que les décideurs et les gestionnaires puissent avoir un aperçu très large et complet des possibilités de Big Data BI à Telco pour la productivité et l'amélioration des revenus.
Objectifs du cours
L'objectif principal du cours est d'introduire de nouvelles Big Data techniques d'intelligence d'affaires dans 4 secteurs de Telecom Business (Marketing/Ventes, Opération réseau, Opération financière et Relation client Management). Les étudiants seront introduits à suivre :
- Introduction à Big Data-ce qui est 4Vs (volume, vitesse, variété et veracité) dans Big Data- Génération, extraction et gestion de la perspective Telco
- Comment Big Data l'analytique diffère de l'analytique des données d'héritage
- La justification intérieure de la Big Data -Telco perspective
- Introduction à Hadoop Écosystème- familiarité avec tous les Hadoop outils tels que Hive, Pig, SPARC – quand et comment ils sont utilisés pour résoudre Big Data problème
- Comment Big Data est extrait pour l'analyse pour les outils d'analyse-comment Business Analysis’s peuvent réduire leurs points de douleur de collecte et d'analyse des données grâce à une approche intégrée Hadoop de tableau de bord
- Introduction fondamentale de l'analyse Insight, de l'analyse de la visualisation et de l'analyse prédictive pour Telco
- L'analyse client Churn et Big Data-comment Big Data peut réduire l'analyse client Churn et l'insatisfaction des clients dans les études de cas Telco
- Analyse d'échecs réseau et d'échecs de service à partir des méta-data réseau et IPDR
- Analyse financière-fraude, fraude et estimation du ROI à partir des ventes et des données opérationnelles
- Problème d'acquisition client-Marketing cible, segmentation client et cross-sales à partir des données de vente
- Introduction et résumé de tous Big Data produits d'analyse et où ils s'adaptent à l'espace d'analyse Telco
- Conclusion-comment prendre une approche étape par étape pour introduire Big Data Business Intelligence dans votre organisation
Audience cible
- Opération réseau, gestionnaires financiers, gestionnaires CRM et gestionnaires informatiques de premier plan dans le bureau du CIO de Telco.
- Business Analystes à Telco
- Gestionnaire de bureau / analystes
- gestionnaires opérationnels
- Général QA
Scaling Data Analysis with Python and Dask
14 HeuresCette formation en <loc> ; (en ligne ou sur site) est destinée aux data scientists et aux ingénieurs logiciels qui souhaitent utiliser Dask avec l'écosystème Python pour construire, mettre à l'échelle et analyser de grands ensembles de données.
A l'issue de cette formation, les participants seront capables de :
- Mettre en place l'environnement pour commencer à construire des traitements de big data avec Dask et Python.
- Explorer les fonctionnalités, les bibliothèques, les outils et les API disponibles dans Dask.
- Comprendre comment Dask accélère le calcul parallèle en Python.
- Apprendre à faire évoluer l'écosystème Python (Numpy, SciPy et Pandas) en utilisant Dask.
- Optimiser l'environnement Dask pour maintenir de hautes performances dans le traitement de grands ensembles de données.
Data Analysis with Python, Pandas and Numpy
14 HeuresCe formation en direct, dirigée par un formateur (en ligne ou sur site) est destinée aux développeurs et analystes de données intermédiaires qui souhaitent améliorer leurs compétences en analyse et manipulation des données à l'aide de Python, Pandas et NumPy.
À la fin de cette formation, les participants seront capables de :
- Configurer un environnement de développement comprenant Python, Pandas et NumPy.
- Créer une application d'analyse des données utilisant Pandas et NumPy.
- Réaliser des opérations avancées de préparation, de tri et de filtrage des données.
- Conduire des opérations agrégées et analyser les séries temporelles.
- Visualiser les données à l'aide de Matplotlib et d'autres bibliothèques de visualisation.
- Déboguer et optimiser leur code d'analyse des données.
Data Science for Big Data Analytics
35 HeuresLes données volumineuses sont des ensembles de données si volumineux et complexes qu'un logiciel de traitement de données traditionnel ne permet pas de les traiter. Les défis du Big Data incluent la capture, le stockage, l'analyse, la recherche, le partage, le transfert, la visualisation, l'interrogation, la mise à jour et la confidentialité des informations.
Data Science essential for Marketing/Sales professionals
21 HeuresCe cours est destiné aux Marketing professionnels de la vente qui souhaitent approfondir l'application de la science des données dans Marketing/Ventes. Le cours fournit une couverture détaillée des différentes techniques de science des données utilisées pour la « vente incitative », la « vente croisée », la segmentation du marché, le branding et le CLV.
Différence de Marketing et ventes – En quoi les ventes et le marketing sont-ils différents ?
En termes très simples, les ventes peuvent être décrites comme un processus qui se concentre ou cible des individus ou de petits groupes. Marketing s'adresse en revanche à un groupe plus large ou au grand public. Marketing comprend la recherche (identification des besoins du client), le développement de produits (production de produits innovants) et la promotion du produit (par le biais de publicités) et la sensibilisation au produit auprès des consommateurs. En tant que tel, le marketing signifie générer des prospects ou des prospects. Une fois le produit mis sur le marché, il incombe au vendeur de persuader le client d’acheter le produit. Les ventes consistent à convertir les leads ou les prospects en achats et en commandes, tandis que le marketing vise des termes plus longs, tandis que les ventes concernent des objectifs plus courts.
FARM (FastAPI, React, and MongoDB) Full Stack Development
14 HeuresCette formation en direct (en ligne ou sur site) est destinée aux développeurs qui souhaitent utiliser la pile FARM (FastAPI, React et MongoDB) pour créer des applications web dynamiques, performantes et évolutives.
A l'issue de cette formation, les participants seront capables de :
-
Mettre en place l'environnement de développement nécessaire qui intègre FastAPI, React, et MongoDB.
Comprendre les concepts clés, les fonctionnalités et les avantages de la pile FARM.
Apprendre à construire des API REST avec FastAPI.
Apprendre à concevoir des applications interactives avec React.
Développer, tester et déployer des applications (front-end et back-end) en utilisant la pile FARM.
Developing APIs with Python and FastAPI
14 HeuresCette formation en direct (en ligne ou sur site) est destinée aux développeurs qui souhaitent utiliser FastAPI avec Python pour créer, tester et déployer des API RESTful plus facilement et plus rapidement.
A l'issue de cette formation, les participants seront capables de :
- Configurer l'environnement de développement nécessaire pour développer des API avec Python et FastAPI.
- Créer des API plus rapidement et plus facilement en utilisant la bibliothèque FastAPI.
- Apprendre à créer des modèles de données et des schémas basés sur Pydantic et OpenAPI.
- Connecter les API à une base de données en utilisant SQLAlchemy.
- Implémenter la sécurité et l'authentification dans les API en utilisant les outils FastAPI.
- Construire des images conteneur et déployer des API web sur un serveur cloud.
Jupyter for Data Science Teams
7 HeuresCette formation en direct (en ligne ou sur site) animée par un formateur introduit l'idée du développement collaboratif dans le domaine de la science des données et démontre comment utiliser Jupyter pour suivre et participer en équipe au "cycle de vie d'une idée computationnelle". Elle guide les participants à travers la création d'un projet de science des données basé sur l'écosystème Jupyter.
À la fin de cette formation, les participants seront capables de :
- Installer et configurer Jupyter, y compris la création et l'intégration d'un dépôt d'équipe sur Git.
- Utiliser des fonctionnalités de Jupyter telles que les extensions, les widgets interactifs, le mode multi-utilisateur et plus encore pour permettre une collaboration sur le projet.
- Créer, partager et organiser des carnets Jupyter avec les membres de l'équipe.
- Choisir entre Scala, Python, R, pour écrire et exécuter du code contre des systèmes de grandes données tels que Apache Spark, tout en passant par l'interface Jupyter.
Kaggle
14 HeuresCette formation en France (en ligne ou sur site) est destinée aux data scientists et aux développeurs qui souhaitent apprendre et développer leur carrière dans Data Science en utilisant Kaggle.
A l'issue de cette formation, les participants seront capables de :
- S'informer sur la science des données et l'apprentissage automatique.
- Explorer l'analyse des données.
- En savoir plus sur Kaggle et son fonctionnement.
MATLAB Fundamentals, Data Science & Report Generation
35 HeuresDans la première partie de cette formation, nous couvrons les fondamentaux de MATLAB et sa fonction à la fois comme langage et comme plateforme. Cette discussion comprend une introduction à la syntaxe de MATLAB, aux tableaux et aux matrices, à la visualisation de données, au développement de scripts et aux principes orientés objet.
Dans la deuxième partie, nous montrons comment utiliser MATLAB pour l'exploration de données, l'apprentissage automatique et l'analyse prédictive. Pour donner aux participants une perspective claire et pratique de l'approche et de la puissance de MATLAB, nous établissons des comparaisons entre l'utilisation de MATLAB et l'utilisation d'autres outils tels que les tableurs, le C, C++ et Visual Basic.
Dans la troisième partie de la formation, les participants apprennent à rationaliser leur travail en automatisant le traitement des données et la génération de rapports.
Tout au long de la formation, les participants mettront en pratique les idées apprises au moyen d'exercices pratiques dans un environnement de laboratoire. À la fin de la formation, les participants auront une connaissance approfondie des capacités de MATLAB et seront en mesure de l'utiliser pour résoudre des problèmes réels de science des données ainsi que pour rationaliser leur travail grâce à l'automatisation.
Des évaluations seront effectuées tout au long du cours pour mesurer les progrès réalisés.
Format du cours permettant d'évaluer les participants
- Le cours comprend des exercices théoriques et pratiques, y compris des discussions de cas, l'inspection d'exemples de code, et la mise en œuvre pratique.
Remarque
- Les sessions pratiques seront basées sur des modèles de rapports de données préétablis. Si vous avez des besoins spécifiques, veuillez nous contacter pour convenir d'un arrangement.
Accelerating Python Pandas Workflows with Modin
14 HeuresCette formation en direct avec instructeur dans France (en ligne ou sur site) est destinée aux scientifiques des données et aux développeurs qui souhaitent utiliser Modin pour construire et mettre en œuvre des calculs parallèles avec Pandas afin d'accélérer l'analyse des données.
A la fin de cette formation, les participants seront capables de :
- Mettre en place l'environnement nécessaire pour commencer à développer des flux de travail Pandas à l'échelle avec Modin.
- Comprendre les caractéristiques, l'architecture et les avantages de Modin.
- Connaître les différences entre Modin, Dask et Ray.
- Effectuer des opérations Pandas plus rapidement avec Modin.
- Mettre en œuvre l'ensemble de l'API et des fonctions Pandas.
Python Programming for Finance
35 HeuresPython est un langage de programmation qui a acquis une énorme popularité dans le secteur financier. Adopté par les plus grandes banques d’investissement et les hedge funds, il est utilisé pour créer un large éventail d’applications financières allant des programmes de négociation centraux aux systèmes de gestion des risques.
Dans cette formation en direct animée par un instructeur, les participants apprendront à utiliser Python pour développer des applications pratiques permettant de résoudre un certain nombre de problèmes spécifiques liés à la finance.
À la fin de cette formation, les participants seront en mesure de:
- Comprendre les fondamentaux du langage de programmation Python
- Télécharger, installer et maintenir les meilleurs outils de développement pour créer des applications financières en Python
- Sélectionner et utiliser les packages et techniques de programmation Python les plus appropriés pour organiser, visualiser et analyser les données financières provenant de diverses sources (CSV, Excel, bases de données, web, etc.)
- Développer des applications qui résolvent des problèmes liés à l’allocation d’actifs, à l’analyse des risques, à la performance des investissements et plus encore
- Déboguer, intégrer, déployer et optimiser une application Python
Public
- Développeurs
- Analystes
- Quants
Format du cours permettant d'évaluer les participants
- Partie magistrale, partie discussion, exercices et pratique intensive
Remarque
- Cette formation vise à fournir des solutions à certains des principaux problèmes rencontrés par les professionnels de la finance. Cependant, si vous avez un sujet, un outil ou une technique particulier(ère) que vous souhaitez approfondir ou élaborer, n’hésitez pas à nous contacter pour en discuter.
GPU Data Science with NVIDIA RAPIDS
14 HeuresCette formation en France (en ligne ou sur site) s'adresse aux data scientists et aux développeurs qui souhaitent utiliser RAPIDS pour construire des pipelines de données, des workflows et des visualisations accélérés par GPU, en appliquant des algorithmes d'apprentissage automatique, tels que XGBoost, cuML, etc.
A la fin de cette formation, les participants seront capables de :
- Mettre en place l'environnement de développement nécessaire pour construire des modèles de données avec NVIDIA RAPIDS.
- Comprendre les caractéristiques, les composants et les avantages de RAPIDS.
- Exploiter les GPU pour accélérer les pipelines de données et d'analyse de bout en bout.
- Mettre en œuvre la préparation des données et l'ETL accélérés par GPU avec cuDF et Apache Arrow.
- Apprendre à réaliser des tâches d'apprentissage automatique avec les algorithmes XGBoost et cuML.
- Construire des visualisations de données et exécuter des analyses graphiques avec cuXfilter et cuGraph.