Merci d'avoir envoyé votre demande ! Un membre de notre équipe vous contactera sous peu.
Merci d'avoir envoyé votre réservation ! Un membre de notre équipe vous contactera sous peu.
Plan du cours
Répartition des sujets sur une base quotidienne : (Chaque session dure 2 heures)
Jour 1 : Session -1 : Business Aperçu du pourquoi Big Data Business Intelligence dans les télécommunications.
- Études de cas de T-Mobile, Verizon, etc.
- Big Data taux d'adaptation des sociétés de télécommunications nord-américaines et comment elles alignent leur futur modèle commercial et leurs opérations autour de Big Data BI
- Domaine d'application à grande échelle
- Gestion du réseau et des services
- Désabonnement des clients Management
- Data Integration & Visualisation du tableau de bord
- Gestion de la fraude
- Business Génération de règles
- Profilage des clients
- Diffusion d'annonces localisées
Jour-1 : Session-2 : Introduction de Big Data-1
- Principales caractéristiques de Big Data-volume, variété, vélocité et véracité. Architecture MPP pour le volume.
- Data Warehouses – schéma statique, ensemble de données évoluant lentement
- MPP Database comme Greenplum, Exadata, Teradata, Netezza, Vertica etc.
- Hadoop Solutions basées – aucune condition sur la structure de l’ensemble de données.
- Modèle typique : HDFS, MapReduce (crunch), récupération depuis HDFS
- Lot adapté aux applications analytiques/non interactives
- Volume : données en streaming CEP
- Choix typiques – produits CEP (par exemple Infostreams, Apama, MarkLogic, etc.)
- Moins prêt pour la production – Storm/S4
- NoSQL Databases – (colonne et valeur-clé) : Idéal comme complément analytique à l'entrepôt de données/base de données
Jour-1 : Session -3 : Introduction à Big Data-2
NoSQL solutions
- Magasin KV - Keyspace, Flare, SchemaFree, RAMCloud, Oracle NoSQL Database (OnDB)
- Magasin KV - Dynamo, Voldemort, Dynomite, SubRecord, Mo8onDb, DovetailDB
- Magasin KV (hiérarchique) - GT.m, Cache
- KV Store (commandé) - TokyoTyrant, Lightcloud, NMDB, Luxio, MemcacheDB, Actord
- Cache KV - Memcached, Repcached, Coherence, Infinispan, EXtremeScale, JBossCache, Velocity, Terracoqua
- Tuple Store - Gigaspaces, Coord, Apache River
- Objet Database - ZopeDB, DB40, Shoal
- Magasin de documents - CouchDB, Cloudant, Couchbase, MongoDB, Jackrabbit, XML-Databases, ThruDB, CloudKit, Prsevere, Riak-Basho, Scalaris
- Large magasin en colonnes - BigTable, HBase, Apache Cassandra, Hypertable, KAI, OpenNeptune, Qbase, KDI
Variétés de données : introduction au problème Data Cleaning dans Big Data
- SGBDR – structure/schéma statique, ne favorise pas un environnement agile et exploratoire.
- NoSQL – semi-structuré, suffisamment structuré pour stocker des données sans schéma exact avant de stocker les données
- Problèmes de nettoyage des données
Jour-1 : Session-4 : Big Data Introduction-3 : Hadoop
- Quand sélectionner Hadoop ?
- STRUCTURÉ – Les entrepôts de données/bases de données d'entreprise peuvent stocker des données massives (à un coût) mais imposer une structure (pas bon pour l'exploration active)
- Données SEMI-STRUCTURÉES – difficiles à réaliser avec des solutions traditionnelles (DW/DB)
- Données d'entreposage = effort ÉNORME et statique même après la mise en œuvre
- Pour la variété et le volume de données, basés sur du matériel standard – HADOOP
- Produits matériels et matériels nécessaires pour créer un Hadoop cluster
Introduction à Map Réduire /HDFS
- MapReduce – répartissez l'informatique sur plusieurs serveurs
- HDFS – rendre les données disponibles localement pour le processus informatique (avec redondance)
- Données – peuvent être non structurées/sans schéma (contrairement au SGBDR)
- Responsabilité du développeur de donner un sens aux données
- Programming MapReduce = travailler avec Java (avantages/inconvénients), chargement manuel des données dans HDFS
Jour 2 : Session-1.1 : Spark : Base de données distribuée en mémoire
- Qu’est-ce que le traitement « En mémoire » ?
- Étincelle SQL
- SDK Spark
- API Spark
- RDD
- Libération d'étincelles
- Hanna
- Comment migrer un système Hadoop existant vers Spark
Session Jour 2 -1.2 : Tempête -Traitement en temps réel dans Big Data
- Ruisseaux
- Choux
- Boulons
- Topologies
Jour 2 : Session 2 : Big Data Management Système
- Pièces mobiles, démarrage/échec des nœuds de calcul :ZooKeeper - Pour les services de configuration/coordination/naming
- Pipeline/workflow complexe : Oozie – gérer le workflow, les dépendances et la connexion en série
- Déployer, configurer, gestion de cluster, mise à niveau, etc. (administrateur système) :Ambari
- Dans le Cloud : Whirr
- Outils de plateforme évolutifs Big Data pour le suivi
- Problèmes d'application de la couche ETL
Jour-2 : Session-3 : Analyse prédictive dans Business Intelligence -1 : Techniques fondamentales et BI basée sur l'apprentissage automatique :
- Introduction à l'apprentissage automatique
- Apprentissage des techniques de classification
- Fichier de formation pour la préparation de la prédiction bayésienne
- Champ aléatoire de Markov
- Apprentissage supervisé et non supervisé
- Extraction de caractéristiques
- Machine à vecteurs de support
- Réseau neuronal
- Apprentissage par renforcement
- Big Data problème de grandes variables - Forêt aléatoire (RF)
- Apprentissage de la représentation
- L'apprentissage en profondeur
- Big Data Problème d’automatisation – RF d’ensemble multimodèle
- Automatisation via Soft10-M
- LDA et modélisation thématique
- Agile apprentissage
- Apprentissage basé sur les agents – Exemple tiré d'une opération de télécommunication
- Apprentissage distribué – Exemple tiré d'une opération de télécommunication
- Introduction aux outils Open source pour l'analyse prédictive : R, Rapidminer, Mahut
- Laboratoire d'analyseApache Hama, Spark et CMU Graph plus évolutif
Jour 2 : Session 4 Écosystème d'analyse prédictive-2 : Problèmes d'analyse prédictive courants dans Telecom
- Analyse d'informations
- Analyse de visualisation
- Analyse prédictive structurée
- Analyse prédictive non structurée
- Profilage des clients
- Moteur de recommandation
- Détection de modèles
- Découverte de règles/scénarios – échec, fraude, optimisation
- Découverte des causes profondes
- Analyse des sentiments
- Analyse CRM
- Analyse de réseau
- Analyse de texte
- Examen assisté par la technologie
- Analyse de fraude
- Analyse en temps réel
Jour 3 : Session-1 : Analyse de l'exploitation du réseau - analyse des causes profondes des pannes de réseau, interruption de service à partir des métadonnées, IPDR et CRM :
- L'utilisation du processeur
- Utilisation de la mémoire
- Utilisation de la file d'attente QoS
- Température de l'appareil
- Erreur d'interface
- Versions iOS
- Événements de routage
- Variations de latence
- Analyse Syslog
- Perte de paquets
- Simulation de charge
- Inférence de topologie
- Seuil de performances
- Pièges de périphérique
- Collecte et traitement IPDR (enregistrement détaillé IP)
- Utilisation des données IPDR pour la consommation de bande passante de l'abonné, l'utilisation de l'interface réseau, l'état du modem et le diagnostic
- Informations sur les HFC
Jour 3 : Session 2 : Outils d'analyse des défaillances des services réseau :
- Tableau de bord récapitulatif du réseau : surveillez les déploiements réseau globaux et suivez les indicateurs de performance clés de votre organisation
- Tableau de bord d'analyse des périodes de pointe : comprenez les tendances des applications et des abonnés qui génèrent les pics d'utilisation, avec une granularité spécifique à l'emplacement.
- Tableau de bord d'efficacité du routage : contrôlez les coûts du réseau et élaborez des analyses de rentabilisation pour les projets d'investissement avec une compréhension complète des relations d'interconnexion et de transit.
- Tableau de bord de divertissement en temps réel : accédez aux mesures importantes, notamment les vues vidéo, la durée et la qualité de l'expérience vidéo (QoE).
- Tableau de bord de transition IPv6 : étudiez l'adoption continue d'IPv6 sur votre réseau et obtenez un aperçu des applications et des appareils qui déterminent les tendances.
- Étude de cas 1 : mineur de données Alcatel-Lucent Big Network Analytics (BNA)
- Intelligence mobile multidimensionnelle (m.IQ6)
Jour 3 : Session 3 : Big Data BI pour Marketing/Sales – Comprendre les ventes/marketing à partir des données de ventes : (Tous seront présentés avec une démo d'analyse prédictive en direct)
- Pour identifier les clients les plus rapides
- Identifier les clients pour un produit donné
- Pour identifier le bon ensemble de produits pour un client (moteur de recommandation)
- Technique de segmentation du marché
- Technique de vente croisée et de vente incitative
- Technique de segmentation des clients
- Technique de prévision du chiffre d'affaires
Jour 3 : Séance 4 : BI nécessaire pour le bureau du directeur financier des télécommunications :
- Aperçu des Business travaux d'analyse nécessaires dans un bureau de directeur financier
- Analyse des risques sur les nouveaux investissements
- Prévisions de revenus, de bénéfices
- Prévision d’acquisition de nouveaux clients
- Prévision des pertes
- Analyse de fraude financière (détails prochaine session)
Jour 4 : Session 1 : BI sur la prévention de la fraude de Big Data dans l'analyse Telco-Fraud :
- Fuite de bande passante / Fraude à la bande passante
- Fraude des fournisseurs/facturation excessive des projets
- Fraudes aux remboursements/réclamations des clients
- Fraudes au remboursement des voyages
Jour 4 : Session 2 : De la prédiction du désabonnement à la prévention du désabonnement :
- 3 types de désabonnement : actif/délibéré, rotationnel/accessoire, passif involontaire
- 3 classifications des clients désabonnés : Total, Caché, Partiel
- Comprendre les variables CRM pour le taux de désabonnement
- Collecte de données sur le comportement des clients
- Collecte de données sur la perception des clients
- Collecte de données démographiques des clients
- Nettoyage des données CRM
- Données CRM non structurées (appel client, tickets, e-mails) et leur conversion en données structurées pour l'analyse du Churn
- Social Media CRM - nouvelle façon d'extraire l'indice de satisfaction client
- Étude de cas 1 : T-Mobile USA : réduction du taux de désabonnement de 50 %
Jour 4 : Session 3 : Comment utiliser l'analyse prédictive pour analyser les causes profondes de l'insatisfaction des clients :
- Étude de cas -1 : Lier l'insatisfaction aux problèmes – Comptabilité, défaillances techniques telles qu'une interruption de service, un service de bande passante médiocre
- Étude de cas-2 : Big Data Tableau de bord d'assurance qualité pour suivre l'indice de satisfaction client à partir de divers paramètres tels que les escalades d'appels, la criticité des problèmes, les événements d'interruption de service en attente, etc.
Jour-4 : Session-4 : Big Data Tableau de bord pour un accès rapide à diverses données et affichage :
- Intégration de la plateforme d'application existante avec Big Data Dashboard
- Big Data gestion
- Étude de cas de Big Data Tableau de bord : Tableau et Pentaho
- Utilisez l'application Big Data pour diffuser la publicité basée sur la localisation
- Système de suivi et gestion
Jour-5 : Session-1 : Comment justifier Big Data la mise en œuvre de la BI au sein d'une organisation :
- Définir le retour sur investissement pour la mise en œuvre de Big Data
- Études de cas permettant aux analystes de gagner du temps pour la collecte et la préparation des données – augmentation du gain de productivité
- Études de cas sur les gains de revenus liés au désabonnement des clients
- Gain de revenus grâce à la géolocalisation et à d'autres publicités ciblées
- Une approche intégrée de feuille de calcul pour calculer env. dépenses par rapport aux gains/économies de revenus résultant de la mise en œuvre de Big Data.
Jour 5 : Session 2 : Procédure étape par étape pour remplacer le système de données existant par le système Big Data :
- Comprendre la feuille de route pratique Big Data pour la migration
- Quelles sont les informations importantes nécessaires avant de concevoir une implémentation Big Data
- Quelles sont les différentes manières de calculer le volume, la vélocité, la variété et la véracité des données
- Comment estimer la croissance des données
- Études de cas dans 2 Telco
Jour 5 : Sessions 3 et 4 : Examen de Big Data fournisseurs et examen de leurs produits. Séance de questions/réponses :
- AccentureAlcatel-Lucent
- Amazone –A9
- APTEAN (anciennement CDC Software)
- Cisco Systèmes
- Cloudera
- Dell
- CEM
- GoodData Corporation
- Guavus
- Systèmes de données Hitachi
- Hortons
- Huawei
- HP
- IBM
- Informatique
- Intel
- Jaspersoft
- Microsoft
- MongoDB (anciennement 10Gen)
- MU Sigma
- Netapp
- Solutions Opéra
- Oracle
- Pentaho
- Plateforme
- Qliktech
- Quantum
- Espace rackable
- Analyse de la révolution
- Salesforce
- SAP
- SAS Institut
- Sisense
- Software AG/Terre cuite
- Automatisation Soft10
- Splunk
- Sqrl
- Supermicro
- Tableau Logiciel
- Teradata
- Voir grand
- Systèmes de marquage des marées
- VMware (partie d'EMC)
Pré requis
- Doit avoir une connaissance de base des opérations commerciales et des systèmes de données en Telecom dans son domaine .
- Doit avoir une compréhension de base de SQL/Oracle ou des bases de données relationnelles
- Compréhension de base des statistiques (au niveau d'Excel)
35 heures
Nos clients témoignent (3)
All the examples used and the lecturing style was on point even for a begginer i was able to understand and the training was so patient and always willing to go extra mile when in need of assistance.
Mathipa Chepape - Vodacom
Formation - Big Data Business Intelligence for Telecom and Communication Service Providers
All the examples used and the lecturing style was on point even for a begginer i was able to understand and the training was so patient and always willing to go extra mile when in need of assistance.
Mathipa Chepape - Vodacom
Formation - Big Data Business Intelligence for Telecom and Communication Service Providers
Understanding big data beter