Plan du cours

Répartition des sujets sur une base quotidienne : (Chaque session dure 2 heures)

Jour 1 : Session -1 : Business Aperçu du pourquoi Big Data Business Intelligence dans les télécommunications.

  • Études de cas de T-Mobile, Verizon, etc.
  • Big Data taux d'adaptation des sociétés de télécommunications nord-américaines et comment elles alignent leur futur modèle commercial et leurs opérations autour de Big Data BI
  • Domaine d'application à grande échelle
  • Gestion du réseau et des services
  • Désabonnement des clients Management
  • Data Integration & Visualisation du tableau de bord
  • Gestion de la fraude
  • Business Génération de règles
  • Profilage des clients
  • Diffusion d'annonces localisées

Jour-1 : Session-2 : Introduction de Big Data-1

  • Principales caractéristiques de Big Data-volume, variété, vélocité et véracité. Architecture MPP pour le volume.
  • Data Warehouses – schéma statique, ensemble de données évoluant lentement
  • MPP Database comme Greenplum, Exadata, Teradata, Netezza, Vertica etc.
  • Hadoop Solutions basées – aucune condition sur la structure de l’ensemble de données.
  • Modèle typique : HDFS, MapReduce (crunch), récupération depuis HDFS
  • Lot adapté aux applications analytiques/non interactives
  • Volume : données en streaming CEP
  • Choix typiques – produits CEP (par exemple Infostreams, Apama, MarkLogic, etc.)
  • Moins prêt pour la production – Storm/S4
  • NoSQL Databases – (colonne et valeur-clé) : Idéal comme complément analytique à l'entrepôt de données/base de données

Jour-1 : Session -3 : Introduction à Big Data-2

NoSQL solutions

  • Magasin KV - Keyspace, Flare, SchemaFree, RAMCloud, Oracle NoSQL Database (OnDB)
  • Magasin KV - Dynamo, Voldemort, Dynomite, SubRecord, Mo8onDb, DovetailDB
  • Magasin KV (hiérarchique) - GT.m, Cache
  • KV Store (commandé) - TokyoTyrant, Lightcloud, NMDB, Luxio, MemcacheDB, Actord
  • Cache KV - Memcached, Repcached, Coherence, Infinispan, EXtremeScale, JBossCache, Velocity, Terracoqua
  • Tuple Store - Gigaspaces, Coord, Apache River
  • Objet Database - ZopeDB, DB40, Shoal
  • Magasin de documents - CouchDB, Cloudant, Couchbase, MongoDB, Jackrabbit, XML-Databases, ThruDB, CloudKit, Prsevere, Riak-Basho, Scalaris
  • Large magasin en colonnes - BigTable, HBase, Apache Cassandra, Hypertable, KAI, OpenNeptune, Qbase, KDI

Variétés de données : introduction au problème Data Cleaning dans Big Data

  • SGBDR – structure/schéma statique, ne favorise pas un environnement agile et exploratoire.
  • NoSQL – semi-structuré, suffisamment structuré pour stocker des données sans schéma exact avant de stocker les données
  • Problèmes de nettoyage des données

Jour-1 : Session-4 : Big Data Introduction-3 : Hadoop

  • Quand sélectionner Hadoop ?
  • STRUCTURÉ – Les entrepôts de données/bases de données d'entreprise peuvent stocker des données massives (à un coût) mais imposer une structure (pas bon pour l'exploration active)
  • Données SEMI-STRUCTURÉES – difficiles à réaliser avec des solutions traditionnelles (DW/DB)
  • Données d'entreposage = effort ÉNORME et statique même après la mise en œuvre
  • Pour la variété et le volume de données, basés sur du matériel standard – HADOOP
  • Produits matériels et matériels nécessaires pour créer un Hadoop cluster

Introduction à Map Réduire /HDFS

  • MapReduce – répartissez l'informatique sur plusieurs serveurs
  • HDFS – rendre les données disponibles localement pour le processus informatique (avec redondance)
  • Données – peuvent être non structurées/sans schéma (contrairement au SGBDR)
  • Responsabilité du développeur de donner un sens aux données
  • Programming MapReduce = travailler avec Java (avantages/inconvénients), chargement manuel des données dans HDFS

Jour 2 : Session-1.1 : Spark : Base de données distribuée en mémoire

  • Qu’est-ce que le traitement « En mémoire » ?
  • Étincelle SQL
  • SDK Spark
  • API Spark
  • RDD
  • Libération d'étincelles
  • Hanna
  • Comment migrer un système Hadoop existant vers Spark

Session Jour 2 -1.2 : Tempête -Traitement en temps réel dans Big Data

  • Ruisseaux
  • Choux
  • Boulons
  • Topologies

Jour 2 : Session 2 : Big Data Management Système

  • Pièces mobiles, démarrage/échec des nœuds de calcul :ZooKeeper - Pour les services de configuration/coordination/naming
  • Pipeline/workflow complexe : Oozie – gérer le workflow, les dépendances et la connexion en série
  • Déployer, configurer, gestion de cluster, mise à niveau, etc. (administrateur système) :Ambari
  • Dans le Cloud : Whirr
  • Outils de plateforme évolutifs Big Data pour le suivi
  • Problèmes d'application de la couche ETL

Jour-2 : Session-3 : Analyse prédictive dans Business Intelligence -1 : Techniques fondamentales et BI basée sur l'apprentissage automatique :

  • Introduction à l'apprentissage automatique
  • Apprentissage des techniques de classification
  • Fichier de formation pour la préparation de la prédiction bayésienne
  • Champ aléatoire de Markov
  • Apprentissage supervisé et non supervisé
  • Extraction de caractéristiques
  • Machine à vecteurs de support
  • Réseau neuronal
  • Apprentissage par renforcement
  • Big Data problème de grandes variables - Forêt aléatoire (RF)
  • Apprentissage de la représentation
  • L'apprentissage en profondeur
  • Big Data Problème d’automatisation – RF d’ensemble multimodèle
  • Automatisation via Soft10-M
  • LDA et modélisation thématique
  • Agile apprentissage
  • Apprentissage basé sur les agents – Exemple tiré d'une opération de télécommunication
  • Apprentissage distribué – Exemple tiré d'une opération de télécommunication
  • Introduction aux outils Open source pour l'analyse prédictive : R, Rapidminer, Mahut
  • Laboratoire d'analyseApache Hama, Spark et CMU Graph plus évolutif

Jour 2 : Session 4 Écosystème d'analyse prédictive-2 : Problèmes d'analyse prédictive courants dans Telecom

  • Analyse d'informations
  • Analyse de visualisation
  • Analyse prédictive structurée
  • Analyse prédictive non structurée
  • Profilage des clients
  • Moteur de recommandation
  • Détection de modèles
  • Découverte de règles/scénarios – échec, fraude, optimisation
  • Découverte des causes profondes
  • Analyse des sentiments
  • Analyse CRM
  • Analyse de réseau
  • Analyse de texte
  • Examen assisté par la technologie
  • Analyse de fraude
  • Analyse en temps réel

Jour 3 : Session-1 : Analyse de l'exploitation du réseau - analyse des causes profondes des pannes de réseau, interruption de service à partir des métadonnées, IPDR et CRM :

  • L'utilisation du processeur
  • Utilisation de la mémoire
  • Utilisation de la file d'attente QoS
  • Température de l'appareil
  • Erreur d'interface
  • Versions iOS
  • Événements de routage
  • Variations de latence
  • Analyse Syslog
  • Perte de paquets
  • Simulation de charge
  • Inférence de topologie
  • Seuil de performances
  • Pièges de périphérique
  • Collecte et traitement IPDR (enregistrement détaillé IP)
  • Utilisation des données IPDR pour la consommation de bande passante de l'abonné, l'utilisation de l'interface réseau, l'état du modem et le diagnostic
  • Informations sur les HFC

Jour 3 : Session 2 : Outils d'analyse des défaillances des services réseau :

  • Tableau de bord récapitulatif du réseau : surveillez les déploiements réseau globaux et suivez les indicateurs de performance clés de votre organisation
  • Tableau de bord d'analyse des périodes de pointe : comprenez les tendances des applications et des abonnés qui génèrent les pics d'utilisation, avec une granularité spécifique à l'emplacement.
  • Tableau de bord d'efficacité du routage : contrôlez les coûts du réseau et élaborez des analyses de rentabilisation pour les projets d'investissement avec une compréhension complète des relations d'interconnexion et de transit.
  • Tableau de bord de divertissement en temps réel : accédez aux mesures importantes, notamment les vues vidéo, la durée et la qualité de l'expérience vidéo (QoE).
  • Tableau de bord de transition IPv6 : étudiez l'adoption continue d'IPv6 sur votre réseau et obtenez un aperçu des applications et des appareils qui déterminent les tendances.
  • Étude de cas 1 : mineur de données Alcatel-Lucent Big Network Analytics (BNA)
  • Intelligence mobile multidimensionnelle (m.IQ6)

Jour 3 : Session 3 : Big Data BI pour Marketing/Sales – Comprendre les ventes/marketing à partir des données de ventes : (Tous seront présentés avec une démo d'analyse prédictive en direct)

  • Pour identifier les clients les plus rapides
  • Identifier les clients pour un produit donné
  • Pour identifier le bon ensemble de produits pour un client (moteur de recommandation)
  • Technique de segmentation du marché
  • Technique de vente croisée et de vente incitative
  • Technique de segmentation des clients
  • Technique de prévision du chiffre d'affaires

Jour 3 : Séance 4 : BI nécessaire pour le bureau du directeur financier des télécommunications :

  • Aperçu des Business travaux d'analyse nécessaires dans un bureau de directeur financier
  • Analyse des risques sur les nouveaux investissements
  • Prévisions de revenus, de bénéfices
  • Prévision d’acquisition de nouveaux clients
  • Prévision des pertes
  • Analyse de fraude financière (détails prochaine session)

Jour 4 : Session 1 : BI sur la prévention de la fraude de Big Data dans l'analyse Telco-Fraud :

  • Fuite de bande passante / Fraude à la bande passante
  • Fraude des fournisseurs/facturation excessive des projets
  • Fraudes aux remboursements/réclamations des clients
  • Fraudes au remboursement des voyages

Jour 4 : Session 2 : De la prédiction du désabonnement à la prévention du désabonnement :

  • 3 types de désabonnement : actif/délibéré, rotationnel/accessoire, passif involontaire
  • 3 classifications des clients désabonnés : Total, Caché, Partiel
  • Comprendre les variables CRM pour le taux de désabonnement
  • Collecte de données sur le comportement des clients
  • Collecte de données sur la perception des clients
  • Collecte de données démographiques des clients
  • Nettoyage des données CRM
  • Données CRM non structurées (appel client, tickets, e-mails) et leur conversion en données structurées pour l'analyse du Churn
  • Social Media CRM - nouvelle façon d'extraire l'indice de satisfaction client
  • Étude de cas 1 : T-Mobile USA : réduction du taux de désabonnement de 50 %

Jour 4 : Session 3 : Comment utiliser l'analyse prédictive pour analyser les causes profondes de l'insatisfaction des clients :

  • Étude de cas -1 : Lier l'insatisfaction aux problèmes – Comptabilité, défaillances techniques telles qu'une interruption de service, un service de bande passante médiocre
  • Étude de cas-2 : Big Data Tableau de bord d'assurance qualité pour suivre l'indice de satisfaction client à partir de divers paramètres tels que les escalades d'appels, la criticité des problèmes, les événements d'interruption de service en attente, etc.

Jour-4 : Session-4 : Big Data Tableau de bord pour un accès rapide à diverses données et affichage :

  • Intégration de la plateforme d'application existante avec Big Data Dashboard
  • Big Data gestion
  • Étude de cas de Big Data Tableau de bord : Tableau et Pentaho
  • Utilisez l'application Big Data pour diffuser la publicité basée sur la localisation
  • Système de suivi et gestion

Jour-5 : Session-1 : Comment justifier Big Data la mise en œuvre de la BI au sein d'une organisation :

  • Définir le retour sur investissement pour la mise en œuvre de Big Data
  • Études de cas permettant aux analystes de gagner du temps pour la collecte et la préparation des données – augmentation du gain de productivité
  • Études de cas sur les gains de revenus liés au désabonnement des clients
  • Gain de revenus grâce à la géolocalisation et à d'autres publicités ciblées
  • Une approche intégrée de feuille de calcul pour calculer env. dépenses par rapport aux gains/économies de revenus résultant de la mise en œuvre de Big Data.

Jour 5 : Session 2 : Procédure étape par étape pour remplacer le système de données existant par le système Big Data :

  • Comprendre la feuille de route pratique Big Data pour la migration
  • Quelles sont les informations importantes nécessaires avant de concevoir une implémentation Big Data
  • Quelles sont les différentes manières de calculer le volume, la vélocité, la variété et la véracité des données
  • Comment estimer la croissance des données
  • Études de cas dans 2 Telco

Jour 5 : Sessions 3 et 4 : Examen de Big Data fournisseurs et examen de leurs produits. Séance de questions/réponses :

  • AccentureAlcatel-Lucent
  • Amazone –A9
  • APTEAN (anciennement CDC Software)
  • Cisco Systèmes
  • Cloudera
  • Dell
  • CEM
  • GoodData Corporation
  • Guavus
  • Systèmes de données Hitachi
  • Hortons
  • Huawei
  • HP
  • IBM
  • Informatique
  • Intel
  • Jaspersoft
  • Microsoft
  • MongoDB (anciennement 10Gen)
  • MU Sigma
  • Netapp
  • Solutions Opéra
  • Oracle
  • Pentaho
  • Plateforme
  • Qliktech
  • Quantum
  • Espace rackable
  • Analyse de la révolution
  • Salesforce
  • SAP
  • SAS Institut
  • Sisense
  • Software AG/Terre cuite
  • Automatisation Soft10
  • Splunk
  • Sqrl
  • Supermicro
  • Tableau Logiciel
  • Teradata
  • Voir grand
  • Systèmes de marquage des marées
  • VMware (partie d'EMC)

Pré requis

  • Doit avoir une connaissance de base des opérations commerciales et des systèmes de données en Telecom dans son domaine
  • .
  • Doit avoir une compréhension de base de SQL/Oracle ou des bases de données relationnelles
  • Compréhension de base des statistiques (au niveau d'Excel)
  35 heures
 

Nombre de participants


Début

Fin


Dates are subject to availability and take place between 09:30 and 16:30.

Prix par participant

Nos Clients témoignent (3)

Cours Similaires

Catégories Similaires