L'ajout de cookie est désactivé sur votre navigateur, vous devez l'activer pour pouvoir naviguer sur ce site internet.
UpUp, la 1ère plateforme de mutualisation de formations.

Big Data - Les fondamentaux de l'analyse de données

Formation Big Data, Data, Data Science et IA

Big Data - Les fondamentaux de l'analyse de données

Informatique > Big Data, Data, Data Science et IA

Objectifs

  • Comprendre le rôle stratégique de la gestion des données pour l'entreprise ou l'organisation.
  • Identifier ce qu'est la donnée, et en quoi consiste le fait d'assurer la qualité de données.
  • Synthétiser le cycle de vie de la donnée.
  • Assurer l'alignement des usages métiers avec le cycle de vie de la donnée.
  • Découvrir les bonnes pratiques en matière de contrôle de qualité des données.
  • Assurer la mise en oeuvre de la gouvernance de la donnée.
  • Disposer d'un premier aperçu des possibilités de traitement proposé par MapR et Hadoop.

Le programme de la formation

Avant la session

 

Un quiz de consolidation des pré-requi

 

Les nouvelles frontières du Big Data (Introduction)

 

Immersion
L'approche des 4 Vs
Cas d'usages du Big Data
Technologies
Architecture
Master-less vs Master-Slaves
Stockage
Machine Learning
Data Scientist et Big Data
Compétences
La vision du Gartner
Valeur ajoutée du Big Data en entreprise

 

La collecte des données Big Data

 

Typologie des sources
Les données non structurées
Typologie 3V des sources
Les données ouvertes (Open Data)
Caractéristiques intrinsèques des sources
Nouveau paradigme de l'ETL à l'ELT
Du "schema On Write" au "Schema on Read"
Le concept du Data Lake
La vision d'Hortonworks
Les collecteurs Apache on Hadoop
SQOOP versus NIFI
Apache SQOOP - Présentation
Apache NIFI - Présentation
Les API de réseaux sociaux
Lab : Ingestion de données dans un cluster avec Apache NIFI

 

Le calcul massivement parallèle

 

Genèse et étapes clés
Hadoop : Fonctions coeurs
HDFS - Différenciation
HDFS - Un système distribué
HDFS - Gestion des blocs et réplication
Exemples de commandes de base HDFS
MapReduce : aspects fonctionnels et techniques
Apache PIG et Apache HIVE
Comparatif des 3 approches
Les limitations de MapReduce
L'émergence de systèmes spécialisés
Le moteur d'exécution Apache TEZ
La rupture Apache SPARK
SPARK point clés principaux
SPARK vs Hadoop Performance
L'écosystème SPARK
IMPALA - Moteur d'exécution scalable natif SQL
Le moteur d'exécution Apache TEZ
Hive in Memory : LLAP
Big Deep Learning
La rupture Hardware à venir
Labs : Exemples de manipulations HDFS + HIVE et Benchmark moteurs d'exécutions HIVE

 

Les nouvelles formes de stockage

 

Enjeux
Le "théorème" CAP
Nouveaux standards : ACID => BASE
Les bases de données NoSQL
Panorama des solutions
Positionnement CAP des éditeurs NoSQL
Les bases de données Clé-Valeur
Focus Redis
Les Bases de données Document
Focus mongoDB
Les bases de données colonnes
Focus Cassandra et HBase
Les bases de données Graphes
Tendances 1 : Le NewSQL
Tendances 2 : OLAP distribué
Lab : Exemple d'utilisation d'une base NoSQL (HBASE)

 

Le Big Data Analytics (Partie I - Fondamentaux)

 

Analyse de cas concrets
Définition de l'apprentissage machine
Exemples de tâches (T) du machine learning
Que peuvent apprendre les machines ?
Les différentes expériences (E)
L'apprentissage
Approche fonctionnelle de base
Les variables prédictives
Les variables à prédire
Les fonctions hypothèses
Pléthore d'algorithmes
Choisir un algorithme d'apprentissage machine
Sous et sur-apprentissage
La descente de gradient
Optimisation batch et stochastique
Anatomie d'un modèle d'apprentissage automatique
La chaîne de traitement standard
Composantes clés et Big Data
Trois familles d'outils machine Learning
Les librairies de machine Learning standards et Deep Learning
Les librairies Scalables Big Data
Les plates-formes de Data Science
Lab : Exemples de traitement Machine Learning avec Notebook

 

Le Big Data Analytics (Partie II - L'écosystème SPARK )

 

Les différents modes de travail avec Spark
Les trois systèmes de gestion de cluster
Modes d'écriture des commandes Spark
Les quatre API Langage de Spark
Le machine Learning avec Spark
Spark SQL - Le moteur d'exécution SQL
La création d'une session Spark
Spark Dataframes
Spark ML
L'API pipeline
Travail sur les variables prédictives
La classification et la régression
Clustering et filtrage coopératif
Lab : Exemple d'un traitement machine learning avec Spark

 

Traitement en flux du Big Data (​streaming​ )

 

Architectures types de traitement de Streams Big Data
Apache NIFI - Description, composants et interface
Apache KAFKA - Description, terminologies, les APIs
Articulation NIFI et KAFKA (NIFI ON KAFKA)
Apache STORM - Description, terminologies, langage (agnostique)
Articulation KAFKA et STORM (KAFKA ON STORM)
Apache SPARK Streaming et Structured Streaming
Articulation KAFKA et SPARK
Comparatif STORM / SPARK
Deux cas concrets
Lab : Réalisation d'un traitement Big Data en Streaming (Big Data streaming analytics)

 

Déploiement d'un projet Big Data

 

Qu'est ce que le Cloud Computing
Cinq caractéristiques essentielles
Trois modèles de services
Services Cloud et utilisateurs
Mode SaaS
Mode PaaS
Mode IaaS
Modèles de déploiement
Tendances déploiement
Cloud Privé Virtuel (VPC)
Focus offre de Cloud Public
Caractéristiques communes des différentes offres de Cloud Public
Focus Amazon AWS
Focus Google Cloud Platform
Focus Microsoft Azure
Classement indicatif des acteurs
Points de vigilance
Lab : Visite d'une plate-forme de Cloud

 

Hadoop écosystème et distributions

 

L'écosystème Hadoop
Apache Hadoop - Fonctions coeurs
HDFS - Système de gestion de fichiers distribué (rappel)
Map Reduce : système de traitement distribué (rappel)
L'infrastructure YARN
YARN - Gestion d'une application
Docker on YARN
Les projets Apache principaux et associés
Les architectures types Hadoop
Les distributions Hadoop
Qu'est ce qu'une distribution Hadoop
Les acteurs aujourd'hui
Focus Cloudera
Cloudera Distribution including Apache Hadoop (CDH)
Focus Hortonworks
Hortonworks Platforms HDP et HDF
Nouvelle plate-forme Cloudera
Vision Cloudera
Cloudera Data Platform
Cloudera Data Flow
Lab : Visite d'une distribution Hortonworks dans le Cloud

 

Architectures de traitement Big Data

 

A - Traitement de données par lots (BATCH) : - le batch en Big Data - schéma de fonctionnement - usages types du batch processing - l'orchestrateur Apache OOZIE - les workflows OOZIE - les coordinateurs OOZIE (Coordinators) - limitations de OOZIE => FALCON - points de vigilance
B - Traitement de données en flux (Streaming) : - principes - fonctionnement - rappel : modèles types de traitement de Flux Big Data - points de vigilance
C - Modèles d'architecture de traitements de données Big Data : - objectifs - les composantes d'une architecture Big Data - deux modèles génériques : λ et Κ - architecture Lambda - les 3 couches de l'architecture Lambda - architecture Lambda : schéma de fonctionnement - solutions logicielles Lambda - exemple d'architecture logicielle Lambda - architecture Lambda : les + et les - - architecture Kappa - architecture Kappa : schéma de fonctionnement - solutions logicielles Kappa - architecture Kappa : les + et les -
L'heure du choix
Lab : Analyse architecturale de deux cas de figure

 

La gouvernance des données Big Data

 

Challenges Big Data pour la gouvernance des données
L'écosystème des outils de gouvernance Big Data
Les 3 piliers de la gouvernance Big Data
Mise en perspective dans une architecture Big Data
Management de la qualité des données Big Data
Tests de validation de données dans Hadoop
Les acteurs face à la qualité des données Big Data
Management des métadonnées Big Data
Focus Apache HCatalog
Focus Apache ATLAS
Management de la sécurité, de la conformité et la confidentialité Big Data
Focus Apache RANGER
Tendances sécurisation des SI
Points de vigilance
Lab : Réflexion collective ou individuelle sur des opportunités de projets Big Data dans l'organisation et définition des objectifs et des premiers jalons

 

Après la session

 

Un quiz pédagogique pour évaluer vos acquis et approfondir les sujets de votre choix
Des vidéocasts pour revenir sur les points clés de la formation
Des vidéos-tutos pour vous accompagner dans la mise en oeuvre de vos acquis

Public et Pré-requis de la formation

MOA, chef de projet, urbaniste fonctionnel, responsable de domaine, analystes, développeurs, data miners ... Futurs data scientists, data analysts et data stewards.

 

Si aucune connaissance technique particulière n'est nécessaire, il est toutefois recommandé d'avoir suivi le module "Big Data - Enjeux et perspectives" (BD500) pour suivre cette formation dans des conditions optimales.

Une connaissance de SQL est un plus pour suivre cette formation.

Méthode pédagogique de la formation

Ce séminaire offre un tour d'horizon complet du Big Data.
Une description des principes et écosystèmes associés des systèmes distribués.
Une formation très opérationnelle durant laquelle s'alternent les phases d'apports théoriques, d'échanges, de partage d'expériences.
Illustration par des démonstrations des différents logiciels clés sur des cas concrets.
Les retours d'expérience et conseils de consultants experts.

29 Commentaires