A l’issue de la formation, le participant sera capable de :
Comprendre le rôle stratégique de la gestion des données pour l’entreprise ou l’organisation
- BDD & Décisionnel
- Décisionnel
Formation BIG DATA Les Fondamentaux
Objectifs
Identifier ce qu’est la donnée, et en quoi consiste le fait d’assurer la qualité de données
Synthétiser le cycle de vie de la donnée
Assurer l’alignement des usages métiers avec le cycle de vie de la donnée
Découvrir les bonnes pratiques en matière de contrôle de qualité des données
Assurer la mise en oeuvre de la gouvernance de la donnée
Disposer d’un premier aperçu des possibilités de traitement proposé par MapR et Hadoop
Prérequis
Une connaissance de SQL est un plus pour suivre cette formation
Cette formation ne peut être financée que dans le cadre d’un projet d’entreprise (prise en charge entreprise ou OPCO). Les dossiers à financement personnel et CPF ne sont pas pris en compte.
Public
MOA, chef de projet, urbaniste fonctionnel, responsable de domaine, analystes, développeurs, data miners …
Futurs data scientists, data analysts et data stewards
Dernière mise à jour
Programme mis à jour le 31 janvier 2024
Bon à savoir
Evaluez votre niveau
Pour vous aider à bien choisir votre formation, nous vous proposons soit un entretien avec le formateur soit un test d’évaluation. Cela vous assurera que vous disposez des connaissances nécessaires pour suivre la formation dans des conditions optimales.
Formations modulables
Toutes nos formations sont disponibles en présentiel comme en distanciel, en mode coaching individuel ou en groupe de 3 à 6 participants maximum.
Travaux pratiques
Nos formations comprennent de nombreux travaux pratiques pour un meilleur apprentissage (60 % de pratique). Nous proposons également de travailler sur vos données pour une meilleure expérience.
Les Modules
de formation
Module1
Les nouvelles frontières du Big Data (Introduction)
Immersion
L’approche des 4 Vs
Cas d’usages du Big Data
Technologies
Architecture
Master-less vs Master-Slaves
Stockage
Machine Learning
Data Scientist et Big Data
Compétences
La vision du Gartner
Valeur ajoutée du Big Data en entreprise
Module2
La collecte des données Big Data
Typologie des sources
Les données non structurées
Typologie 3V des sources
Les données ouvertes (Open Data)
Caractéristiques intrinsèques des sources
Nouveau paradigme de l’ETL à l’ELT
Du “schema On Write” au “Schema on Read”
Le concept du Data Lake
La vision d’Hortonworks
Les collecteurs Apache on Hadoop
SQOOP versus NIFI
Apache SQOOP – Présentation
Apache NIFI – Présentation
Les API de réseaux sociaux
Lab : Ingestion de données dans un cluster avec Apache NIFI
Module3
Le calcul massivement parallèle
Genèse et étapes clés
Hadoop : Fonctions coeurs
HDFS – Différenciation
HDFS – Un système distribué
HDFS – Gestion des blocs et réplication
Exemples de commandes de base HDFS
MapReduce : aspects fonctionnels et techniques
Apache PIG et Apache HIVE
Comparatif des 3 approches
Les limitations de MapReduce
L’émergence de systèmes spécialisés
Le moteur d’exécution Apache TEZ
La rupture Apache SPARK
SPARK point clés principaux
SPARK vs Hadoop Performance
L’écosystème SPARK
IMPALA – Moteur d’exécution scalable natif SQL
Le moteur d’exécution Apache TEZ
Hive in Memory : LLAP
Big Deep Learning
La rupture Hardware à venir
Labs : Exemples de manipulations HDFS + HIVE et Benchmark moteurs d’exécutions HIVE
Module4
Les nouvelles formes de stockage
Enjeux
Le “théorème” CAP
Nouveaux standards : ACID => BASE
Les bases de données NoSQL
Panorama des solutions
Positionnement CAP des éditeurs NoSQL
Les bases de données Clé-Valeur
Focus Redis
Les Bases de données Document
Focus mongoDB
Les bases de données colonnes
Focus Cassandra et HBase
Les bases de données Graphes
Tendances 1 : Le NewSQL
Tendances 2 : OLAP distribué
Lab : Exemple d’utilisation d’une base NoSQL (HBASE)
Module5
Le Big Data Analytics (Partie I - Fondamentaux)
Analyse de cas concrets
Définition de l’apprentissage machine
Exemples de tâches (T) du machine learning
Que peuvent apprendre les machines ?
Les différentes expériences (E)
L’apprentissage
Approche fonctionnelle de base
Les variables prédictives
Les variables à prédire
Les fonctions hypothèses
Pléthore d’algorithmes
Choisir un algorithme d’apprentissage machine
Sous et sur-apprentissage
La descente de gradient
Optimisation batch et stochastique
Anatomie d’un modèle d’apprentissage automatique
La chaîne de traitement standard
Composantes clés et Big Data
Trois familles d’outils machine Learning
Les librairies de machine Learning standards et Deep Learning
Les librairies Scalables Big Data
Les plates-formes de Data Science
Lab : Exemples de traitement Machine Learning avec Notebook
Module6
6 - Le Big Data Analytics (Partie II - L'écosystème SPARK )
Les différents modes de travail avec Spark
Les trois systèmes de gestion de cluster
Modes d’écriture des commandes Spark
Les quatre API Langage de Spark
Le machine Learning avec Spark
Spark SQL – Le moteur d’exécution SQL
La création d’une session Spark
Spark Dataframes
Spark ML
L’API pipeline
Travail sur les variables prédictives
La classification et la régression
Clustering et filtrage coopératif
Lab : Exemple d’un traitement machine learning avec Spark
Module7
Traitement en flux du Big Data (streaming )
Architectures types de traitement de Streams Big Data
Apache NIFI – Description, composants et interface
Apache KAFKA – Description, terminologies, les APIs
Articulation NIFI et KAFKA (NIFI ON KAFKA)
Apache STORM – Description, terminologies, langage (agnostique)
Articulation KAFKA et STORM (KAFKA ON STORM)
Apache SPARK Streaming et Structured Streaming
Articulation KAFKA et SPARK
Comparatif STORM / SPARK
Deux cas concrets
Lab : Réalisation d’un traitement Big Data en Streaming (Big Data streaming analytics)
Module8
Déploiement d'un projet Big Data
Qu’est ce que le Cloud Computing
Cinq caractéristiques essentielles
Trois modèles de services
Services Cloud et utilisateurs
Mode SaaS
Mode PaaS
Mode IaaS
Modèles de déploiement
Tendances déploiement
Cloud Privé Virtuel (VPC)
Focus offre de Cloud Public
Caractéristiques communes des différentes offres de Cloud Public
Focus Amazon AWS
Focus Google Cloud Platform
Focus Microsoft Azure
Classement indicatif des acteurs
Points de vigilance
Lab : Visite d’une plate-forme de Cloud
Module9
Hadoop écosystème et distributions
L’écosystème Hadoop
Apache Hadoop – Fonctions coeurs
HDFS – Système de gestion de fichiers distribué (rappel)
Map Reduce : système de traitement distribué (rappel)
L’infrastructure YARN
YARN – Gestion d’une application
Docker on YARN
Les projets Apache principaux et associés
Les architectures types Hadoop
Les distributions Hadoop
Qu’est ce qu’une distribution Hadoop
Les acteurs aujourd’hui
Focus Cloudera
Cloudera Distribution including Apache Hadoop (CDH)
Focus Hortonworks
Hortonworks Platforms HDP et HDF
Nouvelle plate-forme Cloudera
Vision Cloudera
Cloudera Data Platform
Cloudera Data Flow
Lab : Visite d’une distribution Hortonworks dans le Cloud
Module10
Architectures de traitement Big Data
A – Traitement de données par lots (BATCH) : – le batch en Big Data – schéma de fonctionnement – usages types du
batch processing – l’orchestrateur Apache OOZIE – les workflows OOZIE – les coordinateurs OOZIE (Coordinators) –
limitations de OOZIE => FALCON – points de vigilance
B – Traitement de données en flux (Streaming) : – principes – fonctionnement – rappel : modèles types de
traitement de Flux Big Data – points de vigilance
C – Modèles d’architecture de traitements de données Big Data : – objectifs – les composantes d’une architecture
Big Data – deux modèles génériques : λ et Κ – architecture Lambda – les 3 couches de l’architecture Lambda –
architecture Lambda : schéma de fonctionnement – solutions logicielles Lambda – exemple d’architecture logicielle
Lambda – architecture Lambda : les + et les – – architecture Kappa – architecture Kappa : schéma de
fonctionnement – solutions logicielles Kappa – architecture Kappa : les + et les –
L’heure du choix
Lab : Analyse architecturale de deux cas de figure
Module11
La gouvernance des données Big Data
Challenges Big Data pour la gouvernance des données
L’écosystème des outils de gouvernance Big Data
Les 3 piliers de la gouvernance Big Data
Mise en perspective dans une architecture Big Data
Management de la qualité des données Big Data
Tests de validation de données dans Hadoop
Les acteurs face à la qualité des données Big Data
Management des métadonnées Big Data
Focus Apache HCatalog
Focus Apache ATLAS
Management de la sécurité, de la conformité et la confidentialité Big Data
Focus Apache RANGER
Tendances sécurisation des SI
Points de vigilance
Lab : Réflexion collective ou individuelle sur des opportunités de projets Big Data dans l’organisation et définition
des objectifs et des premiers jalons
Les prochaines
sessions de formation
Sur demande
Vous souhaitez organiser cette formation à une date spécifique ?Contactez-nous en remplissant le formulaire ci-dessous
28 octobre 2024
23 décembre 2024
24 février 2025
22 avril 2025