03 20 61 95 06

Formation Bien démarrer avec Microsoft Fabric


  • ms-fabric
  • Durée : 5 jours
  • Tarif : 3490 € HT

97%

Taux de satisfaction clients
(sur 1823 évaluations du 19/05/21 au 24/11/25)

Voir les avis

Objectifs

A l’issue de la formation le participant sera capable de:
comprendre l’architecture et les composants de Microsoft Fabric (Lakehouse, Data Warehouse, Data Factory, Real‑Time Intelligence, Data Activator),
construire des flux de données, transformer des données, déployer via CI/CD et réaliser un projet complet de bout en bout.

Prérequis

Des notions de base en traitement de données ou BI, familiarité avec SQL ou notebook est un plus.
Un entretien en amont avec notre expert permet de prendre en compte le profil de chaque participant (niveau, objectifs et résultats attendus, contexte professionnel, enjeux…) et d’adapter le contenu de la formation si besoin.

Public

Data analysts, ingénieurs data, architectes BI, ou toute personne souhaitant se lancer dans les projets de données avec Microsoft Fabric.

Dernière mise à jour

Programme mis à jour le 09 octobre 2025
enveloppe Cette formation vous intéresse ? Contactez-nous

Bon à savoir

Evaluez votre niveau

Pour vous aider à bien choisir votre formation, nous vous proposons soit un entretien avec le formateur soit un test d’évaluation. Cela vous assurera que vous disposez des connaissances nécessaires pour suivre la formation dans des conditions optimales.

Sessions garanties

La majorité de nos sessions proposées en distanciel sont garanties. Elles peuvent être enregistrées à la demande.

Travaux pratiques

Nos formations comprennent de nombreux travaux pratiques pour un meilleur apprentissage (60 % de pratique). Nous proposons également de travailler sur vos données pour une meilleure expérience.
modules

Les Modules
de formation

Module1
Jour 1 – Découvrir Microsoft Fabric et comprendre ses fondations

Module 1 – Bien démarrer avec Microsoft Fabric

Introduction à l’analytique de bout en bout à l’aide de Microsoft Fabric
● Comprendre la vision analytique unifiée de Microsoft Fabric
● Explorer le concept de plateforme « tout-en-un » pour la donnée
● Découvrir les composants principaux : Lakehouse, Data Warehouse, Data Factory, Real-Time Intelligence, Data Activator
Équipes de données et Microsoft Fabric
● Identifier les rôles dans un projet Fabric (ingénieur, analyste, data scientist)
● Collaboration dans les espaces de travail
Activer et utiliser Microsoft Fabric
● Activation et navigation dans Microsoft Fabric depuis Power BI Service
● Création d’un espace de travail Fabric
● Comprendre les licences et capacités
Bien démarrer avec les Lakehouses dans Microsoft Fabric
● Introduction au concept de Lakehouse
● Comparaison avec Data Lake et entrepôt de données
● Structure et composants : fichiers, tables, notebooks, pipelines
Explorer le Lakehouse Microsoft Fabric
● Découverte de l’interface du Lakehouse
● Ingestion simple d’un fi chier (CSV/Excel)
● Visualisation des données importées
Exercice – Créer et ingérer des données avec un Lakehouse Microsoft Fabric
● Créer un Lakehouse
● Charger des données locales
● Explorer les données via l’interface
Module2
Jour 2 – Manipuler et transformer des données avec Spark

Module 2 – Utiliser Apache Spark dans Microsoft Fabric

Se préparer à l’utilisation d’Apache Spark
● Comprendre le rôle de Spark dans Fabric
● Découvrir les notebooks Spark : cellules, exécution, résultats
● Comprendre l’intérêt du traitement distribué
Exécuter du code Spark (sans Python requis)
● Manipuler des données via l’interface graphique
● Introduction simplifiée aux DataFrames (concept et structure tabulaire)
Utiliser des données dans un DataFrame Spark
● Charger un fichier dans un DataFrame
● Effectuer des opérations simples : filtrer, regrouper, agréger
Utiliser des données à l’aide de Spark SQL
● Comprendre Spark SQL
● Écrire des requêtes SQL pour transformer les données
● Créer des vues temporaires
Visualiser des données dans un notebook Spark
● Créer des visualisations simples (barres, lignes, histogrammes)
Exercice – Analyser des données avec Apache Spark
● Charger des données dans un notebook
● Réaliser quelques requêtes Spark SQL
● Générer une visualisation de base
Module3
Jour 3 – Travailler avec Delta Lake et orchestrer les flux de données

Comprendre Delta Lake

● Présentation du format Delta et de ses avantages
● Gestion des versions et transactions ACID
Créer et manipuler des tables Delta
● Créer une table Delta depuis un DataFrame ou Spark SQL
● Lire et mettre à jour des données
Survol – Streaming avec Delta Lake
● Introduction conceptuelle (sans pratique)
Exercice – Utiliser des tables Delta dans Apache Spark
● Créer une table Delta
● Interroger les données via Spark SQL
Module 4 – Utiliser des pipelines Data Factory dans Microsoft Fabric
Comprendre les pipelines
● Présentation du service Data Factory dans Fabric
● Notions : pipeline, activité, connecteur, exécution
Utiliser l’activité Copier des données
● Copier des données depuis une source (CSV, base SQL, API, etc.)
● Définir les paramètres source et destination
Utiliser des modèles de pipeline
● Découvrir les modèles prédéfinis pour ingestion rapide
Exécuter et superviser des pipelines
● Lancer un pipeline
● Suivre les exécutions et logs
Exercice – Ingérer des données avec un pipeline
● Créer un pipeline simple
● Copier des données dans un Lakehouse
● Vérifier le résultat dans le workspace
Module4
Jour 4 – Construire un entrepôt de données et découvrir les usages temps réel

Module 5 – Implémenter un entrepôt de données avec Microsoft Fabric

Comprendre les principes de base d’un entrepôt de données
● Notions de tables de faits et de dimensions
● Rôle du Data Warehouse dans Fabric
Comprendre les entrepôts de données dans Fabric
● Création et exploration d’un entrepôt de données
● Tables, vues et schémas
Interroger et transformer des données
● Utiliser l’éditeur SQL intégré
● Requêtes analytiques simples
Sécuriser et monitorer un entrepôt de données
● Découverte du masquage dynamique des données
● Sécurité au niveau des lignes et colonnes
Exercice – Analyser et sécuriser des données dans un entrepôt
● Créer un entrepôt Fabric
● Charger des données et exécuter des requêtes
● Appliquer une règle de sécurité simple
Module 6 – Bien démarrer avec Real-Time Intelligence et Data Activator
Décrire Real-Time Intelligence de Microsoft Fabric
● Comprendre le traitement temps réel
● Présentation du hub temps réel
Comprendre les tables et requêtes KQL
● Découverte du langage Kusto (KQL)
● Écrire quelques requêtes simples sur des données simulées
Comprendre Data Activator
● Principe des déclencheurs, conditions et actions
● Cas d’usage : surveillance et automatisation
Exercice : utiliser Data Activator dans Fabric
● Créer un déclencheur sur une source de données
● Définir une action automatique
Module5
Jour 5 – Automatiser et déployer avec Azure DevOps + projet fi nal
Module 7 – Intégrer le CI/CD avec Azure DevOps
Comprendre le besoin de CI/CD dans Fabric
● Importance de l’automatisation et du versionnement
● Intégration continue et déploiement continu (principes de base)
Introduction à Azure DevOps
● Présentation des services : Repos, Pipelines, Boards, Artifacts
● Créer un projet Azure DevOps
Connecter Fabric à Azure DevOps
● Gérer le code source des notebooks, pipelines et entrepôts
● Déployer automatiquement les artefacts Fabric
Mettre en place un pipeline CI/CD simple
● Créer un pipeline YAML
● Exécuter un déploiement Fabric automatisé
Exercice : Automatiser un déploiement Fabric avec Azure DevOps
● Créer un pipeline d’intégration continue
● Déployer une mise à jour de Lakehouse
Module 8 – Atelier de synthèse (Projet de fin de formation)
Objectif :
Mettre en oeuvre l’ensemble du parcours de bout en bout.
Étapes :
1. Créer un Lakehouse et ingérer un jeu de données réel
2. Transformer et stocker les données dans Delta Lake
3. Orchestrer le chargement avec un pipeline Data Factory
4. Déployer automatiquement avec Azure DevOps
5. Tester la supervision avec Data Activator
Présentation finale :
Chaque participant présente son mini-projet Fabric.

Les prochaines
sessions de formation

Sur demande
Vous souhaitez organiser cette formation à une date spécifique ?Contactez-nous en remplissant le formulaire ci-dessous
01 décembre 2025
08 décembre 2025
02 février 2026
30 mars 2026

Cette formation vous intéresse ? Contactez-nous !

    Les données personnelles collectées sont destinées à Access IT Company et utilisées pour traiter votre demande et, lorsque vous ne vous y êtes pas opposé, vous communiquer nos offres commerciales. Les données obligatoires vous sont signalées sur le formulaire par un astérisque. L’accès aux données est strictement limité par Access IT Company aux collaborateurs en charge du traitement de votre demande. Conformément au Règlement européen n°2016/679/UE du 27 avril 2016 sur la protection des données personnelles et à la loi « informatique et libertés » du 6 janvier 1978 modifiée, vous bénéficiez d’un droit d’accès, de rectification, d’effacement, de portabilité et de limitation du traitement des donnés vous concernant ainsi que du droit de communiquer des directives sur le sort de vos données après votre mort. Vous avez également la possibilité de vous opposer au traitement des données vous concernant. Vous pouvez exercer vos droits en contactant le DPO à l’adresse suivante : dpo@access-it.fr ou à l’adresse postale suivante 2, Allée Lavoisier, 59650 Villeneuve d’Ascq. Pour plus d’informations sur le traitement de vos données personnelles par Access IT Company, veuillez consulter notre politique de confidentialité disponible sur notre site internet à l’adresse suivante : https://formation.access-it.fr/politique-de-confidentialite/