Formation Microsoft Azure : Ingénierie de données (DP-203)

Éligible CPF LiveOnLine Certifiant
  • Référence : MSDP203
  • Durée : 4 jours (28 heures)
  • Certification : DP-203
  • Eligible CPF : Oui
  • Logo Msf Learning

CONNAISSANCES PREALABLES

  • Avoir suivi les formations MSAZ900B - Azure : Introduction pour les professionnels de l'informatique et MSDP900 - Azure : Principes fondamentaux sur les données ou avoir une connaissance du cloud computing et des concepts de base des données et avoir une expérience pratique avec des solutions de données

PROFIL DES STAGIAIRES

  • 1-Professionnels des données, architectes de données et professionnels BI qui souhaitent en savoir plus sur l'ingénierie des données et la création de solutions analytiques à l'aide des technologies de plate-forme de données existantes sur Microsoft Azure
  • 2-Analystes de données et data scientists qui travaillent avec des solutions analytiques basées sur Microsoft Azure

OBJECTIFS

  • Savoir explorer les options de calcul et de stockage pour les charges de travail d'ingénierie des données dans Azure
  • Être capable de concevoir et mettre en oeuvre la couche de diffusion
  • Pouvoir comprendre les considérations d'ingénierie des données
  • Apprendre à exécuter des requêtes interactives à l'aide de pools SQL sans serveur
  • Comprendre comment explorer, transformer et charger des données dans l'entrepôt de données à l'aide d'Apache Spark
  • Effectuer l'exploration et la transformation des données dans Azure Databricks
  • Pouvoir intégrer et charger des données dans l'entrepôt de données
  • Être capable de transformer les données avec Azure Data Factory ou Azure Synapse Pipelines
  • Apprendre à intégrer les données des blocs-notes avec Azure Data Factory ou Azure Synapse Pipelines
  • Pouvoir optimiser les performances des requêtes avec des pools SQL dédiés dans Azure Synapse
  • Comprendre comment analyser et optimiser le stockage de l'entrepôt de données
  • Pouvoir prendre en charge le traitement analytique transactionnel hybride (HTAP) avec Azure Synapse Link
  • Savoir réaliser une sécurité de bout en bout avec Azure Synapse Analytics
  • Être capable d'effectuer un traitement de flux en temps réel avec Stream Analytics
  • Apprendre à créer une solution de traitement de flux avec Event Hubs et Azure Databricks
  • Comprendre comment créer des rapports à l'aide de l'intégration de Power BI avec Azure Synpase Analytics
  • Pouvoir effectuer des processus d'apprentissage automatique intégrés dans Azure Synapse Analytics

METHODES PEDAGOGIQUES

  • 6 à 12 personnes maximum par cours, 1 poste de travail par stagiaire
  • Remise d’une documentation pédagogique papier ou numérique pendant le stage
  • La formation est constituée d’apports théoriques, d’exercices pratiques et de réflexions

METHODES D'EVALUATION DES ACQUIS

  • Auto-évaluation des acquis par le stagiaire via un questionnaire
  • Attestation de fin de stage adressée avec la facture

FORMATEUR

Consultant-Formateur expert Azure

CONTENU DU COURS

1 - Explorer les options de calcul et de stockage pour les charges de travail

  • Introduction à Azure Synapse Analytics
  • Décrire Azure Databricks
  • Introduction au stockage Azure Data Lake
  • Décrire l’architecture Delta Lake
  • Travailler avec des flux de données à l’aide d’Azure Stream Analytics

2 - Concevoir et mettre en oeuvre la couche de service

  • Concevoir un schéma multidimensionnel pour optimiser les charges de travail analytiques
  • Transformation sans code à grande échelle avec Azure Data Factory
  • Remplir les dimensions à évolution lente dans les pipelines Azure Synapse Analytics

3 - Considérer l'ingénierie de données pour les fichiers sources

  • Concevoir un entrepôt de données moderne à l’aide d’Azure Synapse Analytics
  • Sécuriser un entrepôt de données dans Azure Synapse Analytics

4 - Exécuter des requêtes interactives à l'aide de pools SQL sans serveur Azure

  • Découvrir les fonctionnalités des pools SQL sans serveur Azure Synapse
  • Interroger des données dans le lac à l’aide de pools SQL sans serveur Azure Synapse
  • Créer des objets de métadonnées dans des pools SQL sans serveur Azure Synapse
  • Sécuriser les données et gérer les utilisateurs dans les pools SQL sans serveur Azure Synapse

5 - Explorer, transformer et charger des données dans l'entrepôt de données

  • Comprendre l’ingénierie du Big Data avec Apache Spark dans Azure Synapse Analytics
  • Ingérer des données avec des blocs-notes Apache Spark dans Azure Synapse Analytics
  • Transformer les données avec DataFrames dans Apache Spark Pools dans Azure Synapse Analytics
  • Intégrer les pools SQL et Apache Spark dans Azure Synapse Analytics

6 - Explorer et transformer des données dans Azure Databricks

  • Décrire Azure Databricks
  • Lire et écrire des données dans Azure Databricks
  • Utiliser des DataFrames dans Azure Databricks
  • Utiliser les méthodes avancées DataFrames dans Azure Databricks

7 - Ingérer et charger des données dans l'entrepôt de données

  • Utiliser les meilleures pratiques de chargement de données dans Azure Synapse Analytics
  • Ingestion à l’échelle du pétaoctet avec Azure Data Factory

8 - Transformer les données avec Azure Data Factory ou Azure Synapse Pipelines

  • Intégration de données avec Azure Data Factory ou Azure Synapse Pipelines
  • Transformation sans code à grande échelle avec Azure Data Factory ou Azure Synapse Pipelines

9 - Orchestrer le mouvement et la transformation des données dans Azure

  • Orchestrer le mouvement et la transformation des données dans Azure Data Factory

10 - Optimiser les performances des requêtes avec des pools SQL dédiés dans Azure

  • Optimiser les performances des requêtes d’entrepôt de données dans Azure Synapse Analytics
  • Comprendre les fonctionnalités pour les développeurs de l’entrepôt de données d’Azure Synapse Analytics

11 - Analyser et Optimiser le stockage de l'entrepôt de données

  • Analyser et optimiser le stockage de l’entrepôt de données dans Azure Synapse Analytics

12 - Prendre en charge le traitement analytique transactionnel hybride (HATP)

  • Concevoir un traitement transactionnel et analytique hybride à l’aide d’Azure Synapse Analytics
  • Configurer Azure Synapse Link avec Azure Cosmos DB
  • Interroger Azure Cosmos DB avec des pools Apache Spark
  • Interroger Azure Cosmos DB avec des pools SQL sans serveur

13 - Sécuriser de bout en bout avec Azure Synapse Analytics

  • Sécuriser un entrepôt de données dans Azure Synapse Analytics
  • Configurer et gérer les secrets dans Azure Key Vault
  • Mettre en oeuvre des contrôles de conformité pour les données sensibles

14 - Traiter des flux en temps réel avec Stream Analytics

  • Activez une messagerie fiable pour les applications Big Data à l’aide d’Azure Event Hubs
  • Travailler avec des flux de données à l’aide d’Azure Stream Analytics
  • Ingérer des flux de données avec Azure Stream Analytics

15 - Créer une solution de traitement de flux avec Event Hubs et Azure Databircks

  • Traiter les données de streaming avec le streaming structuré Azure Databricks

16 - Créer des rapports à l'aide de l'intégration de Power BI avec Azure Synapse

  • Créer des rapports avec Power BI à l’aide de son intégration avec Azure Synapse Analytics

17 - Effectuer des processus d'apprentissage automatique intégrés dans Azure

  • Utiliser le processus d’apprentissage automatique intégré dans Azure Synapse Analytics

18 - Certification Microsoft Data Engineering on Microsoft Azure

  • Cette formation prépare au passage de la certification Microsoft Data Engineering on Microsoft Azure (DP-203)
Cookies