DP-203T00: Data Engineering on Microsoft Azure

Das Training konzentriert sich auf die Vermittlung von Fähigkeiten und Kenntnissen, die notwendig sind, um Datenlösungen auf Azure zu entwerfen und zu implementieren. Teilnehmer lernen, wie sie Daten mit Azure Data Factory, Azure Databricks, Azure Synapse Analytics und anderen Azure-Diensten integrieren, speichern, verarbeiten und analysieren. Der Kurs zielt darauf ab, Daten-Ingenieure mit den besten Praktiken und Mustern für den Bau zuverlässiger, skalierbarer Datenverarbeitungs- und Speicherlösungen auf Azure auszustatten.

Was werden Sie in diesem Training erlernen?

In diesem Training erfahren die Trainingsteilnehmer*innen, wie sie Datentechnikworkloads in Microsoft Azure implementieren und verwalten, indem sie unter anderem Azure-Dienste wie Azure Synapse Analytics, Azure Data Lake Storage Gen2, Azure Stream Analytics, Azure Databricks verwenden. Der Kurs fokussiert sich auf allgemeine Datentechnikaufgaben wie das Orchestrieren von Datenübertragungs- und Transformationspipelines, das Arbeiten mit Datendateien in einem Data Lake, das Erstellen und Laden relationaler Data Warehouses, das Erfassen und Aggregieren von Datenströmen in Echtzeit sowie das Nachverfolgen von Datenressourcen und -herkunft.

Agenda

  • Introduction to data engineering on Azure
    • What is data engineering
    • Important data engineering concepts
    • Data engineering in Microsoft Azure
  • Introduction to Azure Data Lake Storage Gen2
    • Understand Azure Data Lake Storage Gen
    • Enable Azure Data Lake Storage Gen2 in Azure Storage
    • Compare Azure Data Lake Store to Azure Blob storage
    • Understand the stages for processing big data
    • Use Azure Data Lake Storage Gen2 in data analytics workloads
  • Introduction to Azure Synapse Analytics
    • What is Azure Synapse Analytics
    • How Azure Synapse Analytics works
    • When to use Azure Synapse Analytics
  • Use Azure Synapse serverless SQL pool to query files in a data lake
    • Understand Azure Synapse serverless SQL pool capabilities and use cases
    • Query files using a serverless SQL pool
    • Create external database objects
  • Use Azure Synapse serverless SQL pools to transform data in a data lake
    • Transform data files with the CREATE EXTERNAL TABLE AS SELECT statement
    • Encapsulate data transformations in a stored procedure
    • Include a data transformation stored procedure in a pipeline
  • Create a lake database in Azure Synapse Analytics
    • Understand lake database concepts
    • Explore database templates
    • Create a lake database
    • Use a lake database
  • Analyze data with Apache Spark in Azure Synapse Analytics
    • Get to know Apache Spark
    • Use Spark in Azure Synapse Analytics
    • Analyze data with Spark
    • Visualize data with Spark
  • Transform data with Spark in Azure Synapse Analytics
    • Modify and save dataframes
    • Partition data files
    • Transform data with SQL
  • Use Delta Lake in Azure Synapse Analytics
    • Understand Delta Lake
    • Create Delta Lake tables
    • Create catalog tables
    • Use Delta Lake with streaming data
    • Use Delta Lake in a SQL pool
  • Analyze data in a relational data warehouse
    • Design a data warehouse schema
    • Create data warehouse tables
    • Load data warehouse tables
    • Query a data warehouse
  • Load data into a relational data warehouse
    • Load staging tables
    • Load dimension tables
    • Load time dimension tables
    • Load slowly changing dimensions
    • Load fact tables
    • Perform post load optimization
  • Build a data pipeline in Azure Synapse Analytics
    • Understand pipelines in Azure Synapse Analytics
    • Create a pipeline in Azure Synapse Studio
    • Define data flows
    • Run a pipeline
  • Use Spark Notebooks in an Azure Synapse Pipeline
    • Understand Synapse Notebooks and Pipelines
    • Use a Synapse notebook activity in a pipeline
    • Use parameters in a notebook
  • Plan hybrid transactional and analytical processing using Azure Synapse Analytics
    • Understand hybrid transactional and analytical processing patterns
    • Describe Azure Synapse Link
  • Implement Azure Synapse Link with Azure Cosmos DB
    • Enable Cosmos DB account to use Azure Synapse Link
    • Create an analytical store enabled container
    • Create a linked service for Cosmos DB
    • Query Cosmos DB data with Spark
    • Query Cosmos DB with Synapse SQL
  • Implement Azure Synapse Link for SQL
    • What is Azure Synapse Link for SQL?
    • Configure Azure Synapse Link for Azure SQL Database
    • Configure Azure Synapse Link for SQL Server 2022
  • Get started with Azure Stream Analytics
    • Understand data streams
    • Understand event processing
    • Understand window functions
  • Ingest streaming data using Azure Stream Analytics and Azure Synapse Analytics
    • Stream ingestion scenarios
    • Configure inputs and outputs
    • Define a query to select, filter, and aggregate data
    • Run a job to ingest data
  • Visualize real-time data with Azure Stream Analytics and Power BI
    • Use a Power BI output in Azure Stream Analytics
    • Create a query for real-time visualization
    • Create real-time data visualizations in Power BI
  • Introduction to Microsoft Purview
    • What is Microsoft Purview?
    • How Microsoft Purview works
    • When to use Microsoft Purview
  • Integrate Microsoft Purview and Azure Synapse Analytics
    • Catalog Azure Synapse Analytics data assets in Microsoft Purview
    • Connect Microsoft Purview to an Azure Synapse Analytics workspace
    • Search a Purview catalog in Synapse Studio
    • Track data lineage in pipelines
  • Explore Azure Databricks
    • Get started with Azure Databricks
    • Identify Azure Databricks workloads
    • Understand key concepts
  • Use Apache Spark in Azure Databricks
    • Get to know Spark
    • Create a Spark cluster
    • Use Spark in notebooks
    • Use Spark to work with data files
    • Visualize data
  • Run Azure Databricks Notebooks with Azure Data Factory
    • Understand Azure Databricks notebooks and pipelines
    • Create a linked service for Azure Databricks
    • Use a Notebook activity in a pipeline
    • Use parameters in a notebook
Komplette Agenda anzeigen
Agenda minimieren

Zielgruppe

Voraussetzung für den Kurs

Infos zu Ihrer Zertifizierung

Partner

Wählen Sie jetzt Ihre Trainingsmethode

brainyCLASS
Ortsflexibles Klassenraumtraining

Physisch oder virtuell?
Nehmen Sie an einem unserer Standorte Frankfurt, München und Wien oder virtuell an unseren Klassenraumtrainings teil. Unter "Termin buchen" werden Ihnen alle Optionen angezeigt, zuerst sortiert nach Standort, dann nach Datum.
  • Ortsunabhängig
  • Gemeinsam mit Anderen
  • Zertifizierte Trainer
  • Training inklusive Unterlage und ggf. Trainingsumgebung
2.485,00 € 2.957,15 € inkl. MwSt

FirmenSeminare
Maßgeschneiderte Trainings für Ihr Unternehmen

Alle Trainings sind bei uns auch als Firmenseminar erhältlich. Mit diesem Format haben Sie die Möglichkeit, Trainings auf den Bedarf in Ihrem Unternehmen und für Ihr Team abzustimmen. Sie planen die Inhalte mit unseren Trainern, bestimmen die Teilnehmer aus Ihrem Unternehmen und legen Ort sowie Zeit des Trainings fest. Gern beraten wir Sie und finden gemeinsam den besten Weg, um Ihre Teilnehmer optimal zu schulen.

Jetzt persönliche Beratung vereinbaren

  • Von Ihnen bestimmte Inhalte
  • Zertifizierte Trainer 
  • Ortsunabhängig
Jetzt anfragen

Weitere Informationen zum Kurs

DP-203T00: Data Engineering on Microsoft Azure

 

Weitere Fragen? Wir sind für Sie da!
Telefonisch:
Mo. – Fr. von 08:00 bis 17:00 Uhr
Oder per E-Mail
Nach oben