Data Engineering on Microsoft Azure. (DP-203)

Dauer
Ausführung
Vor Ort, Online
Startdatum und Ort

Data Engineering on Microsoft Azure. (DP-203)

TÜV Rheinland Akademie GmbH
Logo von TÜV Rheinland Akademie GmbH
Bewertung: starstarstarstarstar_border 8,2 Bildungsangebote von TÜV Rheinland Akademie GmbH haben eine durchschnittliche Bewertung von 8,2 (aus 146 Bewertungen)

Tipp: Haben Sie Fragen? Für weitere Details einfach auf "Kostenlose Informationen" klicken.

Startdaten und Startorte

placeHamburg K278S29528N2433996
12. Nov 2024 bis 15. Nov 2024
computer Online: Live Virtual Classroom K278S29528N2433998
12. Nov 2024 bis 15. Nov 2024
placeFrankfurt am Main K950S29528N2438776
2. Dez 2024 bis 5. Dez 2024
computer Online: Live Virtual Classroom K950S29528N2458860
2. Dez 2024 bis 5. Dez 2024
placeKöln K950S29528N2521505
10. Feb 2025 bis 13. Feb 2025
computer Online: Live Virtual Classroom K950S29528N2532473
10. Feb 2025 bis 13. Feb 2025
placeBerlin K170S29528N2544278
13. Mai 2025 bis 16. Mai 2025
check_circle Garantierte Durchführung
computer Online: Live Virtual Classroom K170S29528N2544279
13. Mai 2025 bis 16. Mai 2025
check_circle Garantierte Durchführung
placeHamburg K278S29528N2518642
1. Jul 2025 bis 4. Jul 2025
computer Online: Live Virtual Classroom K278S29528N2521459
1. Jul 2025 bis 4. Jul 2025
computer Online: Live Virtual Classroom K799S29528N2537235
18. Nov 2025 bis 21. Nov 2025
placeMünchen K799S29528N2517464
18. Nov 2025 bis 21. Nov 2025

Beschreibung

In diesem Seminar lernen Sie die Data Engineering-Muster und -Praktiken kennen, die sich auf die Arbeit mit Batch- und Echtzeit-Analyselösungen unter Verwendung von Azure-Datenplattformtechniken beziehen. Sie beginnen dabei mit Grundlagen der wichtigsten Computer- und Speichertechnologien, die zum Erstellen einer analytischen Lösung verwendet werden und lernen darauf aufbauende Lösungen kennen.

Inhalt

Modul 1: Untersuchen von Rechen- und Speicheroptionen für Daten-Engineering-Workloads
Dieses Modul bietet einen Überblick über die Optionen der Azure-Computer- und Speichertechnologie, die Dateningenieur:innen zur Verfügung stehen, die analytische Workloads erstellen. In diesem Modul erfahren …

Gesamte Beschreibung lesen

Frequently asked questions

Es wurden noch keine FAQ hinterlegt. Falls Sie Fragen haben oder Unterstützung benötigen, kontaktieren Sie unseren Kundenservice. Wir helfen gerne weiter!

Noch nicht den perfekten Kurs gefunden? Verwandte Themen: Data Engineering, Microsoft Azure, Microsoft SQL Server, SQL & MySQL und Big Data.

In diesem Seminar lernen Sie die Data Engineering-Muster und -Praktiken kennen, die sich auf die Arbeit mit Batch- und Echtzeit-Analyselösungen unter Verwendung von Azure-Datenplattformtechniken beziehen. Sie beginnen dabei mit Grundlagen der wichtigsten Computer- und Speichertechnologien, die zum Erstellen einer analytischen Lösung verwendet werden und lernen darauf aufbauende Lösungen kennen.

Inhalt

Modul 1: Untersuchen von Rechen- und Speicheroptionen für Daten-Engineering-Workloads
Dieses Modul bietet einen Überblick über die Optionen der Azure-Computer- und Speichertechnologie, die Dateningenieur:innen zur Verfügung stehen, die analytische Workloads erstellen. In diesem Modul erfahren Sie, wie man das Datenmeer strukturiert und die Dateien für Explorations-, Streaming- und Batch-Workloads optimieren kann. Die Teilnehmer lernen, wie man das Datenmeer in Ebenen der Datenverfeinerung organisiert, während Dateien durch Stapel- und Stream-Verarbeitung transformiert werden. Anschließend erfahren Sie, wie man Indizes für Ihre Datensets wie CSV-, JSON- und Parkettdateien erstellen und diese für eine mögliche Beschleunigung von Abfragen und Workloads verwenden kann.


Modul 2: Entwerfen und Implementieren der Ausgabeebenen
In diesem Modul erfahren Sie, wie Datenspeicher in einem modernen Daten-Warehouse entworfen und implementiert werden, um analytische Workloads zu optimieren. Sie lernen, wie ein mehrdimensionales Schema zum Speichern von Fakten- und Dimensionsdaten entworfen wird. Anschließend lernen Sie, wie langsam ändernde Dimensionen durch inkrementelles Laden von Daten aus Azure Data Factory gefüllt werden.


Modul 3: Überlegungen zum Daten-Engineering für Quelldateien
In diesem Modul werden Überlegungen zum Daten-Engineering erläutert, die beim Laden von Daten in ein modernes Daten-Warehouse häufig vorkommen, welches analytisch geladen wird aus in einem Azure Datenmeer von gespeicherten Dateien. In diesem Zusammenhang werden Ihnen auch die Sicherheitsaspekte beim Speichern von im Datenmeer gespeicherten Dateien vermittelt.


Modul 4: Interaktive Abfragen mit serverlosen SQL-Pools von Azure Synapse Analytics
In diesem Modul werden Überlegungen zum Daten-Engineering erläutert, die beim Laden von Daten in ein modernes Daten-Warehouse häufig vorkommen, welches analytisch geladen wird aus in einem Azure Datenmeer von gespeicherten Dateien. In diesem Zusammenhang werden Ihnen auch die Sicherheitsaspekte beim Speichern von im Datenmeer gespeicherten Dateien vermittelt.


Modul 5: Durchsuchen, Transformieren und Laden von Daten in das Daten-Warehouse mit Apache Spark
In diesem Modul erfahren Sie, wie man in einem Datenmeer gespeicherte Daten untersucht, die Daten transformiert und Daten in einen relationalen Datenspeicher lädt. Sie werden in dem Seminar Parkett- und JSON-Dateien untersuchen und Techniken verwenden, um JSON-Dateien mit hierarchischen Strukturen abzufragen und zu transformieren. Anschließend verwenden Sie Apache Spark, um Daten in das Daten-Warehouse zu laden und Parkettdaten im Datenmeer zu verknüpfen mit Daten im dedizierten SQL-Pool.


Modul 6: Datenexploration und -transformation in Azure Databricks
In diesem Modul erfahren Sie, wie man mit verschiedenen Apache Spark Data Frame-Methoden Daten in Azure Databricks untersuchen und transformieren kann. Teilnehmer:innen lernen, wie man Standard-Data Frame-Methoden zum Erkunden und Transformieren von Daten ausführen kann. Sie lernen auch, wie man erweiterte Aufgaben ausführen, z. B. doppelte Daten entfernen, Datums- / Zeitwerte bearbeiten, Spalten umbenennen und Daten aggregieren kann.


Modul 7: Daten aufnehmen und in das Daten- Warehouse laden
In diesem Modul lernen Sie, wie man Daten über T-SQL-Skripte und Synapse Analytics-Integrationspipelines in das Daten-Warehouse aufnimmt. Sie erfahren, wie Daten mit PolyBase und COPY unter Anwendung von TSQL in dedizierte Synapse-SQL-Pools geladen werden. Außerdem zeigen wir Ihnen, wie das Workload-Management, zusammen mit einer Kopieraktivität in einer Azure Synapse-Pipeline für die Datenaufnahme im Petabyte-Bereich verwendet wird.


Modul 8: Transformieren von Daten mit Azure Data Factory- oder Azure Synapse-Pipelines
In diesem Modul lernen Teilnehmer:innen, wie man Datenintegrations-Pipelines erstellt, um sie aus mehreren Datenquellen aufzunehmen, Daten mit Hilfe von Mapping-Datenflüssen zu transformieren und Daten in eine oder mehrere Datensenken zu verschieben.


Modul 9: Koordination von Verschieben und Transformieren von Daten in Azure Synapse-Pipelines
In diesem Modul erfahren Sie, wie man verknüpfte Services erstellt und die Datenverschiebung und -transformation mit Hilfe von Notebooks in Azure Synapse-Pipelines koordiniert.


Modul 10: Optimieren Sie die Abfrageleistung mit dedizierten SQL-Pools in Azure Synapse
Im zehnten Modul lernen Sie Strategien zur Optimierung der Datenspeicherung und -verarbeitung bei Verwendung dedizierter SQL-Pools in Azure Synapse Analytics. Sie können die Abfrageleistung optimieren und verbessern, durch Entwicklerfunktionen wie Fenster- und HyperLogLog-Funktionen und bewährte Methoden zum Laden von Daten.


Modul 11: Analyse und Optimierung der Daten Warehouse Speicherung
In Modul Nummer 11 lernen Sie, wie die Datenspeicherung von Azure Synapse den dezidierten SQL analysiert und optimiert. Sie werden Techniken erlernen, um die Verwendung des Tabellenbereichs und die Speicherdetails des Spaltenspeichers zu verstehen. Außerdem werden Ihnen die Speicheranforderungen zwischen identischen Tabellen, die unterschiedliche Datentypen verwenden, erklärt. Sie können dann beobachten, welche Auswirkungen materialisierte Ansichten haben, wenn sie anstelle komplexer Abfragen ausgeführt werden, und lernen, wie durch Optimierung der Löschvorgänge eine umfangreiche Protokollierung vermieden wird.


Modul 12: Unterstützung von HTAP (Hybrid Transactional Analytical Processing ) mit Azure Synapse Links
In diesem Modul erfahren Teilnehmer:innen, wie Azure Synapse Link die nahtlose Verbindung eines Azure Cosmos DB-Kontos mit einem Synapse-Arbeitsbereich ermöglicht. Sie lernen zu verstehen, wie man die Synapse-Verknüpfung aktiviert und konfiguriert und wie der Azure Cosmos DB-Analysespeicher mit Apache Spark und serverlosem SQL abgefragt wird.


Modul 13: End-to-End-Sicherheit mit Azure Synapse Analytics
Unser Seminar lehrt Ihnen, wie ein Synapse Analytics-Arbeitsbereich und seine unterstützende Infrastruktur gesichert werden. Sie wissen den SQL Active Directory-Administrator zu beobachten, verwalten IP-Firewall-Regeln und Geheimnisse mit Azure Key Vault und greifen auf diese Geheimnisse über einen mit Key Vault verknüpften Service und Pipeline-Aktivitäten zu. Sie werden verstehen, wie Sicherheit auf Spalten- und Zeilenebene und dynamische Datenmaskierung implementiert werden, bei Verwendung von dedizierten SQL-Pools.


Modul 14: Echtzeit-Stream-Verarbeitung mit Stream Analytics
Sie lernen, wie Streaming-Daten mit Azure Stream Analytics verarbeitet werden. Wir nehmen Fahrzeugtelemetrie-Daten in Event Hubs auf und verarbeiten sie dann in Echtzeit mit Hilfe verschiedener Fensterfunktionen in Azure Stream Analytics. Die Daten werden dann an Azure Synapse Analytics ausgegeben. Um den Durchsatz zu erhöhen, zeigen wir Ihnen den Stream Analytics-Job optimal zu skalieren.
Zuverlässiges Messaging für Big Data-Anwendungen gelingt Ihnen mit Hilfe von Azure Event Hubs. Darüber hinaus ermöglicht es Azure Stream Analytics Datenströme aufzunehmen.
Modul 15: Erstellen einer Stream-Verarbeitungslösung mit Event Hubs und Azure Databricks
Unsere Expert:innen zeigen Ihnen, wie Streaming-Daten mit Event Hubs und Spark Structured Streaming in Azure Databricks maßstabsgetreu erfasset und verarbeitet werden können. Dabei lernen Sie die wichtigsten Funktionen und Verwendungszwecke von Structured Streaming kennen. Gemeinsam implementieren wir Schiebefenster, um Datenblöcke zu aggregieren und wenden Wasserzeichen an, um veraltete Daten zu entfernen. Schließlich stellen wir eine Verbindung zu Event Hubs her, um Streams zu lesen und zu schreiben.


Modul 16: Erstellen von Berichten mit Hilfe der Power BI-Integration mit Azure Synapse Analytics
In Modul 16 lernen Sie, wie sich Power BI in Ihren Synapse-Arbeitsbereich integrieren lässt, um Berichte in Power BI zu erstellen. Sie erstellen eine neue Datenquelle und einen neuen Power BI-Bericht in Synapse Studio. Anschließend lernen Sie, wie man die Abfrageleistung durch materialisierte Ansichten und Zwischenspeichern von Ergebnismengen verbessern kann. Darauf aufbauend werden wir das Datenmeer mit serverlosen SQL-Pools erkunden und Visualisierungen für diese Daten in Power BI erstellen.


Modul 17: Integrierte maschinelle Lernprozesse in Azure Synapse Analytics ausführen
In diesem Modul wird die integrierte, durchgängige Erfahrung mit Azure maschinellen Lernen und Azure kognitiven Services in Azure Synapse Analytics erläutert. Sie erfahren, wie Sie einen Azure Synapse Analytics-Arbeitsbereich mithilfe eines verknüpften Services mit einem Azure Machine Learning-Arbeitsbereich verbinden und anschließend ein automatisiertes ML-Experiment auslösen, das Daten aus einer Spark-Tabelle verwendet. Außerdem erfahren Sie, wie man trainierte Modelle aus Azure-maschiniertem Lernen oder Azure kognitiven Services verwenden, um Daten in einer SQL-Pooltabelle anzureichern und anschließend mit Hilfe von Power BI Prognoseergebnisse bereitzustellen.

Zielguppe

Die Zielgruppe für dieses Seminar sind Datenfachleute, Datenarchitekt:innen und Expert:innen für Geschäftsintelligenz, die mehr über Daten-Engineering und das Erstellen von Analyselösungen mit Hilfe von Datenplattformtechnologien in Microsoft Azure erfahren möchten. Eine weitere Zielgruppe für diesen Kurs sind Datenanalyst:innen und Datenwissenschaftler:innen, die mit auf Microsoft Azure basierenden Analyselösungen arbeiten.

Nutzen

















Hinweise

Keine Informationen vorhanden

Werden Sie über neue Bewertungen benachrichtigt

Es wurden noch keine Bewertungen geschrieben.

Schreiben Sie eine Bewertung

Haben Sie Erfahrung mit diesem Kurs? Schreiben Sie jetzt eine Bewertung und helfen Sie Anderen dabei die richtige Weiterbildung zu wählen. Als Dankeschön spenden wir € 1,00 an Stiftung Edukans.

Es wurden noch keine FAQ hinterlegt. Falls Sie Fragen haben oder Unterstützung benötigen, kontaktieren Sie unseren Kundenservice. Wir helfen gerne weiter!

Bitte füllen Sie das Formular so vollständig wie möglich aus

(optional)
(optional)
(optional)
(optional)
(optional)
(optional)
(optional)

Haben Sie noch Fragen?

(optional)

Anmeldung für Newsletter

Damit Ihnen per E-Mail oder Telefon weitergeholfen werden kann, speichern wir Ihre Daten.
Mehr Informationen dazu finden Sie in unseren Datenschutzbestimmungen.