Big Data Engineer - Master's Program - Ein einzigartiges Lern- und Zertifizierungsprogramm!

Methode

Big Data Engineer - Master's Program - Ein einzigartiges Lern- und Zertifizierungsprogramm!

Adding Value Consulting DE
Logo von Adding Value Consulting DE

Tipp: Haben Sie Fragen? Für weitere Details einfach auf "Kostenlose Informationen" klicken.

Beschreibung

Big Data Engineer - Masterstudiengang

Ein einzigartiges Lern- und Zertifizierungsprogramm!

Dieses in Zusammenarbeit mit IBM entwickelte Masterprogramm für Big Data-Ingenieure bietet eine Ausbildung in den wettbewerbsfähigen Fähigkeiten, die für eine lohnende Karriere im Bereich der Datentechnik erforderlich sind. Sie werden lernen, das Big-Data-Framework Hadoop zu beherrschen, die Funktionalität von Apache Spark mit Python zu nutzen, Datenleitungen mit Apache Kafka zu vereinfachen und das Open-Source-Datenbankmanagement-Tool MongoDB zur Speicherung von Daten in Big-Data-Umgebungen zu verwenden.

Wichtigste Merkmale

  • Von der Industrie anerkannte Zertifizierungen von IBM (für IBM-Kurse) un…

Gesamte Beschreibung lesen

Frequently asked questions

Es wurden noch keine FAQ hinterlegt. Falls Sie Fragen haben oder Unterstützung benötigen, kontaktieren Sie unseren Kundenservice. Wir helfen gerne weiter!

Noch nicht den perfekten Kurs gefunden? Verwandte Themen: MongoDB, Big Data, Data Engineering, Microsoft SQL Server und SQL & MySQL.

Big Data Engineer - Masterstudiengang

Ein einzigartiges Lern- und Zertifizierungsprogramm!

Dieses in Zusammenarbeit mit IBM entwickelte Masterprogramm für Big Data-Ingenieure bietet eine Ausbildung in den wettbewerbsfähigen Fähigkeiten, die für eine lohnende Karriere im Bereich der Datentechnik erforderlich sind. Sie werden lernen, das Big-Data-Framework Hadoop zu beherrschen, die Funktionalität von Apache Spark mit Python zu nutzen, Datenleitungen mit Apache Kafka zu vereinfachen und das Open-Source-Datenbankmanagement-Tool MongoDB zur Speicherung von Daten in Big-Data-Umgebungen zu verwenden.

Wichtigste Merkmale

  • Von der Industrie anerkannte Zertifizierungen von IBM (für IBM-Kurse) und AVC
  • Praxisnahe Projekte für eine praxisorientierte Ausbildung in der Industrie
  • 30+ häufig nachgefragte Fähigkeiten
  • Lebenslanger Zugriff auf das eLearning
  • 35 Stunden für das Selbststudium
  • 132 Stunden von Ausbildern geleitete Schulung
  • Meisterklassen, exklusive Mentorensitzungen und Hackathons von IBM

Lernziele

Am Ende dieses Big-Data-Ingenieur-Masterprogramms werden Sie in der Lage sein:

  • Ein tiefes Verständnis für die flexiblen und vielseitigen Frameworks im Hadoop-Ökosystem wie Pig, Hive, Impala, HBase, Sqoop, Flume und Yarn zu erlangen
  • Beherrschen von Tools und Fähigkeiten wie Datenmodellierung, Datenbankschnittstellen, fortgeschrittene Architektur, Spark, Sala, RDD, SparkSQL, Spark Streaming, Spark ML, GraphX, Sqoop, Flume, Pig, Hive, Impala und Kafka-Architektur.
  • Verstehen, wie man Daten mit dem NoSQL-Datenbankmanagementsystem MongoDB modelliert, aufnimmt, repliziert und verteilt.
  • Gewinnen Sie Fachwissen bei der Erstellung und Wartung von Analyse-Infrastrukturen und übernehmen Sie die Entwicklung, Bereitstellung, Wartung und Überwachung von Architekturkomponenten.
  • Gewinnen Sie Einblicke in die Verbesserung der Geschäftsproduktivität durch die Verarbeitung von Big Data auf Plattformen, die deren Volumen, Geschwindigkeit, Vielfalt und Wahrhaftigkeit bewältigen können
  • Lernen Sie, wie Kafka in der Praxis eingesetzt wird, einschließlich seiner Architektur und Komponenten, sammeln Sie praktische Erfahrungen bei der Verbindung von Kafka mit Spark und der Arbeit mit Kafka Connect.
  • Verstehen Sie, wie Sie Amazon EMR zur Verarbeitung von Daten mit Hilfe von Hadoop-Ökosystem-Tools einsetzen können.

Ziel

Ein Big-Data-Ingenieur erstellt und pflegt Datenstrukturen und -architekturen für die Aufnahme, Verarbeitung und Bereitstellung von Daten für große, datenintensive Anwendungen. Dies ist eine vielversprechende Karriere für neue und erfahrene Fachleute mit einer Leidenschaft für Daten:

  • IT-Fachleute
  • Bank- und Finanzfachleute
  • Datenbank-Administratoren
  • Anfänger auf dem Gebiet der Datentechnik
  • Studenten in UG/ PG-Programmen

Inhalt Masterprogramm

  • Big Data für Data Engineering (1 Stunde)
  • Big Data Hadoop und Spark Entwickler (84 Stunden)
  • PySpark-Schulung (3 Stunden)
  • MongoDB Entwickler und Administrator (56 Stunden)
  • Apache Kafke (10 Stunden)
  • AWS Technische Grundlagen (17,5 Stunden)
  • AWS Big Data-Zertifizierung (61)
  • Big Data-Abschluss (56 Stunden)
  • Extras
  • AWS Technische Grundlagen
  • Java-Zertifizierung
  • Inudstry Master Class - Datentechnik

1. Big Data für Data Engineering

In diesem Einführungskurs von IBM lernen Sie die grundlegenden Konzepte und Terminologien von Big Data und deren Anwendungen in verschiedenen Branchen kennen. Sie erhalten einen Einblick in die Verbesserung der Unternehmensproduktivität durch die Verarbeitung von Big Data und die Extraktion wertvoller Informationen.

Wichtigste Lernziele

Verstehen, was Big Data ist, Quellen von Big Data und Beispiele aus der Praxis
Lernen Sie den Hauptunterschied zwischen Big Data und Data Science kennen
Beherrschen der Nutzung von Big Data für betriebliche Analysen und einen besseren Kundenservice
Erwerb von Kenntnissen über das Big-Data-Ökosystem und das Hadoop-Framework

Programm des Kurses

  • Lektion 1 - Was ist Big Data?
  • Lektion 2 - Big Data: Jenseits des Hypes
  • Lektion 3 - Big Data und Datenwissenschaft
  • Lektion 4 - Anwendungsfälle
  • Lektion 5 - Verarbeitung von Big Data

2. Big Data Hadoop und Spark Entwickler

AVC's Big Data Hadoop Training Course hilft Ihnen, Big Data und Hadoop-Ökosystem-Tools wie HDFS, YARN, MapReduce, Hive, Impala, Pig, HBase, Spark, Flume, Sqoop und Hadoop Frameworks zu erlernen, einschließlich zusätzlicher Big Data Processing Lifecycle Konzepte. Während dieses von einem Kursleiter geleiteten Online-Hadoop-Kurses werden Sie an Echtzeit-Projekten in den Bereichen Einzelhandel, Tourismus, Finanzen und anderen Bereichen arbeiten. Dieser Big-Data-Kurs bereitet Sie auch auf die CCA175 Big-Data-Zertifizierung von Cloudera vor.

Wichtigste Lernziele

Lernen Sie, sich im Hadoop-Ökosystem zurechtzufinden und dessen Nutzung zu optimieren
Eingabe von Daten mit Sqoop, Flume und Kafka
Partitionierung, Bucketing und Indizierung in Hive implementieren
Arbeiten mit RDD in Apache Spark
Verarbeiten von Echtzeit-Streaming-Daten
Durchführen von DataFrame-Operationen in Spark mit SQL-Abfragen
Implementierung von benutzerdefinierten Funktionen (UDF) und benutzerdefinierten Attributfunktionen (UDAF) in Spark

Syllabus des Kurses

  • Lektion 1 - Einführung in Bigdata und Hadoop
  • Lektion 2 - Verteilter Speicher in der Hadoop-Architektur (HDFS) und YARN
  • Lektion 3 - Datenerfassung in Big-Data-Systemen und ETL.
  • Lektion 4 - Verteilte Verarbeitung MapReduce Framework und Pig
  • Lektion 5 - Apache Hive
  • Lektion 6 - NoSQL-Datenbanken HBase
  • Lektion 7 - Grundlagen der funktionalen Programmierung und Scala
  • Lektion 8 - Apache Spark Big Data Framework der nächsten Generation
  • Lektion 9 - Spark Core Verarbeitung von RDD
  • Lektion 10 - Spark SQL-Verarbeitung DataFramesspan
  • Lektion 11 - Spark MLLib Modellierung von BigData mit Spark
  • Lektion 12 - Stream Processing Frameworks und Spark Streaming
  • Lektion 13 - Spark GraphX

3. PySpark-Schulung

Die Pyspark-Schulung bietet einen detaillierten Überblick über Apache Spark, die Open-Source-Abfrage-Engine für die Verarbeitung großer Datenmengen, und wie sie mit Hilfe der PySpark-Schnittstelle in Python integriert werden kann. Dieser Kurs zeigt Ihnen, wie Sie datenintensive Anwendungen erstellen und implementieren und dabei in das hochleistungsfähige maschinelle Lernen eintauchen. Sie lernen, wie Sie Spark RDD, Spark SQL, Spark MLlib, Spark Streaming, HDFS, Sqoop, Flume, Spark GraphX und Kafka verwenden können.

Wichtigste Lernziele

  • Verstehen, wie man Python-Funktionen im Spark-Ökosystem verwendet.
  • Beherrschen der Architektur von Apache Spark und Einrichten einer Python-Umgebung für Spark
  • Lernen Sie verschiedene Techniken zur Datensammlung kennen, verstehen Sie RDDs und wie man sie mit DataFrames vergleicht, wie man Daten aus Dateien und HDFS liest und wie man mit Schemas arbeitet
  • Erwerben Sie umfassende Kenntnisse über verschiedene Tools, die zum Spark-Ökosystem gehören, wie Spark SQL, Spark MlLib, Sqoop, Kafka, Flume und Spark Streaming.
  • Erstellen und erforschen Sie verschiedene APIs für die Arbeit mit Spark DataFrames und lernen Sie, wie Sie Daten mit DataFrames aggregieren, transformieren, filtern und sortieren können.

Syllabus des Kurses

  • Lektion 01 - Eine kurze Einführung in Pyspark
  • Lektion 02 - Robuste verteilte Datensätze
  • Lektion 03 - Widerstandsfähige verteilte Datensätze und Aktionen
  • Lektion 04 - DataFrames und Transformationen
  • Lektion 05 - Datenverarbeitung mit Spark DataFrames

4. Apache Kafke

In diesem Apache Kafka-Zertifizierungskurs lernen Sie die Architektur, Installation, Konfiguration und Schnittstellen des Open-Source-Messaging-Systems Kafka kennen. In diesem Kafka-Schulungskurs lernen Sie die Grundlagen von Apache ZooKeeper als zentralisiertem Dienst kennen und entwickeln die Fähigkeiten, Kafka für Echtzeit-Messaging einzusetzen. Dieser Kurs ist Teil des Big Data Hadoop Architect Master's Program und wird für Entwickler und Analytiker empfohlen, die ihr Fachwissen erweitern möchten.

Wichtigste Lernziele

  • Beschreiben der Bedeutung von Big Data
  • Beschreiben der grundlegenden Konzepte von Kafka
  • Beschreiben der Architektur von Kafka
  • Erläutern, wie man Kafka installiert und konfiguriert
  • Erläutern, wie man Kafka für Echtzeit-Nachrichten verwendet

Syllabus des Kurses

  • Lektion 1 - Erste Schritte mit Big Data und Apache Kafka
  • Lektion 2 - Kafka-Produzent
  • Lektion 3 - Kafka-Konsument
  • Lektion 4 - Kafka-Operationen und Leistungsoptimierung
  • Lektion 5 - Kafka-Cluster-Architektur und Verwaltung von Kafka
  • Lektion 6 - Kafka-Überwachung und Schema-Registrierung
  • Lektion 7 - Kafka-Streams und Kafka-Konnektoren
  • Lektion 8 - Integration von Kafka mit Storm
  • Lektion 9 - Kafka-Integration mit Spark und Flume
  • Lektion 10 - Admin Client und Sicherheit von Kafka

5. MongoDB-Entwickler und -Administrator

Werden Sie ein erfahrener MongoDB-Entwickler und -Administrator mit fundiertem Wissen über NoSQL und beherrschen Sie die Fähigkeiten der Datenmodellierung, -aufnahme, -abfrage, des Shardings und der Datenreplikation. Dieser Kurs umfasst branchenbezogene Projekte in den Bereichen E-Learning und Telekommunikation. Der Kurs ist bestens geeignet für Datenbankadministratoren, Softwareentwickler, Systemadministratoren und Analytiker.

Wichtigste Lernziele

  • Entwicklung von Fachkenntnissen beim Schreiben von Java- und NodeJS-Anwendungen mit MongoDB
  • Beherrschen der Replikation und des Shardings von Daten in MongoDB, um die Lese-/Schreibleistung zu optimieren
  • Installation, Konfiguration und Wartung der MongoDB-Umgebung
  • Praktische Erfahrung in der Erstellung und Verwaltung verschiedener Arten von
  • Indizes in MongoDB für die Abfrageausführung sammeln
  • Geschicktes Speichern unstrukturierter Daten in MongoDB
  • Entwicklung von Fähigkeiten zur Verarbeitung großer Datenmengen mit MongoDB-Tools
  • Erwerb von Kenntnissen über die MongoDB-Konfiguration, Backup-Methoden sowie Überwachungs- und Betriebsstrategien
  • Vertiefung in die Verwaltung von DB Notes, Replikatsätzen und Master-Slave-Konzepten.

Syllabus des Kurses

  • Lektion 1 - Einführung in NoSQL-Datenbanken
  • Lektion 2 - MongoDB: Eine Datenbank für das moderne Web
  • Lektion 3 - CRUD-Operationen in MongoDB
  • Lektion 4 - Indizierung und Aggregation
  • Lektion 5 - Replikation und Sharding
  • Lektion 6 - Java- und Node JS-Anwendungsentwicklung mit MongoDB
  • Lektion 7 - Verwaltung von MongoDB-Cluster-Operationen

6. Technische Grundlagen von AWS

In diesem Kurs zu den technischen Grundlagen von AWS lernen Sie, wie Sie durch die AWS-Verwaltungskonsole navigieren, AWS-Sicherheit, Speicher- und Datenbankoptionen verstehen und Fachwissen über Webservices wie RDS und EBS erwerben. Dieser Kurs wurde in Übereinstimmung mit dem neuesten AWS-Lehrplan erstellt und hilft Ihnen, AWS-Services zu erkennen und effizient zu nutzen.

Wichtigste Lernziele

Verstehen der grundlegenden Konzepte der AWS-Plattform und des Cloud-Computings
Identifizieren von AWS-Konzepten, Terminologien, Vorteilen und Bereitstellungsoptionen zur Erfüllung von Geschäftsanforderungen
Identifizieren von Bereitstellungs- und Netzwerkoptionen in AWS

Syllabus des Kurses

  • Lektion 01 - Einführung in Cloud Computing
  • Lektion 02 - Einführung in AWS
  • Lektion 03 - Speicherung und Bereitstellung von Inhalten
  • Lektion 04 - Rechendienste und Netzwerke
  • Lektion 05 - AWS Managed Services und Datenbanken
  • Lektion 06 - Bereitstellung und Verwaltung

7. AWS Big Data-Zertifizierungsschulung

In diesem AWS Big Data-Zertifizierungskurs werden Sie mit Konzepten des Cloud Computing und seinen Bereitstellungsmodellen, der Amazon Web Services Cloud-Plattform, Kinesis Analytics, AWS Big Data-Speicher-, -Verarbeitungs-, -Analyse-, -Visualisierungs- und -Sicherheitsservices, EMR, AWS Lambda und Glue, Algorithmen für maschinelles Lernen und vielem mehr vertraut gemacht.

Wichtigste Lernziele

  • Entdecken Sie, wie Sie Amazon EMR zur Verarbeitung von Daten mithilfe von Hadoop-Ökosystem-Tools verwenden können
  • Verstehen, wie man Amazon Kinesis für die Verarbeitung von Big Data in Echtzeit verwendet
  • Analyse und Transformation von Big Data mit Kinesis Streams
  • Visualisieren von Daten und Ausführen von Abfragen mit Amazon QuickSight

Syllabus des Kurses

  • Lektion 01 - AWS in Big Data Einführung.
  • Lektion 02 - Sammlung
  • Lektion 03 - Speicherung
  • Lektion 04 - Verarbeitung I
  • Lektion 05 - Verarbeitung II
  • Lektion 06 - Analyse I
  • Lektion 07 - Auswertung II
  • Lektion 08 - Visualisierung
  • Lektion 09 - Sicherheit

8. Big Data-Abschlussprojekt

Das Big-Data-Abschlussprojekt gibt Ihnen die Möglichkeit, die in diesem Programm erlernten Fähigkeiten anzuwenden. In speziellen Mentoring-Sitzungen lernen Sie, wie Sie ein reales Big-Data-Problem lösen können. Dieses Projekt ist der letzte Schritt auf dem Lernpfad und ermöglicht es Ihnen, Ihr Fachwissen im Bereich Big Data bei zukünftigen Arbeitgebern unter Beweis zu stellen.

9. Extras:

AWS Technical Essentials

In diesem AWS Technical Essentials-Kurs lernen Sie, wie Sie durch die AWS-Verwaltungskonsole navigieren, AWS-Sicherheit, Speicher- und Datenbankoptionen verstehen und Fachwissen über Webservices wie RDS und EBS erwerben. Dieser Kurs wurde in Übereinstimmung mit dem neuesten AWS-Lehrplan erstellt und hilft Ihnen, AWS-Services zu erkennen und effizient zu nutzen.

Java-Zertifizierungsschulung

Dieser Java-Zertifizierungskurs für Fortgeschrittene führt Sie durch die Konzepte von Java, von einführenden Techniken bis hin zu fortgeschrittenen Programmierkenntnissen. Dieser Java-Kurs vermittelt Ihnen außerdem Kenntnisse über Core Java 8, Operatoren, Arrays, Schleifen, Methoden und Konstruktoren, während Sie gleichzeitig praktische Erfahrungen mit JDBC und dem JUnit-Framework sammeln können.

Industrie-Masterclass - Datentechnik

Nehmen Sie an einer interaktiven Online-Masterclass teil und gewinnen Sie einen Einblick in die Welt der Datentechnik.

Werden Sie über neue Bewertungen benachrichtigt

Es wurden noch keine Bewertungen geschrieben.

Schreiben Sie eine Bewertung

Haben Sie Erfahrung mit diesem Kurs? Schreiben Sie jetzt eine Bewertung und helfen Sie Anderen dabei die richtige Weiterbildung zu wählen. Als Dankeschön spenden wir € 1,00 an Stiftung Edukans.

Es wurden noch keine FAQ hinterlegt. Falls Sie Fragen haben oder Unterstützung benötigen, kontaktieren Sie unseren Kundenservice. Wir helfen gerne weiter!

Bitte füllen Sie das Formular so vollständig wie möglich aus

(optional)
(optional)
(optional)
(optional)

Haben Sie noch Fragen?

(optional)

Anmeldung für Newsletter

Damit Ihnen per E-Mail oder Telefon weitergeholfen werden kann, speichern wir Ihre Daten.
Mehr Informationen dazu finden Sie in unseren Datenschutzbestimmungen.