AWS Hadoop Fundamentals vermittelt Ihnen die Grundlagen von Big Data und zeigt Ihnen, wie Sie diese mit Hadoop als Framework verarbeiten können. In diesem Kurs werden Hadoop-Architekturen vorgestellt und es wird vermittelt, wie große Datenmengen gespeichert und verarbeitet werden. Im Kurs werden verschiedene Tools erklärt, die bei diesem Prozess verwendet werden: MapReduce, Hive und Pig. Außerdem wird im Kurs auch besprochen, wie Hadoop in die Big Data-Umgebung von AWS integriert werden kann.
Hinweis: Dieser Kurs verfügt über lokalisierte Transkripte/Untertitel. Der Vortrag ist auf Englisch. Um Untertitel anzuzeigen, klicken Sie auf die Schaltfläche CC in der rechten unteren Ecke des Players.
Zielgruppe
Dieser Kurs ist für folgende Zielgruppen konzipiert:
- Alle Personen, die daran interessiert sind, die grundlegenden Konzepte von Hadoop, MapReduce, Hive und Pig zu erlernen
- Verantwortliche für die Konzeption und Umsetzung von Big Data-Lösungen
Kursziele
Inhalte dieses Kurses:
- Beschreiben des Hadoop-Frameworks und der verwendeten Tools
- Erklären der Funktionen von MapReduce und dessen Vorgehensweise bei der Datenverarbeitung
- Erklären der Nutzung des Data Warehouse-Systems Hive in Verbindung mit Hadoop
- Identifizieren der Komponenten von Hive und Pig
- Beschreiben der Abfragesprache Pig Latin
- Verstehen der Integrationsmöglichkeiten von Hadoop in die Big Data-Umgebung von AWS
Voraussetzungen
Wir empfehlen, dass die Teilnehmer an diesem Kurs die folgenden Voraussetzungen erfüllen:
- Grundkenntnisse in Big Data-Workloads
Lehrmethode
Dieser Kurs wird bereitgestellt als:
- Digitales Training
Dauer
- 90 Minuten
Kursinhalt
In diesem Kurs werden die folgenden Konzepte behandelt:
- Big Data und Hadoop
- Hadoop und MapReduce
- Hive und Pig
- AWS und Big Data