Warnung Icon Sie haben in Ihrem Browser Javascript deaktiviert! Bitte aktivieren Sie Javascript um eine korrekte Darstellung und Funktionsweise von IT-Schulungen zu gewährleisten. Warnung Icon
Header Background
LPI and Azure Webinar - Gesicherter Termin

Das Webinar für Linux Professionals!

Virtual Classroom Schulungen
 
 
 

Hadoop und Java

Seminardauer: 3 Tage

Ziele

Der Kurs wendet sich an Praktiker, die vor der Herausforderung des Umgangs mit unterschiedlichsten Daten in einem Hadoop-Cluster stehen.

Aufbauend auf einer Strukturierung der möglichen Datenhaltungen (Dateisystem HDFS, SQL oder NoSQL) in Hadoop werden unterschiedliche Einsatzmöglichkeiten von Java vorgestellt und praktisch angewendet. Zwei praxisorientierte Use Cases in ganzheitlichen Lösungsszenarien runden den Kurs ab.

Die praktischen Übungen des Kurses werden entweder mit der Hadoop-Distribution von Cloudera (CDH 5.12) oder Hortonworks (HDP 2.6) entsprechend der Vorankündigung zu diesem Kurs absolviert.

Weitere Seminarinfos:

  • Schwierigkeitsgrad: 300
  • Darreichung: PowerPoint-Präsentation, Live-Demos sowie eigenständige Übungen (Labs) der Teilnehmer. Der Anteil eigenständiger Übungen beträgt etwa 50 %.
  • Materialien: Präsentation in elektronischer Form (Format .PDF). Übungsunterlagen in gedruckter und elektronischer Form. Die für die Übungen erforderliche IT-Infrastruktur wird in virtualisierter Form bereitgestellt.
  • Credits: Ja

Zielgruppe

(IT-)Architekt, (IT-)Entwickler

Voraussetzungen

Praktische Erfahrung in der IT-Informationsverarbeitung erforderlich. Kenntnisse im Einsatz relationaler Datenbanken sowie Kenntnisse über Big Data und die Programmiersprache Java werden vorausgesetzt.

Folgende Seminare und Kurse zur Auffrischung der Kenntnisse um Big Data können hilfreich sein:

1) Einstiegs-Seminare (Schwierigkeitsgrad 100)

a. Big Data Einstieg

b. Big Data – Technologien, Strategien und Trends

c. Hortonworks HDP Einstieg

d. Cloudera CDH Einstieg

2) Überblicks-Seminare (Schwierigkeitsgrad 200)

a. Big Data Architekturen Überblick

b. Hadoop Datentechnologien Überblick

c. NoSQL Überblick

Folgende Kurse können darüber hinaus dieses Angebot ergänzen:

3) Vertiefungs-Kurse (Schwierigkeitsgrad 300)

a. Apache Spark Grundlagen Vertiefung

b. Apache Spark SQL Vertiefung

c. Apache Spark ML Vertiefung

d. Apache Spark Streaming Vertiefung

e. Hadoop und Python – Vertiefung

f. Data Scientist Methoden Vertiefung

4) Spezialisierungskurse (Schwierigkeitsgrad 400)

a. Data Scientist Tools Vertiefung

b. Data Engineer Tools Vertiefung

Agenda

Datenstrukturen in Hadoop und Vorgehensmodell für die Datenanalyse

In diesem Abschnitt wird ein Überblick zu Hadoop gegeben und die in nachfolgenden Abschnitten vertieften Komponenten im Zusammenhang dargestellt. Ausführlich wird auf die verschiedenen Speichermöglichkeiten von Daten im Hadoop-Cluster eingegangen und die erforderlichen Schlussfolgerungen für das Vorgehen zur Datenanalyse gezogen.

Nutzung von Java in einer Hadoop-Umgebung

Da die einzelnen Komponenten des Hadoop-Ökosystems fast ausschließlich in Java programmiert sind, verfügen sie über entsprechende APIs, die einen programmatischen Zugriff erlauben. Ausführlich wird erläutert, welche Versionen unterstützt werden und welche Tools eingesetzt werden können. Die Teilnehmer aktivieren in diesem Abschnitt ihren simulierten Hadoop-Cluster und überprüfen die Konfiguration für Java.

Hive & Java

Hive stellt eine Möglichkeit zur Verfügung, um auf strukturierte Daten in Hadoop mit SQL-ähnlichen Abfragen zugreifen zu können. Dazu wird Hive im Überblick vorgestellt. Die Teilnehmer evaluieren die Java-Schnittstelle für den programmatischen Zugriff auf Hive.

HBase & Java

HBase ist eine häufig eingesetzte NoSQL Datenbank in Hadoop, die in einem Überblick vorgestellt wird. Mit dem Java-API ist ein programmatischer Zugriff zur Datendefinition und Datenmanipulation möglich. Die Teilnehmer setzen einfache administrative Aufgabenstellungen in Java um und programmieren den Datenzugriff.

Kafka & Java

Kafka ist eine verteilte Messaging-Komponente für Hadoop. Aufbauend auf einem Überblick zu Kafka werden einfache Producer und Consumer in Java erstellt.

Spark & Java

Aufbauend auf einem Überblick zu Spark mit den Schwerpunkten Spark Core, Spark SQL, Spark MLLib und Spark Streaming) werden die Nutzungsmöglichkeiten von Java aufgezeigt und praktisch angewendet.

Praxis 1: Speicherung und Auswertung von Logdateien in Hadoop mit Java

In einem praxisorientierten Use Case wird die Erhebung, Speicherung und Auswertung von Loginformationen thematisiert und verschiedene Lösungsansätze für die Umsetzung auf Basis von Java diskutiert. Die Teilnehmer setzen diese Aufgabenstellung eigenständig um.

Praxis 2: Analyse von Textinhalten in Hadoop mit Java

In einem weiteren Use Case wird der Schwerpunkt auf die Analyse von Textinhalten gelegt und verschiedene Lösungsansätze für die Umsetzung auf Basis von Java diskutiert. Die Teilnehmer setzen diese Aufgabenstellung eigenständig um.

Schulungsunterlagen

nach Absprache
 

1.) Wählen Sie den Seminartyp:




2.) Wählen Sie Ort und Datum:

1.595,00 € Preis pro Person

spacing line1.850,20 € inkl. 16% MwSt
Verpflegung zzgl.
Seminarunterlagen zzgl.

Seminar jetzt anfragen Auf den Merkzettel
PDF IconPDF Icon

Christine Röppenack
Seminarberaterin
Telefon: 0911 6500 8 222
Email: info@it-schulungen.com
 

Diese Seite weiterempfehlen:

0
Merkzettel öffnen
0
Besuchsverlauf ansehen
IT-Schulungen.com Control Panel