Agenda
Anforderungen und Voraussetzungen für die Echtzeit-Analyse
„Echtzeit“ ist nicht gleich „Echtzeit“. In diesem Abschnitt lernen die Anwender die Rahmen-bedingungen für sowie die Anforderungen an Echtzeit-Analysen kennen. Es werden verschiedene grundsätzliche Lösungsansätze vorgestellt.
Hadoop-Sandbox
In dem ersten Modul wird die Hadoop-Sandbox vorgestellt und gemeinsam evaluiert.
Überblick Hadoop Distributed File System (HDFS)
Das Kernstück von Hadoop ist ein leistungsstarkes, robustes und extrem skalierbares Dateisystem. In diesem Abschnitt werden die wichtigsten Elemente für den Datenaustausch mit HDFS evaluiert.
Überblick MapReduce
Die Java-basierte Klassenbibliothek für MapReduce ist der Maschinenraum von Hadoop. In diesem Abschnitt erhalten die Teilnehmer einen Überblick über das von Google eingeführte Programmier-modell für nebenläufige Berechnungen.
Aufbereitung von Daten unter Anwendung von MapReduce
In diesem Abschnitt evaluieren die Teilnehmer die Anwendung von MapReduce, um verschiedene Ausgangsdaten aufzubereiten.
Überblick Apache Storm und Apache Kafka
In diesem Abschnitt erhalten die Teilnehmer einen Überblick zu Apache Kafka und Apache Storm. Damit können in einem Hadoop-Cluster Ereignis-Daten persistiert und verarbeitet werden.
Anwendung von Apache Storm und Apache Kafka für die RealTime-Analyse
In diesem Abschnitt wenden die Teilnehmer Apache Kafka und Apache Storm an, um Ereignisdaten zeitnah zu verarbeiten.
Überblick Mahout
Mit Mahout steht in Hadoop ein Werkzeug für Data Mining Fragestellungen zur Verfügung. In diesem Abschnitt erhalten die Teilnehmer einen Überblick zu Mahout.
Anwendung von Mahout für RealTime-Analysen
In diesem Abschnitt wenden die Teilnehmer das Data Mining Werkzeug Mahout an, um Analysen auf den in Echtzeit generierten Daten durchzuführen.
Überblick zu Echtzeit (CEP) Komponenten
Die Teilnehmer erhalten einen Überblick zu Funktionsweise und Integration von Komponenten für das Complex Event Processing (CEP).
Anwendung von Echtzeit (CEP) Komponenten
In diesem Abschnitt evaluieren die Teilnehmer eine CEP-Komponente und integrieren diese in eine gemischte Hadoop- /DWH-Umgebung.
Überblick InMemory-Speicherkonzepte
Falls eine Integration in eine gemischte Hadoop-/DWH-Umgebung Umgebung erfolgt, ist es erforderlich, Ergebnisse zeitnah zu persistieren und für weitergehende Auswertungen verfügbar zu machen. In diesem Abschnitt lernen die Teilnehmer verschiedene Konzepte für die Persistierung von Daten im Speicher kennen.
Einsatz von InMemory-Speicherkonzepten für Echtzeit-Analysen
Die Teilnehmer evaluieren die Integration von InMemory-Konzepten in einer gemischten Hadoop- /DWH-Umgebung.
Zusammenfassung und Verallgemeinerung
Zum Abschluss werden die Ergebnisse zusammengefasst und die durchgeführten Übungen auf ihre Praxistauglichkeit untersucht sowie ein Vorgehensmodell für die RealTime-Analyse mit Hadoop abgeleitet.
Schulungsunterlagen
nach Absprache

Mit einer erfolgreichen Teilnahme an einer Schulung bei IT-Schulungen.com erwerben Sie nicht nur Wissen und Kompetenz, sondern erhalten auch zusätzlich zum Teilnahmezertifikat Ihr Open Badge als digitalen Kompetenznachweis.
Diesen erhalten Sie in Ihrem persönlichen und kostenlosen Mein IT-Schulungen.com Account. Ihre erworbenen Badges können Sie anschließend in sozialen Medien einbinden und teilen.
Infos zu den Vorteilen unter Badges