In dieser 3-tägigen Schulung "Big Data - Hands On für DWH Integration" liegt der Fokus auf der Lösungsfindung und Umsetzung. Die Teilnehmer werden durch praktische Aufgabenstellungen verschiedene Möglichkeiten der Bearbeitung diskutieren und wertvolle Erfahrungen in der Umsetzung sammeln. Die erzielten Ergebnisse und gewonnenen Erfahrungen werden im Anschluss verallgemeinert, um einen umfassenden Einblick in die Integration von Big Data in Data Warehouses zu ermöglichen.
In dem ersten Modul wird die Hadoop-Sandbox vorgestellt und gemeinsam evaluiert.
Das Kernstück von Hadoop ist ein leistungsstarkes, robustes und extrem skalierbares Dateisystem. In diesem Abschnitt werden die wichtigsten Elemente für den Datenaustausch mit HDFS evaluiert.
Sqoop ist ein Werkzeug, um Daten für Hadoop aus einer relationalen Quelle zu entladen oder aus Hadoop in ein RDBMS zu laden. In diesem Abschnitt erhalten die Teilnehmer einen Überblick zu sqoop.
In diesem Abschnitt evaluieren die Teilnehmer den Import sowie den Export von Daten aus der Shell sowie den Einsatz von Sqoop für den Datenaustausch mit einer relationalen Datenbank.
Die Java-basierte Klassenbibliothek für MapReduce ist der Maschinenraum von Hadoop. In diesem Abschnitt erhalten die Teilnehmer einen Überblick über das von Google eingeführte Programmier-modell für nebenläufige Berechnungen.
Mit Hive steht eine Schnittstelle zur Verfügung, die den Zugang zu strukturierten Daten in Hadoop mit einer SQL-ähnlichen Syntax erlaubt. In diesem Abschnitt erhalten die Teilnehmer einen Überblick zu hive.
In diesem Abschnitt evaluieren die Teilnehmer verschiedene praktische Fragestellungen wie beispielsweise die Verknüpfung mit externen Tabellen oder das Zusammensetzen von Strings.
Häufig besteht die Anforderung, eine Analyse über unterschiedliche Datenquellen durchzuführen. In diesem Abschnitt lernen die Teilnehmer verschiedene Möglichkeiten kennen, wie man das in Hadoop realisieren kann.
Basierend auf den Ausführungen des vorhergehenden Abschnittes evaluieren die Teilnehmer, wie man verschiedene Datensets in Hadoop miteinander verknüpft.
In diesem Abschnitt wenden die Teilnehmer Hadoop-Werkzeuge an, um Daten aus einem relationalen System zu archivieren.
In diesem Abschnitt wird evaluiert, wie ressourcenintensive Abschnitte eines DWH-Bewirtschaftungsprozesses nach Hadoop ausgelagert werden können.
Es wird ein Überblick zum Testen und Optimieren in Hadoop gegeben und welche Werkzeuge dafür zur Verfügung stehen.
In diesem Abschnitt sammeln die Teilnehmer erste Erfahrungen im Testen und Optimieren der erstellten Lösungen.
Zum Abschluss werden die Ergebnisse zusammengefasst und die durchgeführten Übungen auf ihre Praxistauglichkeit untersucht sowie ein Vorgehensmodell für die DWH-Integration von Hadoop abgeleitet.
Durch die erfolgreiche Teilnahme an einem Kurs bei IT-Schulungen.com erlangen Sie nicht nur Fachkenntnisse und Fähigkeiten, sondern bekommen zusätzlich zu Ihrem Teilnahmezertifikat ein Open Badge als digitalen Nachweis Ihrer Kompetenz.
Sie können diesen in Ihrem persönlichen und kostenfreien Mein IT-Schulungen.com Konto abrufen. Ihre verdienten Badges lassen sich problemlos in sozialen Netzwerken integrieren und weitergeben.
Anmeldungen vorhanden |