Big Data Einstieg
Ziele
In dieser 2-tägigen Schulung "Big Data Einstieg" erhalten Sie einen umfassenden Überblick zu einem Thema, das in der aktuellen IT-Landschaft von großer Bedeutung ist. Das Seminar präsentiert verschiedene Lösungsansätze und stellt das quelloffene Software-Framework Hadoop in den Fokus.
Sie lernen die einzelnen Komponenten von Hadoop und deren Zusammenwirken kennen, während mögliche Einsatzszenarien skizziert werden. Besonderes Augenmerk liegt auf aktuellen Entwicklungsständen und sich abzeichnenden Trends, da die Entwickler-Szene sehr dynamisch ist.
Im Gegensatz zum Seminar "Big Data Technologien, Strategien und Trends", das sich auf aktuelle Technologien und Trends konzentriert, liegt der Schwerpunkt dieses Seminars auf der Vorstellung und Demonstration von Hadoop.
Zielgruppe
- Entscheider
- (IT-)Architekt
- Projektmanager
- (Fach-)Anwender
- Data Science
- Data Analytiker
Voraussetzungen
- Praktische Erfahrung in der IT-Informationsverarbeitung
Lernmethodik
Die Schulung bietet Ihnen eine ausgewogene Mischung aus Theorie und Praxis in einer erstklassigen Lernumgebung. Profitieren Sie vom direkten Austausch mit unseren projekterfahrenen Trainern und anderen Teilnehmern, um Ihren Lernerfolg zu maximieren.
Agenda
Einführung
In diesem Abschnitt erfährt der Teilnehmer etwas über die riesigen Datenmengen, die durch die Welt bewegt werden und darüber, dass nicht das Speichern, sondern das Suchen nach und Analysieren von Informationen das Problem ist und wie die Lösung für das Problem ausschaut.
Big Data – Supercomputer oder “Commodity Hardware”?
Die Lösung des Problems heißt verteilte Verarbeitung. Dafür gibt es unterschiedliche Ansätze, die sich in Leistungsfähigkeit und Kosten unterscheiden. Mit dem quelloffenen Ansatz für ein verteiltes Software-System auf Standard-Hardwarekomponenten hat sich Hadoop innerhalb weniger Jahre zum defacto-Standard entwickelt. Hier erhalten die Teilnehmer einen allerersten Überblick zu Hadoop.
Hadoop Distributed File System (HDFS)
Das Kernstück von Hadoop ist ein leistungsstarkes, robustes und extrem skalierbares Dateisystem. In diesem Abschnitt erfahren Teilnehmer das Wichtigste über HDFS.
Es wird die Kommunikation von und mit HDFS demonstriert.
YARN
Die massive Parallelisierung in Hadoop erfordert eine leistungsfähige Steuerung. Diese war in der ersten Version limitiert und primär auf MapReduce fokussiert. Die aktuelle Version weist deutliche Verbesserungen auf, die in diesem Abschnitt vorgestellt werden.
MapReduce
Die Java-basierte Klassenbibliothek für MapReduce ist der Maschinenraum von Hadoop. In diesem Abschnitt lernen die Teilnehmer das von Google eingeführte Programmiermodell für nebenläufige Berechnungen näher kennen.
Es wird die Anwendung von MapReduce demonstriert.
Hive
Mit Hive steht eine Schnittstelle zur Verfügung, die den Zugang zu strukturierten Daten in Hadoop mit einer SQL-ähnlichen Syntax erlaubt. In diesem Abschnitt lernen die Teilnehmer die Möglichkeiten und Grenzen von Hive kennen.
Es wird die Anwendung von Hive demonstriert.
Pig
Pig ist ein Mechanismus, um stapelorientierte Datenfluss-Operationen in Hadoop auszuführen und wird oft in Verbindung mit Hive eingesetzt. In diesem Abschnitt lernen die Teilnehmer die Möglichkeiten von Pig kennen.
Es wird die Anwendung von Pig demonstriert.
HBase
HBase ist eine Datenbank für Hadoop, allerdings keine im klassisch relationalen Sinne. In diesem Abschnitt erfahren die Teilnehmer Wissenswertes über HBase und die möglichen Stolperfallen, die dem in der relationalen Welt erfahrenen Anwender begegnen können.
Es wird die Anwendung von HBase demonstriert.
Spark
Spark ist eine universelle und leistungsfähige Umgebung für die verteilte Verarbeitung. Mit Hilfe von Spark können sowohl strukturierte Daten mit SQL-Kommandos abgefragt, Auswertungen nahe Echtzeit durchgeführt und Aufgabenstellungen für das Data Mining gelöst werden.
Es wird die Anwendung von Spark, Spark SQL und Spark MLLib demonstriert.
Weitere Komponenten
Hadoop ist ein Framework und unter dem Schirm der Apache Foundation existieren eine Vielzahl von Projekten mit zum Teil konkurrierenden Lösungen. In diesem Abschnitt erhalten die Teilnehmer einen Überblick über weitere interessante Komponenten wie beispielsweise Kafka, Storm, Kudu, Impala und andere.
Es wird die Anwendung weiterer Komponenten demonstriert .
Hard- und Software für Hadoop
Hadoop stellt keine „besonderen“ Hardware-Anforderungen. Das stimmt und stimmt wiederum auch nicht. In diesem Abschnitt wird der scheinbare Widerspruch aufgeklärt. Darüber hinaus werden die beiden wichtigsten Hadoop-Distributionen übersichtlich vorgestellt und die Unterschiede beleuchtet.
Es wird eine der beiden Verwaltungskonsolen Ambari (Hortonworks) und Cloudera Manager (Cloudera) demonstriert.
Anwendungsbeispiele für Hadoop
Und wozu der ganze Aufwand? In diesem abschließenden Abschnitt lernen die Teilnehmer mögliche Anwendungsfälle für Big Data kennen.
Open Badge - Ihr digitaler Kompetenznachweis
Durch die erfolgreiche Teilnahme an einem Kurs bei IT-Schulungen.com erlangen Sie nicht nur Fachkenntnisse und Fähigkeiten, sondern bekommen zusätzlich zu Ihrem Teilnahmezertifikat ein Open Badge als digitalen Nachweis Ihrer Kompetenz.
Sie können diesen in Ihrem persönlichen und kostenfreien Mein IT-Schulungen.com Konto abrufen. Ihre verdienten Badges lassen sich problemlos in sozialen Netzwerken integrieren und weitergeben.
Kurz vor Durchführung
Termin | Standort | Aktion |
---|---|---|
05.02. - 06.02.2025 | Hamburg | |
05.03. - 06.03.2025 | Köln | |
14.04. - 15.04.2025 | Nürnberg | |
08.05. - 09.05.2025 | München |