In dieser 3-tägigen Schulung "Hadoop und Java" lernen Sie praxisnah den Umgang mit unterschiedlichen Daten in einem Hadoop-Cluster. Der Kurs bietet eine Strukturierung der möglichen Datenhaltungen in Hadoop (HDFS, SQL, NoSQL) und stellt verschiedene Einsatzmöglichkeiten von Java vor, die praktisch angewendet werden. Zwei praxisorientierte Use Cases in ganzheitlichen Lösungsszenarien runden den Kurs ab und bieten Ihnen umfassende Einblicke in die Anwendung von Java in Hadoop-Projekten.
Die praktischen Übungen des Kurses werden entweder mit der Hadoop-Distribution von Cloudera oder Hortonworks durchgeführt, je nach Ankündigung für den Kurs. Der Fokus liegt darauf, Ihnen praktisches Know-how zu vermitteln und Sie für die Herausforderungen im Umgang mit unterschiedlichen Daten in Hadoop bestens vorzubereiten.
Die Schulung bietet Ihnen eine ausgewogene Mischung aus Theorie und Praxis in einer erstklassigen Lernumgebung. Profitieren Sie vom direkten Austausch mit unseren projekterfahrenen Trainern und anderen Teilnehmern, um Ihren Lernerfolg zu maximieren.
In diesem Abschnitt wird ein Überblick zu Hadoop gegeben und die in nachfolgenden Abschnitten vertieften Komponenten im Zusammenhang dargestellt. Ausführlich wird auf die verschiedenen Speichermöglichkeiten von Daten im Hadoop-Cluster eingegangen und die erforderlichen Schlussfolgerungen für das Vorgehen zur Datenanalyse gezogen.
Da die einzelnen Komponenten des Hadoop-Ökosystems fast ausschließlich in Java programmiert sind, verfügen sie über entsprechende APIs, die einen programmatischen Zugriff erlauben. Ausführlich wird erläutert, welche Versionen unterstützt werden und welche Tools eingesetzt werden können. Die Teilnehmer aktivieren in diesem Abschnitt ihren simulierten Hadoop-Cluster und überprüfen die Konfiguration für Java.
Hive stellt eine Möglichkeit zur Verfügung, um auf strukturierte Daten in Hadoop mit SQL-ähnlichen Abfragen zugreifen zu können. Dazu wird Hive im Überblick vorgestellt. Die Teilnehmer evaluieren die Java-Schnittstelle für den programmatischen Zugriff auf Hive.
HBase ist eine häufig eingesetzte NoSQL Datenbank in Hadoop, die in einem Überblick vorgestellt wird. Mit dem Java-API ist ein programmatischer Zugriff zur Datendefinition und Datenmanipulation möglich. Die Teilnehmer setzen einfache administrative Aufgabenstellungen in Java um und programmieren den Datenzugriff.
Kafka ist eine verteilte Messaging-Komponente für Hadoop. Aufbauend auf einem Überblick zu Kafka werden einfache Producer und Consumer in Java erstellt.
Aufbauend auf einem Überblick zu Spark mit den Schwerpunkten Spark Core, Spark SQL, Spark MLLib und Spark Streaming) werden die Nutzungsmöglichkeiten von Java aufgezeigt und praktisch angewendet.
In einem praxisorientierten Use Case wird die Erhebung, Speicherung und Auswertung von Loginformationen thematisiert und verschiedene Lösungsansätze für die Umsetzung auf Basis von Java diskutiert. Die Teilnehmer setzen diese Aufgabenstellung eigenständig um.
In einem weiteren Use Case wird der Schwerpunkt auf die Analyse von Textinhalten gelegt und verschiedene Lösungsansätze für die Umsetzung auf Basis von Java diskutiert. Die Teilnehmer setzen diese Aufgabenstellung eigenständig um.
Durch die erfolgreiche Teilnahme an einem Kurs bei IT-Schulungen.com erlangen Sie nicht nur Fachkenntnisse und Fähigkeiten, sondern bekommen zusätzlich zu Ihrem Teilnahmezertifikat ein Open Badge als digitalen Nachweis Ihrer Kompetenz.
Sie können diesen in Ihrem persönlichen und kostenfreien Mein IT-Schulungen.com Konto abrufen. Ihre verdienten Badges lassen sich problemlos in sozialen Netzwerken integrieren und weitergeben.