Warnung Icon Sie haben in Ihrem Browser Javascript deaktiviert! Bitte aktivieren Sie Javascript um eine korrekte Darstellung und Funktionsweise von IT-Schulungen zu gewährleisten. Warnung Icon
Header Background
Header Image
 
 
 
 

Betrieb, Optimierung und Instandhaltung eines Hadoop-Clusters

Seminardauer: 2 Tage
zur unverbindlichen Anfrage

Ziele

Apache Hadoop zählt zu den populärsten Lösungen im Big-Data-Umfeld. Die Architektur des Hadoop-Frameworks ermöglicht eine hochperformante und kosteneffiziente horizontale Skalierung über mehrere Rechnersysteme, was die Verarbeitung von Massendaten im Vergleich zu traditionellen Datenbanken beträchtlich beschleunigt. Die Einsatzszenarien sind vielfältig und reichen von der Verarbeitung von Rechnungs-, Finanz- und Unternehmensdaten, Logdateianalyse und WebAnalytics bis hin zur Aufbereitung von Sensordaten oder naturwissenschaftlichen Anwendungsgebieten. Durch die Vielfalt an Frameworks, Schnittstellen und Verwaltungswerkzeugen sowie der Möglichkeit des Einbaus von benutzerdefinierten Funktionen lässt sich eine Hadoop-basierte Lösung auf den jeweiligen Verwendungszweck anpassen. Ein unternehmenskritischer Hadoop-Cluster muss jedoch über zuverlässige Überwachungs- und Sicherungsmethoden verfügen, um das Risiko von Ausfällen und Datenverlusten zu verringern.

In dieser Schulung werden verschiedene Methoden und Praktiken zur Überwachung und Instandhaltung des Clusters vorgestellt, dabei wird auch auf die Anbindung an gängige Überwachungssysteme wie Ganglia und Nagios eingegangen. Anschließend wird die Vorgehensweise zur Sicherung und Wiederherstellung des Hadoop-Clusters und der darin enthaltenen Daten aufgezeigt. Zum Abschluss der Schulung werden die gelernten Inhalte zusammengefasst und die TeilnehmerInnen haben die Möglichkeit, spezifische Fragestellungen anzusprechen.

Nach Abschluss dieser Schulung sind die TeilnehmerInnen in der Lage, Überwachungsmechanismen für den Hadoop-Cluster zu implementieren, Wartungsaufgaben durchzuführen sowie den Cluster zu sichern, zu erweitern und zu skalieren. Außerdem erhalten sie ein umfassendes Verständnis über die verschiedenen Logdateien des Clusters.

Zielgruppe

Systemadministratoren

Voraussetzungen

  • Grundkenntnisse über die Installation und Infrastruktur des Hadoop Clusters (z.B. durch die Schulung Aufbau eines Hadoop-Clusters)
  • Fundierte Kenntnisse in der Administration von Unix-Systemen
  • Kenntnisse in Ganglia und/oder Nagios
  • XML-Kenntnisse

Agenda

Theoretischer Teil

  • Überblick über verschiedene Verwaltungssysteme von Hadoop
  • Überblick über die Überwachungsmöglichkeiten von Hadoop
  • Überblick über das Sicherungs- und Wiederherstellungskonzept

Praktischer Teil

  • Analyse der Logdateien des Hadoop-Clusters
  • Überwachung mit Chukwa und Ambari
  • Überwachung mit Ganglia
  • Überwachung mit Nagios
  • Sicherung und Wiederherstellung des Clusters
  • Optimierung

Abschluss

  • Zusammenfassung
  • Ausblick
  • Fragen und Antworten

Schulungsunterlagen

nach Absprache
 

1.) Wählen Sie den Seminartyp:




2.) Wählen Sie Ort und Datum:

1.495,00€ pro Person

spacing line1.779,05€ inkl. 19% MwSt
Verpflegung zzgl.
Seminarunterlagen zzgl.

Seminar jetzt anfragen Merkzettel Icon Auf den Merkzettel
PDF IconPDF Icon



Bitte wählen Sie die Anzahl der Teilnehmer aus, die Sie für die Schulung vorgesehen haben.

 

Europaweit unter den Besten
Unser Education Center wird seit 2012 beim jährlichen Leistungsaudit für das ITCR - International Training Center Rating® jeweils in der höchsten Leistungsstufe mit 5 von 5 Sternen ausgezeichnet.
Das bestätigt unseren langjährigen Premium-Status als Bildungsanbieter und beweist gleichzeitig, dass wir zu den besten Schulungshäusern in Europa gehören.

IT-Schulungen.com 5 Sterne

 Microsoft Learning Partner

Linux Foundation Training Partner

LPI Gold Approved Training Partner

 
 

Diese Seite weiterempfehlen:

Merkzettel Icon
0
Merkzettel öffnen
0
Besuchsverlauf ansehen
IT-Schulungen.com Control Panel

Zuletzt angesehen