Header Background
Virtual Classroom Schulungen
 
 
 
seminar logo

Hadoop im Rechenzentrum

Seminardauer: 1 Tag

Ziele

Der Betrieb eines Hadoop-Clusters im Rechenzentrum bietet den Vorteil, dass man die volle Kontrolle über Hardware, Software und vor allem die Daten behält. Dem stehen im Vergleich zum Cloud-Betrieb in der Regel höhere Kosten je Leistungseinheit gegenüber. Zudem sind für den Betrieb im Rechenzentrum eine Reihe zusätzlicher Aktivitäten erforderlich.

In diesem Seminar erhalten die Teilnehmer einen Überblick über die erforderlichen Schritte, angefangen von der Planung über die Installation bis zum Betrieb und der Optimierung, um einen Hadoop-Cluster im Rechenzentrum zu etablieren.

Weitere Seminarinfos:

  • Schwierigkeitsgrad: 200
  • Darreichung: PowerPoint-Präsentation, Live-Demo.
  • Materialien: Präsentation in elektronischer Form (Format .PDF)
  • Credits: Nein (Credits für die Zertifizierung)

Zielgruppe

Entscheider, (IT-)Architekt, Projektmanager, Administratoren

Voraussetzungen

Praktische Erfahrung in der IT-Informationsverarbeitung sowie Grundkenntnisse über Big Data und Hadoop erforderlich.

Folgende Seminare und Kurse zur Auffrischung der Kenntnisse um Big Data können hilfreich sein:

1) Einstiegs-Seminare (Schwierigkeitsgrad 100)

a. Big Data Einstieg

b. Big Data Technologien, Strategien und Trends

c. Hortonworks HDP Einstieg

d. Cloudera CDH Einstieg

Folgende Kurse können darüber hinaus dieses Angebot ergänzen:

2) Überblicks-Seminare (Schwierigkeitsgrad 200)

a. Hadoop Datentechnologien Überblick

b. Big Data Architekturen Überblick

Agenda

Überblick zu den Hadoop-Distributionen von Cloudera und Hortonworks

Das Seminar startet mit einem kurzen Überblick zu den einzelnen Komponenten des Hadoop-Frameworks, ihrem aktuellen Entwicklungsstand und Ihrem Status in den beiden wichtigsten Hadoop-Distributionen von Cloudera und Hortonworks.

In einer Übersicht werden die beiden Hadoop-Distributionen gegenübergestellt und herausgearbeitet, worin die Vor- und Nachteile der einzelnen Angebote bestehen.

Grundsätzliche Hardware-Anforderungen

In Abhängigkeit von den jeweiligen Einsatz-Szenarien werden die grundsätzlichen Hardware-Anforderungen herausgearbeitet. Neben der Zahl der CPU-Kerne, der internen Busgeschwindigkeit und der Transfergeschwindigkeit stellt in zunehmendem Maße auch die Energiebilanz eine wichtige Entscheidungsgröße dar.

Am Ende ist jedoch alles eine Frage des Preises und so werden für eine grobe Orientierung Kosten-Leistungsklassen erstellt.

Sizing eines Hadoop-Clusters

Das Sizing eines Hadoop-Clusters wird im Wesentlichen von der Menge der zu speichernden Daten und des für die einzelnen Komponenten benötigten Hauptspeichers bestimmt. Daraus lässt sich die Zahl der benötigten Data Nodes und die Größe ihres nichtflüchtigen Speichers ableiten. Die Verteilung weiterer Komponenten des Frameworks auf diese und/oder zusätzliche Nodes gestattet eine Abschätzung des benötigten Hauptspeichers.

Das Sizing wird beispielhaft anhand eines Template demonstriert.

Installation oder Upgrade eines Hadoop-Clusters

Die Installation eines Hadoop-Clusters kann heute vollständig oder teilweise toolgestützt erfolgen. Gleiches trifft auf ein Upgrade zu, wenn eine ältere Hadoop-Version aktualisiert werden soll.

In diesem Modul werden die Voraussetzungen für die Installation erläutert und die Installationsschritte für die beiden Distributionen dargestellt.

Betrieb eines Hadoop-Clusters

Der Betrieb eines Hadoop-Clusters erfordert vielfältige Aktivitäten. Neben den klassischen administrativen Aufgaben wie beispielsweise das Backup wichtiger Daten, die Verwaltung von Berechtigungen sowie die Beseitigung von Engpässen ist zusätzliches Augenmerk auf den Ersatz oder Neustart ausgefallener Komponenten, die Vergrößerung des Clusters sowie eine hohe generelle Verfügbarkeit zu richten.

Es wird eine Übersicht der wichtigsten Aufgabenstellungen gegeben und ihre Umsetzung demonstriert.

Optimierung eines Hadoop-Clusters

Der Betrieb eines Hadoop-Clusters wird durch Hunderte von Parametern definiert. Die meisten dieser Parameter haben signifikanten Einfluss auf die Leistungsfähigkeit des Systems. Die bei der Installation gewählten Standard-Einstellungen sind für den initialen Start des Clusters hilfreich, in der Regel aber für die Betriebsphase mit individuellen Anforderungen suboptimal.

In diesem Modul wird dargestellt, wie der Cluster überwacht wird, wie die umfangreiche Protokollierung analysiert und welche Hilfsmittel zur Optimierung zur Verfügung stehen.

Schulungsunterlagen

nach Absprache

Hinweise

HADOOP Schulungen


Open Badges - Ihre digitalen Kompetenznachweise

Digital Skills Open Badges

Mit einer erfolgreichen Teilnahme an einer Schulung bei IT-Schulungen.com erwerben Sie nicht nur Wissen und Kompetenz, sondern erhalten auch zusätzlich zum Teilnahmezertifikat Ihr Open Badge als digitalen Kompetenznachweis.

Diesen erhalten Sie in Ihrem persönlichen und kostenlosen Mein IT-Schulungen.com Account. Ihre erworbenen Badges können Sie anschließend in sozialen Medien einbinden und teilen.

Infos zu den Vorteilen unter Badges

 

1.) Wählen Sie den Seminartyp:




2.) Wählen Sie Ort und Datum:

795,00 € Preis pro Person

spacing line946,05 € inkl. 19% MwSt
Verpflegung zzgl.
Seminarunterlagen zzgl.

Seminar jetzt anfragen Auf den Merkzettel
PDF IconPDF Icon

Digitale Zertifikate

Digital Skills Open Badge

Digitales Wissen & Kompetenzen erwerben & zeigen.

Mit Badges von IT-Schulungen erhalten Sie - neben dem Teilnahmezertifikat als PDF - ein Open Badge als Nachweis Ihrer Fertigkeiten mit Echtheitszertifikat.

Zeigen Sie Ihre Digital Skills mit Zertifikaten auf Plattformen wie LinkedIn, XING & Facebook, auf Ihrer Website und in E-Mail-Signaturen.

Mehr Infos zu Badges

 

Diese Seite weiterempfehlen:

0
Merkzettel öffnen
0
Besuchsverlauf ansehen
IT-Schulungen.com Control Panel
Warnung Icon Sie haben in Ihrem Browser Javascript deaktiviert! Bitte aktivieren Sie Javascript um eine korrekte Darstellung und Funktionsweise von IT-Schulungen zu gewährleisten. Warnung Icon