Wartung eines Hadoop-Clusters

Seminarinformationen

Seminar - Ziel

Innerhalb dieser zweitätigen Schulung lernen Sie verschiedene Methoden und Praktiken zur Überwachung und Instandhaltung des Clusters kennen, sowie die Anbindung auf derzeit oft verwendete Monitoring-Lösungen wie Chukwa und Ambari. Anschließend lernen Sie, wie Sie einen Hadoop-Cluster und dessen Daten sichern, bzw. wiederherstellen können. Am Ende des Kurses werden die vermittelten Inhalte zusammengefasst.

Nach dem Seminar sind Sie dann in der Lage, Überwachungsmechanismen für den Hadoop-Cluster zu implementieren, Wartungsaufgaben durchzuführen sowie den Cluster zu sichern, zu erweitern und zu skalieren. Außerdem erhalten sie ein umfassendes Verständnis über die verschiedenen Logdateien des Clusters.

Teilnehmer - Zielgruppe

Administratoren

Kurs - Voraussetzungen

  • Erste Erfahrungen mit Hadoop Cluster oder Besuch der Schulung "Aufbau des Hadoop-Clusters"
  • Gute Unix-Kenntnisse in Ganglia und/oder Nagios
  • XML-Kenntnisse

Seminardauer

  • 2 Tage
  • 09:00 Uhr bis 17:00 Uhr

Schulungsunterlagen

  • nach Absprache

Seminar-Inhalt / Agenda

Theorie

  • Welche Verwaltungssysteme gibt es?
  • Wie kann ich Hadoop überwachen?
  • Sichern und Wiederherstellung

Praxis

  • Log-Dateien auswerten
  • Überwachung mit Chukwa und Ambari
  • Überwachung mit Ganglia
  • Überwachung mit Nagios
  • Sichern und Wiedeherstellung

Abschluss

  • Zusammenfassung
  • Ausblick
  • Fragen und Antworten

Weitere Schulungen zu Thema Hadoop

(Schnell-)Einstieg in Big Data mit Hadoop

- u.a. in Nürnberg, Berlin, Stuttgart, München, Köln

In diesem 3-tägigen Seminar geben wir Ihnen einen über Überblick über die Funktionsweise vom OpenSource MapReduce Framework Apache Hadoop. Dabei erfahren Sie, welche Vor- und Nachteile Hadoop besitzt, wie Sie Softwarelösungen für Hadoop entwickeln können, und welche ...

Entwickeln von Lösungen mit Apache Hadoop

- u.a. in Nürnberg, Berlin, Stuttgart, München, Köln

Innerhalb dieses viertätigen Seminars werden Sie lernen, wie Sie Lösungen mit Apache Hadoop Lösungen entwickeln können um große Datenmengen analysieren zu können.

Hadoop mit MongoDB als Hybridmodell

- u.a. in Stuttgart, Düsseldorf, Essen, Varaždin, Freiburg

Innerhalb dieses viertätigen Seminars lernen Sie, wie Sie Hadoop an die MongoDB anbinden können. Dazu lernen Sie die einzelnen Datenverarbeitungsschritte sinnvoll zwischen den beiden Systemen aufteilen können, um ein ein bestmögliches Ergebnis (sowohl bei der ...

Entwickeln mit Hadoop

- u.a. in Bremen, Frankfurt am Main, München, Dresden, Düsseldorf

Innerhalb dieses Seminars erhalten Sie eine allgemeine Einführung in die Verwendung der wichtigsten Bestandteile von Hadoop. Hierzu lernen Sie zunächst die Grundlagen und den Aufbau eines Hadoop-Clusters sowie dessen Einsatzgebiete. Anschließend lernen Sie die wichtigsten ...