Wartung eines Hadoop-Clusters

Seminarinformationen

Seminar - Ziel

Innerhalb dieser zweitätigen Schulung lernen Sie verschiedene Methoden und Praktiken zur Überwachung und Instandhaltung des Clusters kennen, sowie die Anbindung auf derzeit oft verwendete Monitoring-Lösungen wie Chukwa und Ambari. Anschließend lernen Sie, wie Sie einen Hadoop-Cluster und dessen Daten sichern, bzw. wiederherstellen können. Am Ende des Kurses werden die vermittelten Inhalte zusammengefasst.

Nach dem Seminar sind Sie dann in der Lage, Überwachungsmechanismen für den Hadoop-Cluster zu implementieren, Wartungsaufgaben durchzuführen sowie den Cluster zu sichern, zu erweitern und zu skalieren. Außerdem erhalten sie ein umfassendes Verständnis über die verschiedenen Logdateien des Clusters.

Teilnehmer - Zielgruppe

Administratoren

Kurs - Voraussetzungen

  • Erste Erfahrungen mit Hadoop Cluster oder Besuch der Schulung "Aufbau des Hadoop-Clusters"
  • Gute Unix-Kenntnisse in Ganglia und/oder Nagios
  • XML-Kenntnisse

Seminardauer

  • 2 Tage
  • 09:00 Uhr bis 17:00 Uhr

Schulungsunterlagen

  • nach Absprache

Seminar-Inhalt / Agenda

Theorie

  • Welche Verwaltungssysteme gibt es?
  • Wie kann ich Hadoop überwachen?
  • Sichern und Wiederherstellung

Praxis

  • Log-Dateien auswerten
  • Überwachung mit Chukwa und Ambari
  • Überwachung mit Ganglia
  • Überwachung mit Nagios
  • Sichern und Wiedeherstellung

Abschluss

  • Zusammenfassung
  • Ausblick
  • Fragen und Antworten

Weitere Schulungen zu Thema Hadoop

(Schnell-)Einstieg in Big Data mit Hadoop

- u.a. in Nürnberg, Berlin, Stuttgart, München, Köln

In diesem 3-tägigen Seminar geben wir Ihnen einen über Überblick über die Funktionsweise vom OpenSource MapReduce Framework Apache Hadoop. Dabei erfahren Sie, welche Vor- und Nachteile Hadoop besitzt, wie Sie Softwarelösungen für Hadoop entwickeln können, und welche ...

Entwickeln von Lösungen mit Apache Hadoop

- u.a. in Nürnberg, Berlin, Stuttgart, München, Köln

Innerhalb dieses viertätigen Seminars werden Sie lernen, wie Sie Lösungen mit Apache Hadoop Lösungen entwickeln können um große Datenmengen analysieren zu können.

Hive-Programmierung

- u.a. in Frankfurt am Main, Leipzig, Wien, Düsseldorf, Heidelberg

Innerhalb dieses dreitätigen Seminars lernen Sie die Programmierung mit der Hadoop-Komponente Hive. Nach einer Einführung in das Hive-Framework werden Grundlagen über das Hive-Datawarehouse vermittelt. Danach lernen Sie die Hive-Abfrage und erweiterte Themen wie User Defined ...

Hadoop mit relationalen Datenbanken als Hybridmodell

- u.a. in Bremen, Frankfurt am Main, Dresden, Essen, Darmstadt

In diesem Seminar lernen Sie die Anbindung der Hadoop-Komponente Hive an relationale Datenbanken. Zunächst lernen Sie die verschiedenen Möglichkeiten Hive mit anderen Datenbanken und Systemen zu kombinieren sowie die möglichen Einsatzszenarien. Im praktischen Teil lernen Sie ...