Wartung eines Hadoop-Clusters

Seminarinformationen

Seminar - Ziel

Innerhalb dieser zweitätigen Schulung lernen Sie verschiedene Methoden und Praktiken zur Überwachung und Instandhaltung des Clusters kennen, sowie die Anbindung auf derzeit oft verwendete Monitoring-Lösungen wie Chukwa und Ambari. Anschließend lernen Sie, wie Sie einen Hadoop-Cluster und dessen Daten sichern, bzw. wiederherstellen können. Am Ende des Kurses werden die vermittelten Inhalte zusammengefasst.

Nach dem Seminar sind Sie dann in der Lage, Überwachungsmechanismen für den Hadoop-Cluster zu implementieren, Wartungsaufgaben durchzuführen sowie den Cluster zu sichern, zu erweitern und zu skalieren. Außerdem erhalten sie ein umfassendes Verständnis über die verschiedenen Logdateien des Clusters.

Teilnehmer - Zielgruppe

Administratoren

Kurs - Voraussetzungen

  • Erste Erfahrungen mit Hadoop Cluster oder Besuch der Schulung "Aufbau des Hadoop-Clusters"
  • Gute Unix-Kenntnisse in Ganglia und/oder Nagios
  • XML-Kenntnisse

Seminardauer

  • 2 Tage
  • 09:00 Uhr bis 17:00 Uhr

Schulungsunterlagen

  • nach Absprache

Seminar-Inhalt / Agenda

Theorie

  • Welche Verwaltungssysteme gibt es?
  • Wie kann ich Hadoop überwachen?
  • Sichern und Wiederherstellung

Praxis

  • Log-Dateien auswerten
  • Überwachung mit Chukwa und Ambari
  • Überwachung mit Ganglia
  • Überwachung mit Nagios
  • Sichern und Wiedeherstellung

Abschluss

  • Zusammenfassung
  • Ausblick
  • Fragen und Antworten

Weitere Schulungen zu Thema Hadoop

(Schnell-)Einstieg in Big Data mit Hadoop

- u.a. in Nürnberg, Berlin, Stuttgart, München, Köln

In diesem 3-tägigen Seminar geben wir Ihnen einen über Überblick über die Funktionsweise vom OpenSource MapReduce Framework Apache Hadoop. Dabei erfahren Sie, welche Vor- und Nachteile Hadoop besitzt, wie Sie Softwarelösungen für Hadoop entwickeln können, und welche ...

Entwickeln von Lösungen mit Apache Hadoop

- u.a. in Nürnberg, Berlin, Stuttgart, München, Köln

Innerhalb dieses viertätigen Seminars werden Sie lernen, wie Sie Lösungen mit Apache Hadoop Lösungen entwickeln können um große Datenmengen analysieren zu können.

Microsoft Azure HDInsight: Einsatzszenarien und Kostenmodell

- u.a. in Bremen, Frankfurt am Main, Leipzig, Essen, Koblenz

Innerhalb dieses eintägigen Seminars erhalten Sie einen umfassenden Überblick über die Vorzüge und die Einsatzgebiete von Hadoop. Hierbei lernen Sie auch die Optimierung von Massendaten in Hinblick auf Kosten- und Leistungsoptimierung und haben zudem Gelegenheit eine ...

Hive-Programmierung

- u.a. in Hamburg, Essen, Heidelberg, Koblenz, Mannheim

Innerhalb dieses dreitätigen Seminars lernen Sie die Programmierung mit der Hadoop-Komponente Hive. Nach einer Einführung in das Hive-Framework werden Grundlagen über das Hive-Datawarehouse vermittelt. Danach lernen Sie die Hive-Abfrage und erweiterte Themen wie User Defined ...