(Schnell-)Einstieg in Big Data mit Hadoop

Seminarinformationen

Seminar - Ziel

In diesem 3-tägigen Seminar geben wir Ihnen einen über Überblick über die Funktionsweise vom OpenSource MapReduce Framework Apache Hadoop. Dabei erfahren Sie, welche Vor- und Nachteile Hadoop besitzt, wie Sie Softwarelösungen für Hadoop entwickeln können, und welche Einsatzszenarien sich daraus ergeben

Teilnehmer - Zielgruppe

Dieses Seminar richtet sich an

  • IT Architekten
  • Applikations Entwickler/Verantwortliche
  • Datenbank Entwickler- Administratoren

Kurs - Voraussetzungen

Um an diesem Seminar teilnehmen zu können, sollten Sie in folgenden Bereichen solide Grundkenntnisse vorweisen können:

  • Linux
  • Java
  • Scripting Grundkenntnisse (shell, python, perl)
  • SQL

Seminardauer

  • 3 Tage
  • 09:00 Uhr bis 17:00 Uhr

Schulungsunterlagen

  • nach Absprache

Seminar-Inhalt / Agenda

Theorie:

  • Entstehung von Hadoop
  • Wie funktioniert MapReduce? Was sind die Vor- und Nachteile?
  • Aufbau eines Hadoop Clusters (fertige Distributionen und Eigenbau, Hardware Anforderungen)
  • Funktion des HDFS (Hadoop Distributed File System)

Praxis

  • Hadoop Streaming (schreiben von Beispiel Jobs mit einfachen Shell Scripten)
  • Hive - ein Tool, das SQL ähnliche Anweisungen in skalierbare Hadoop Jobs übersetzt
  • Kurzvorstellung von weiteren Tools (z.B. HBase, Pig, ...)- Theorie: Java Entwicklung mit/für Hadoop
  • Beispiel: Ablösung eines überlasteten Datenbank Clusters durch Hadoop

Weitere Schulungen zu Thema Hadoop

Microsoft Azure HDInsight: Einsatzszenarien und Kostenmodell

- u.a. in Nürnberg, Berlin, Stuttgart, München, Köln

Apache Hadoop zählt zu den populärsten Lösungen im Big Data-Umfeld. Die Architektur des Hadoop-Frameworks ermöglicht eine leistungsfähige und kosteneffiziente horizontale Skalierung über mehrere Rechnersysteme, was die Verarbeitung von Massendaten im Vergleich zu ...

Aufbau des Hadoop-Clusters

- u.a. in Nürnberg, Berlin, Stuttgart, München, Köln

Innerhalb dieses dreitägigen Seminars lernen Sie den kompletten Aufbau eines Hadoop-Clusters. Nach der Vorstellung des Hadoop-Frameworks lernen Sie zunächst den Aufbau der notwendigen technischen Infrastruktur. Anschließend lernen Sie, wie Sie aus mehreren Maschinen ...

Wartung eines Hadoop-Clusters

- u.a. in Hannover, München, Essen, Mannheim, Darmstadt

Innerhalb dieser zweitätigen Schulung lernen Sie verschiedene Methoden und Praktiken zur Überwachung und Instandhaltung des Clusters kennen, sowie die Anbindung auf derzeit oft verwendete Monitoring-Lösungen wie Chukwa und Ambari. Anschließend lernen Sie, wie Sie einen ...

Hadoop Einsatzszenarien

- u.a. in Hannover, Hamburg, Essen, Heidelberg, Virtual Classroom

Innerhalb dieses eintägigen Seminars erhalten Sie einen umfassenden Überblick über die Einsatzgebiete und lernen die Vorteile des Hadoop-Frameworks kennen. Dabei erfahren Sie auch, wie Sie mit Hadoop die Arbeit mit Massendaten hinsichtlich Kosten und Performance optimieren ...