(Schnell-)Einstieg in Big Data mit Hadoop

Seminarinformationen

Seminar - Ziel

In diesem 3-tägigen Seminar geben wir Ihnen einen über Überblick über die Funktionsweise vom OpenSource MapReduce Framework Apache Hadoop. Dabei erfahren Sie, welche Vor- und Nachteile Hadoop besitzt, wie Sie Softwarelösungen für Hadoop entwickeln können, und welche Einsatzszenarien sich daraus ergeben

Teilnehmer - Zielgruppe

Dieses Seminar richtet sich an

  • IT Architekten
  • Applikations Entwickler/Verantwortliche
  • Datenbank Entwickler- Administratoren

Kurs - Voraussetzungen

Um an diesem Seminar teilnehmen zu können, sollten Sie in folgenden Bereichen solide Grundkenntnisse vorweisen können:

  • Linux
  • Java
  • Scripting Grundkenntnisse (shell, python, perl)
  • SQL

Seminardauer

  • 3 Tage
  • 09:00 Uhr bis 17:00 Uhr

Schulungsunterlagen

  • nach Absprache

Seminar-Inhalt / Agenda

Theorie:

  • Entstehung von Hadoop
  • Wie funktioniert MapReduce? Was sind die Vor- und Nachteile?
  • Aufbau eines Hadoop Clusters (fertige Distributionen und Eigenbau, Hardware Anforderungen)
  • Funktion des HDFS (Hadoop Distributed File System)

Praxis

  • Hadoop Streaming (schreiben von Beispiel Jobs mit einfachen Shell Scripten)
  • Hive - ein Tool, das SQL ähnliche Anweisungen in skalierbare Hadoop Jobs übersetzt
  • Kurzvorstellung von weiteren Tools (z.B. HBase, Pig, ...)- Theorie: Java Entwicklung mit/für Hadoop
  • Beispiel: Ablösung eines überlasteten Datenbank Clusters durch Hadoop

Weitere Schulungen zu Thema Hadoop

Entwickeln von Lösungen mit Apache Hadoop

- u.a. in Nürnberg, Berlin, Stuttgart, München, Köln

Innerhalb dieses viertätigen Seminars werden Sie lernen, wie Sie Lösungen mit Apache Hadoop Lösungen entwickeln können um große Datenmengen analysieren zu können.

Microsoft Azure HDInsight: Einsatzszenarien und Kostenmodell

- u.a. in Nürnberg, Berlin, Stuttgart, München, Köln

Apache Hadoop zählt zu den populärsten Lösungen im Big Data-Umfeld. Die Architektur des Hadoop-Frameworks ermöglicht eine leistungsfähige und kosteneffiziente horizontale Skalierung über mehrere Rechnersysteme, was die Verarbeitung von Massendaten im Vergleich zu ...

Wartung eines Hadoop-Clusters

- u.a. in Hannover, Leipzig, München, Darmstadt, Offenbach

Innerhalb dieser zweitätigen Schulung lernen Sie verschiedene Methoden und Praktiken zur Überwachung und Instandhaltung des Clusters kennen, sowie die Anbindung auf derzeit oft verwendete Monitoring-Lösungen wie Chukwa und Ambari. Anschließend lernen Sie, wie Sie einen ...

Hadoop mit relationalen Datenbanken als Hybridmodell

- u.a. in Berlin, Hamburg, Wien, Heidelberg, Virtual Classroom

In diesem Seminar lernen Sie die Anbindung der Hadoop-Komponente Hive an relationale Datenbanken. Zunächst lernen Sie die verschiedenen Möglichkeiten Hive mit anderen Datenbanken und Systemen zu kombinieren sowie die möglichen Einsatzszenarien. Im praktischen Teil lernen Sie ...