(Schnell-)Einstieg in Big Data mit Hadoop

Seminarinformationen

Seminar - Ziel

In diesem 3-tägigen Seminar geben wir Ihnen einen über Überblick über die Funktionsweise vom OpenSource MapReduce Framework Apache Hadoop. Dabei erfahren Sie, welche Vor- und Nachteile Hadoop besitzt, wie Sie Softwarelösungen für Hadoop entwickeln können, und welche Einsatzszenarien sich daraus ergeben

Teilnehmer - Zielgruppe

Dieses Seminar richtet sich an

  • IT Architekten
  • Applikations Entwickler/Verantwortliche
  • Datenbank Entwickler- Administratoren

Kurs - Voraussetzungen

Um an diesem Seminar teilnehmen zu können, sollten Sie in folgenden Bereichen solide Grundkenntnisse vorweisen können:

  • Linux
  • Java
  • Scripting Grundkenntnisse (shell, python, perl)
  • SQL

Seminardauer

  • 3 Tage
  • 09:00 Uhr bis 17:00 Uhr

Schulungsunterlagen

  • nach Absprache

Seminar-Inhalt / Agenda

Theorie:

  • Entstehung von Hadoop
  • Wie funktioniert MapReduce? Was sind die Vor- und Nachteile?
  • Aufbau eines Hadoop Clusters (fertige Distributionen und Eigenbau, Hardware Anforderungen)
  • Funktion des HDFS (Hadoop Distributed File System)

Praxis

  • Hadoop Streaming (schreiben von Beispiel Jobs mit einfachen Shell Scripten)
  • Hive - ein Tool, das SQL ähnliche Anweisungen in skalierbare Hadoop Jobs übersetzt
  • Kurzvorstellung von weiteren Tools (z.B. HBase, Pig, ...)- Theorie: Java Entwicklung mit/für Hadoop
  • Beispiel: Ablösung eines überlasteten Datenbank Clusters durch Hadoop

Weitere Schulungen zu Thema Hadoop

Entwickeln von Lösungen mit Apache Hadoop

- u.a. in Nürnberg, Berlin, Stuttgart, München, Köln

Innerhalb dieses viertätigen Seminars werden Sie lernen, wie Sie Lösungen mit Apache Hadoop Lösungen entwickeln können um große Datenmengen analysieren zu können.

Microsoft Azure HDInsight: Einsatzszenarien und Kostenmodell

- u.a. in Nürnberg, Berlin, Stuttgart, München, Köln

Innerhalb dieses eintägigen Seminars erhalten Sie einen umfassenden Überblick über die Vorzüge und die Einsatzgebiete von Hadoop. Hierbei lernen Sie auch die Optimierung von Massendaten in Hinblick auf Kosten- und Leistungsoptimierung und haben zudem Gelegenheit eine ...

Hadoop mit relationalen Datenbanken als Hybridmodell

- u.a. in Berlin, Hannover, Stuttgart, Dresden, Koblenz

In diesem Seminar lernen Sie die Anbindung der Hadoop-Komponente Hive an relationale Datenbanken. Zunächst lernen Sie die verschiedenen Möglichkeiten Hive mit anderen Datenbanken und Systemen zu kombinieren sowie die möglichen Einsatzszenarien. Im praktischen Teil lernen Sie ...

Entwickeln mit Hadoop

- u.a. in Hamburg, Nürnberg, Paderborn, Essen, Freiburg

Innerhalb dieses Seminars erhalten Sie eine allgemeine Einführung in die Verwendung der wichtigsten Bestandteile von Hadoop. Hierzu lernen Sie zunächst die Grundlagen und den Aufbau eines Hadoop-Clusters sowie dessen Einsatzgebiete. Anschließend lernen Sie die wichtigsten ...