(Schnell-)Einstieg in Big Data mit Hadoop

Seminarinformationen

Seminar - Ziel

In diesem 3-tägigen Seminar geben wir Ihnen einen über Überblick über die Funktionsweise vom OpenSource MapReduce Framework Apache Hadoop. Dabei erfahren Sie, welche Vor- und Nachteile Hadoop besitzt, wie Sie Softwarelösungen für Hadoop entwickeln können, und welche Einsatzszenarien sich daraus ergeben

Teilnehmer - Zielgruppe

Dieses Seminar richtet sich an

  • IT Architekten
  • Applikations Entwickler/Verantwortliche
  • Datenbank Entwickler- Administratoren

Kurs - Voraussetzungen

Um an diesem Seminar teilnehmen zu können, sollten Sie in folgenden Bereichen solide Grundkenntnisse vorweisen können:

  • Linux
  • Java
  • Scripting Grundkenntnisse (shell, python, perl)
  • SQL

Seminardauer

  • 3 Tage
  • 09:00 Uhr bis 17:00 Uhr

Schulungsunterlagen

  • nach Absprache

Seminar-Inhalt / Agenda

Theorie:

  • Entstehung von Hadoop
  • Wie funktioniert MapReduce? Was sind die Vor- und Nachteile?
  • Aufbau eines Hadoop Clusters (fertige Distributionen und Eigenbau, Hardware Anforderungen)
  • Funktion des HDFS (Hadoop Distributed File System)

Praxis

  • Hadoop Streaming (schreiben von Beispiel Jobs mit einfachen Shell Scripten)
  • Hive - ein Tool, das SQL ähnliche Anweisungen in skalierbare Hadoop Jobs übersetzt
  • Kurzvorstellung von weiteren Tools (z.B. HBase, Pig, ...)- Theorie: Java Entwicklung mit/für Hadoop
  • Beispiel: Ablösung eines überlasteten Datenbank Clusters durch Hadoop

Weitere Schulungen zu Thema Hadoop

Microsoft Azure HDInsight: Einsatzszenarien und Kostenmodell

- u.a. in Nürnberg, Berlin, Stuttgart, München, Köln

In dieser 1-tägigen Schulung "Microsoft Azure HDInsight: Einsatzszenarien und Kostenmodell" erhalten Sie einen theoretischen Überblick über das Hadoop-Framework und dessen Einsatzszenarien im Big Data-Umfeld. Sie lernen die Vorteile von HDInsight im Vergleich zu ...

Aufbau eines Hadoop-Clusters

- u.a. in Nürnberg, Berlin, Stuttgart, München, Köln

In dieser 3-tägigen Schulung "Aufbau eines Hadoop-Clusters" lernen Sie Apache Hadoop und seine hochperformante, horizontale Skalierung kennen. Die Einsatzszenarien für Big Data werden besprochen. Die Schulung vermittelt den Aufbau der technischen Infrastruktur für ...

Betrieb, Optimierung und Instandhaltung eines Hadoop-Clusters

- u.a. in Hannover, Köln, Koblenz, Offenbach, Freiburg

In dieser 2-tägigen Schulung "Betrieb, Optimierung und Instandhaltung eines Hadoop-Clusters" lernen Sie die Architektur und vielfältigen Einsatzszenarien von Apache Hadoop kennen. Sie erfahren, wie Sie Hadoop-basierte Lösungen an spezifische Verwendungszwecke ...

Hybrider Einsatz von Hadoop mit MongoDB

- u.a. in Hannover, Köln, Koblenz, Darmstadt, Virtual Classroom

In dieser 2-tägigen Schulung "Hybrider Einsatz von Hadoop mit MongoDB" lernen Sie effektive Strategien für den kombinierten Einsatz der beiden Systeme kennen, um große Datenmengen effizient zu verarbeiten und Echtzeitabfragen für Benutzer zu ermöglichen. Sie ...