Entwickeln von Lösungen mit Apache Hadoop

Das Seminar "Entwickeln von Lösungen mit Apache Hadoop" ist seitens des Herstellers nicht mehr verfügbar, bzw. abgekündigt. Wir können Ihnen diese Schulung in Form eines Workshops in Ihrem Unternehmen oder in unserem Schulungszentrum anbieten.

Seminarinformationen

Seminar - Ziel

Innerhalb dieses viertätigen Seminars werden Sie lernen, wie Sie Lösungen mit Apache Hadoop Lösungen entwickeln können um große Datenmengen analysieren zu können.

Teilnehmer - Zielgruppe

Dieses Seminar richtet sich an BI-Entwickler, BI-Consultants und Daten-Analysten, deren Daten in Hadoop gespeichert werden.

Kurs - Voraussetzungen

Für dieses Seminar sollten über solide BI-Kenntnisse und gute SQL-Kenntnisse verfügen. Kenntnisse der Programmiergrundlagen sind hilfreich, werden jedoch nicht vorausgesetzt.

Seminardauer

  • 4 Tage
  • 09:00 Uhr bis 17:00 Uhr

Schulungsunterlagen

  • nach Absprache

Seminar-Inhalt / Agenda

Über Big Data

  • Big Data - Einführung
  • Wie entstehen die Datenmengen
  • Big Data im Business

Einführung in Hadoop

  • Einführung
  • Die Hadoop Infrastruktur
  • Daten in Hadoop abspeichern

HDFS und MadReduce

  • HDFS
  • MapReduce
  • MapReduce Applikationen entwickeln

Erweiterungen von Hadoop

  • HIVE
  • PIG

Hadoop in der Cloud

Weitere Schulungen zu Thema Hadoop

(Schnell-)Einstieg in Big Data mit Hadoop

- u.a. in Nürnberg, Berlin, Stuttgart, München, Köln

In diesem 3-tägigen Seminar geben wir Ihnen einen über Überblick über die Funktionsweise vom OpenSource MapReduce Framework Apache Hadoop. Dabei erfahren Sie, welche Vor- und Nachteile Hadoop besitzt, wie Sie Softwarelösungen für Hadoop entwickeln können, und welche ...

Microsoft Azure HDInsight: Einsatzszenarien und Kostenmodell

- u.a. in Nürnberg, Berlin, Stuttgart, München, Köln

Apache Hadoop zählt zu den populärsten Lösungen im Big Data-Umfeld. Die Architektur des Hadoop-Frameworks ermöglicht eine leistungsfähige und kosteneffiziente horizontale Skalierung über mehrere Rechnersysteme, was die Verarbeitung von Massendaten im Vergleich zu ...

Hadoop mit MongoDB als Hybridmodell

- u.a. in Berlin, Hamburg, Köln, Leipzig, München

Innerhalb dieses viertätigen Seminars lernen Sie, wie Sie Hadoop an die MongoDB anbinden können. Dazu lernen Sie die einzelnen Datenverarbeitungsschritte sinnvoll zwischen den beiden Systemen aufteilen können, um ein ein bestmögliches Ergebnis (sowohl bei der ...

Hadoop Einsatzszenarien

- u.a. in Berlin, Leipzig, Nürnberg, Zürich, Düsseldorf

Innerhalb dieses eintägigen Seminars erhalten Sie einen umfassenden Überblick über die Einsatzgebiete und lernen die Vorteile des Hadoop-Frameworks kennen. Dabei erfahren Sie auch, wie Sie mit Hadoop die Arbeit mit Massendaten hinsichtlich Kosten und Performance optimieren ...