Hadoop mit MongoDB als Hybridmodell

Seminarinformationen

Seminar - Ziel

Innerhalb dieses viertätigen Seminars lernen Sie, wie Sie Hadoop an die MongoDB anbinden können. Dazu lernen Sie die einzelnen Datenverarbeitungsschritte sinnvoll zwischen den beiden Systemen aufteilen können, um ein ein bestmögliches Ergebnis (sowohl bei der Datenverarbeitung als auch beim Abrufen der Ergebnisdaten) zu erzielen. Des Weiteren lernen Sie mehrere Möglichkeiten des Datenabrufs, die Sie dann in einem eigenen kleinen Projekt umsetzen können.

Nach dem Seminar sind Sie dann in der Lage Strategien für die Verarbeitung großer Datenmengen Hadoop und MongoDB zu planen und die Lösung auch selbstständig umsetzen zu können.

Teilnehmer - Zielgruppe

  • Datenbankentwickler
  • Softwareentwickler
  • Business Intelligence Entwickler
  • Datawarehouse-Experten

Kurs - Voraussetzungen

  • IT-Grundkenntnisse
  • Erste Kenntnisse im Umgang mit der MongoDB
  • Besuch des Seminars Entwicklung mit Hadoop oder vergleichbare Kenntnisse
  • Besuch des Seminars Programmierung mit Hive oder vergleichbare Kenntnisse
  • Besuch des Seminars Programmierung mit Pig oder vergleichbare Kenntnisse

    Seminardauer

    • 2 Tage
    • 09:00 Uhr bis 17:00 Uhr

    Schulungsunterlagen

    • nach Absprache

    Seminar-Inhalt / Agenda

    Theorie

    • Kombinationsmöglichkeiten von Hadoop, MongoDB und BI-Systemen
    • Einsatzszenarien im BigData-Umfeld
    • Hybridlösung vs traditionelle Lösungen

    Praxis

    • MongoDB Konnekoren installieren
    • Rohdaten in der MongoDB einlesen
    • Datenübertragung (MongoDB nach Hadoop)
    • Aggregieren von Daten
    • Rückspielen der aggregierten Daten in MongoDB
    • Auf aggregierte Daten in MongoDB zugreifen
    • Ein eigenes Beispielprojekt umsetzen

    Abschluss

    • Zusammenfassung
    • Ausblick
    • Fragen und Antworten

    Weitere Schulungen zu Thema Hadoop

    (Schnell-)Einstieg in Big Data mit Hadoop

    - u.a. in Nürnberg, Berlin, Stuttgart, München, Köln

    In diesem 3-tägigen Seminar geben wir Ihnen einen über Überblick über die Funktionsweise vom OpenSource MapReduce Framework Apache Hadoop. Dabei erfahren Sie, welche Vor- und Nachteile Hadoop besitzt, wie Sie Softwarelösungen für Hadoop entwickeln können, und welche ...

    Entwickeln von Lösungen mit Apache Hadoop

    - u.a. in Nürnberg, Berlin, Stuttgart, München, Köln

    Innerhalb dieses viertätigen Seminars werden Sie lernen, wie Sie Lösungen mit Apache Hadoop Lösungen entwickeln können um große Datenmengen analysieren zu können.

    Microsoft Azure HDInsight: Einsatzszenarien und Kostenmodell

    - u.a. in Frankfurt am Main, Hannover, Hamburg, Leipzig, Essen

    Apache Hadoop zählt zu den populärsten Lösungen im Big Data-Umfeld. Die Architektur des Hadoop-Frameworks ermöglicht eine leistungsfähige und kosteneffiziente horizontale Skalierung über mehrere Rechnersysteme, was die Verarbeitung von Massendaten im Vergleich zu ...

    Hadoop mit relationalen Datenbanken als Hybridmodell

    - u.a. in Frankfurt am Main, Hamburg, Leipzig, Düsseldorf, Darmstadt

    In diesem Seminar lernen Sie die Anbindung der Hadoop-Komponente Hive an relationale Datenbanken. Zunächst lernen Sie die verschiedenen Möglichkeiten Hive mit anderen Datenbanken und Systemen zu kombinieren sowie die möglichen Einsatzszenarien. Im praktischen Teil lernen Sie ...