Innerhalb dieses eintägigen Seminars erhalten Sie einen umfassenden Überblick über die Einsatzgebiete und lernen die Vorteile des Hadoop-Frameworks kennen. Dabei erfahren Sie auch, wie Sie mit Hadoop die Arbeit mit Massendaten hinsichtlich Kosten und Performance optimieren können. Im praktischen Teil haben Sie dann die Möglichkeit, anhand eines Fallbeispiels, die Implementierung einer Hadoop-basierten BigData-Lösung unter Berücksichtigung der Anforderungen und Kostenstrukturen zu planen.
Abschließend haben Sie genug grundlegende Kenntnisse über das Hadoop-Frameworke gewonnen, mit dem Sie eine kosten-/nutzenorientierte Konzeption und Planung für die Implementierung eines Hadoop-Clusters durchzuführen.
Grundlegende Kenntnisse über IT-Infrastruktur sind ausreichend
Theorie
Praxis
Abschluss
In diesem 3-tägigen Seminar geben wir Ihnen einen über Überblick über die Funktionsweise vom OpenSource MapReduce Framework Apache Hadoop. Dabei erfahren Sie, welche Vor- und Nachteile Hadoop besitzt, wie Sie Softwarelösungen für Hadoop entwickeln können, und welche ...
Apache Hadoop zählt zu den populärsten Lösungen im Big Data-Umfeld. Die Architektur des Hadoop-Frameworks ermöglicht eine leistungsfähige und kosteneffiziente horizontale Skalierung über mehrere Rechnersysteme, was die Verarbeitung von Massendaten im Vergleich zu ...
Innerhalb dieser zweitätigen Schulung lernen Sie verschiedene Methoden und Praktiken zur Überwachung und Instandhaltung des Clusters kennen, sowie die Anbindung auf derzeit oft verwendete Monitoring-Lösungen wie Chukwa und Ambari. Anschließend lernen Sie, wie Sie einen ...
Innerhalb dieses viertätigen Seminars lernen Sie, wie Sie Hadoop an die MongoDB anbinden können. Dazu lernen Sie die einzelnen Datenverarbeitungsschritte sinnvoll zwischen den beiden Systemen aufteilen können, um ein ein bestmögliches Ergebnis (sowohl bei der ...