Innerhalb dieses eintägigen Seminars erhalten Sie einen umfassenden Überblick über die Einsatzgebiete und lernen die Vorteile des Hadoop-Frameworks kennen. Dabei erfahren Sie auch, wie Sie mit Hadoop die Arbeit mit Massendaten hinsichtlich Kosten und Performance optimieren können. Im praktischen Teil haben Sie dann die Möglichkeit, anhand eines Fallbeispiels, die Implementierung einer Hadoop-basierten BigData-Lösung unter Berücksichtigung der Anforderungen und Kostenstrukturen zu planen.
Abschließend haben Sie genug grundlegende Kenntnisse über das Hadoop-Frameworke gewonnen, mit dem Sie eine kosten-/nutzenorientierte Konzeption und Planung für die Implementierung eines Hadoop-Clusters durchzuführen.
Grundlegende Kenntnisse über IT-Infrastruktur sind ausreichend
Theorie
Praxis
Abschluss
In diesem 3-tägigen Seminar geben wir Ihnen einen über Überblick über die Funktionsweise vom OpenSource MapReduce Framework Apache Hadoop. Dabei erfahren Sie, welche Vor- und Nachteile Hadoop besitzt, wie Sie Softwarelösungen für Hadoop entwickeln können, und welche ...
Innerhalb dieses viertätigen Seminars werden Sie lernen, wie Sie Lösungen mit Apache Hadoop Lösungen entwickeln können um große Datenmengen analysieren zu können.
Apache Hadoop zählt zu den populärsten Lösungen im Big Data-Umfeld. Die Architektur des Hadoop-Frameworks ermöglicht eine leistungsfähige und kosteneffiziente horizontale Skalierung über mehrere Rechnersysteme, was die Verarbeitung von Massendaten im Vergleich zu ...
Innerhalb dieser zweitätigen Schulung lernen Sie verschiedene Methoden und Praktiken zur Überwachung und Instandhaltung des Clusters kennen, sowie die Anbindung auf derzeit oft verwendete Monitoring-Lösungen wie Chukwa und Ambari. Anschließend lernen Sie, wie Sie einen ...