Das Seminar "Big Data: Technologien, Strategien & Trends" ist seitens des Herstellers nicht mehr verfügbar, bzw. abgekündigt. Wir können Ihnen diese Schulung in Form eines Workshops in Ihrem Unternehmen oder in unserem Schulungszentrum anbieten.
In dieser 2-tägigen Schulung "Big Data: Technologien, Strategien & Trends" lernen Sie einen umfassenden Überblick zu verschiedenen Themen, die in aktuellen IT-Überlegungen eine wichtige Rolle spielen. Im Unterschied zum Seminar "Big Data Einstieg", bei dem das quelloffene Software-Framework Hadoop im Mittelpunkt steht, liegt in diesem Seminar der Fokus auf zugrundeliegenden Technologien und Trends.
In diesem Abschnitt erfährt der Teilnehmer etwas über die Herausforderungen, vor denen die Informationstechnologie heute steht: Immer größere Datenmengen in immer kürzerer Zeit noch intelligenter zu analysieren. Diese Anforderungen werden im Detail erläutert und mit Beispielen aus der Praxis belegt.
In diesem Abschnitt erfährt der Teilnehmer etwas über die riesigen Datenmengen, die durch die Welt bewegt werden und darüber, dass nicht das Speichern, sondern das Suchen nach und Analysieren von Informationen das Problem darstellt und wie die Lösung für dieses Problem ausschaut: Die verteilte Verarbeitung der Daten.
Während vor zwei Jahrzehnten ein Monatsabschluss auf dem zentralen Computer einige Tage in Anspruch nahm, sind heute Auswertungen und Analysen sowie darauf basierende Reaktionen immer häufiger sofort erforderlich. Dies ist mit den klassischen Konzepten und Architekturen nicht umsetzbar.
Die Teilnehmer lernen modernen Konzepte und Strategien zur unmittelbaren Datenverarbeitung kennen.
Das klassische relationale Data Warehouse war die zentrale Instanz, dem sich die Wirklichkeit anzupassen hatte. Erforderliche Änderungen konnten oftmals nur mit großer Verzögerung implementiert werden.
In der agilen Welt von heute hat dieser Ansatz an Bedeutung verloren. Neue Konzepte wie NoSQL-Datenbanken und Data Lakes tragen den aktuellen Anforderungen Rechnung.
Daten aus den sozialen Netzwerken gewinnen für eine gesamtheitliche Bewertung immer mehr an Bedeutung. Leider lassen sich Zusammenhänge aus diesen Netzwerken mit den klassischen Möglichkeiten nicht besonders effizient abbilden.
Die Teilnehmer lernen Konzepte kennen, die sich für die Darstellung und Auswertung von Knoten und Kanten in Netzen besonders gut eignen.
Hinter dem Begriff „Cloud“ verbirgt sich ein Dienstangebot, welches standardisiert wahlweise Hardware, Software oder eine Plattform für die individuelle Nutzung bereitstellt.
Dem Vorteil der bedarfsorientierten und anpassbaren Nutzung stehen oftmals Sicherheitsbedenken entgegen. Die Teilnehmer machen sich mit verschiedenen Ansätzen der Cloud-Nutzung vertraut und wägen Pro und Contra ab.
Algorithmen übernehmen die Kontrolle. Immer häufiger kommen Konzepte zum Ansatz, in der die Software nicht nur lenkt, sondern „denkt“. Welches Potenzial steckt in selbstoptimierender Software, welche Gefahren lauern?
Die Teilnehmer lernen die Grundkonzepte von maschineller Intelligenz kennen und machen sich anhand von Beispielen mit den Möglichkeiten, aber auch mit den Risiken vertraut.
Egal, ob es im Jahr 2020 20 Milliarden oder 26 Milliarden vernetzter Objekte sein werden (hier gehen die Prognosen weit auseinander) – es wird eine gewaltige Anzahl sein. Jedes dieser Objekte wird Daten bereitstellen, manche einmalig wie der verbrauchte Joghurt, manche permanent wie die Überwachungskamera. Manche emittieren wenige Daten wie der Stromzähler, manche viele wie das immer autonomer agierende Fahrzeug.
Das Internet der Dinge stellt völlig neue Herausforderungen an die Informationstechnologie, die in diesem Abschnitt noch einmal herausgearbeitet werden.
Schöne neue Welt: Um den künftigen Anforderungen gerecht zu werden, bedarf es in der Regel einiger Veränderungen. Diese lassen sich jedoch nicht im Hauruck-Verfahren implementieren, sondern müssen sorgfältig geplant und umgesetzt werden, wenn sie erfolgreich sein sollen.
In diesem abschließenden Modul setzen sich die Teilnehmer – ausgehend von unterschiedliche Ausgangspositionen – mit verschiedenen Szenarien auseinander, um die künftigen Herausforderungen bestehen zu können
Überblick über die Funktionsweise vom OpenSource MapReduce Framework Apache Hadoop. Wie entwickelt man Softwarelösungen für Hadoop?, Was sind die Vor- und Nachteile von Hadoop? (vor allem auch im Vergleich mit relationalen Datenbanken), Welche (ganz neuen) ...
In den seltensten Fällen wird man „Big Data“ auf der grünen Wiese implementieren können. In der Mehrzahl ist man gefordert, diesen Ansatz in die bestehende dispositive Landschaft zu integrieren. Dieses zweitägige Seminar vermittelt einen Überblick (Tag 1) und ...
In dieser 3-tägigen Schulung "Aufbau eines Hadoop-Clusters" lernen Sie Apache Hadoop und seine hochperformante, horizontale Skalierung kennen. Die Einsatzszenarien für Big Data werden besprochen. Die Schulung vermittelt den Aufbau der technischen Infrastruktur für ...
In dieser eintägigen Schulung erhalten die Teilnehmer einen fundierten Überblick zum Themenfeld Big Data. Darüber hinaus werden Zusammenhänge und Grundlagen dieser neuen Ära digitaler Datenverarbeitung vermittelt.