Innerhalb dieses dreitägigen Seminars lernen Sie den kompletten Aufbau eines Hadoop-Clusters.
Nach der Vorstellung des Hadoop-Frameworks lernen Sie zunächst den Aufbau der notwendigen technischen Infrastruktur. Anschließend lernen Sie, wie Sie aus mehreren Maschinen bestehender Cluster mit seinen Basiskomponenten inklusive des Dateisystems HDFS aufbauen, konfigurieren und in Betrieb nehmen können. Dies beinhaltet auch die die Installation und Konfiguration einzelner Komponenten wie
Hier gehen wir auch speziell auf performancerelevante Faktoren der Infrastruktur, Installation und Konfiguration ein. Abschließend werden die behandelten Themen noch einmal zusammengefasst und die TeilnehmerInnen haben die Möglichkeit, spezifische Fragestellungen anzusprechen.
Nach dem Seminar sind die Sin der Lage eine optimale Infrastruktur für den Aufbau eines Hadoop-Clusters auszuwählen und aufzubauen sowie dessen Installation und Konfiguration
Systemadministratoren
Theorie
Praxis
Abschluss
In diesem 3-tägigen Seminar geben wir Ihnen einen über Überblick über die Funktionsweise vom OpenSource MapReduce Framework Apache Hadoop. Dabei erfahren Sie, welche Vor- und Nachteile Hadoop besitzt, wie Sie Softwarelösungen für Hadoop entwickeln können, und welche ...
Innerhalb dieses viertätigen Seminars werden Sie lernen, wie Sie Lösungen mit Apache Hadoop Lösungen entwickeln können um große Datenmengen analysieren zu können.
Innerhalb dieses viertätigen Seminars lernen Sie, wie Sie Hadoop an die MongoDB anbinden können. Dazu lernen Sie die einzelnen Datenverarbeitungsschritte sinnvoll zwischen den beiden Systemen aufteilen können, um ein ein bestmögliches Ergebnis (sowohl bei der ...
Innerhalb dieses eintägigen Seminars erhalten Sie einen umfassenden Überblick über die Einsatzgebiete und lernen die Vorteile des Hadoop-Frameworks kennen. Dabei erfahren Sie auch, wie Sie mit Hadoop die Arbeit mit Massendaten hinsichtlich Kosten und Performance optimieren ...