Innerhalb dieses dreitägigen Seminars lernen Sie den kompletten Aufbau eines Hadoop-Clusters.
Nach der Vorstellung des Hadoop-Frameworks lernen Sie zunächst den Aufbau der notwendigen technischen Infrastruktur. Anschließend lernen Sie, wie Sie aus mehreren Maschinen bestehender Cluster mit seinen Basiskomponenten inklusive des Dateisystems HDFS aufbauen, konfigurieren und in Betrieb nehmen können. Dies beinhaltet auch die die Installation und Konfiguration einzelner Komponenten wie
Hier gehen wir auch speziell auf performancerelevante Faktoren der Infrastruktur, Installation und Konfiguration ein. Abschließend werden die behandelten Themen noch einmal zusammengefasst und die TeilnehmerInnen haben die Möglichkeit, spezifische Fragestellungen anzusprechen.
Nach dem Seminar sind die Sin der Lage eine optimale Infrastruktur für den Aufbau eines Hadoop-Clusters auszuwählen und aufzubauen sowie dessen Installation und Konfiguration
Systemadministratoren
Theorie
Praxis
Abschluss
In diesem 3-tägigen Seminar geben wir Ihnen einen über Überblick über die Funktionsweise vom OpenSource MapReduce Framework Apache Hadoop. Dabei erfahren Sie, welche Vor- und Nachteile Hadoop besitzt, wie Sie Softwarelösungen für Hadoop entwickeln können, und welche ...
Innerhalb dieses viertätigen Seminars werden Sie lernen, wie Sie Lösungen mit Apache Hadoop Lösungen entwickeln können um große Datenmengen analysieren zu können.
Innerhalb dieser zweitätigen Schulung lernen Sie verschiedene Methoden und Praktiken zur Überwachung und Instandhaltung des Clusters kennen, sowie die Anbindung auf derzeit oft verwendete Monitoring-Lösungen wie Chukwa und Ambari. Anschließend lernen Sie, wie Sie einen ...
In diesem Seminar lernen Sie die Anbindung der Hadoop-Komponente Hive an relationale Datenbanken. Zunächst lernen Sie die verschiedenen Möglichkeiten Hive mit anderen Datenbanken und Systemen zu kombinieren sowie die möglichen Einsatzszenarien. Im praktischen Teil lernen Sie ...