Wartung eines Hadoop-Clusters

Seminarinformationen

Seminar - Ziel

Innerhalb dieser zweitätigen Schulung lernen Sie verschiedene Methoden und Praktiken zur Überwachung und Instandhaltung des Clusters kennen, sowie die Anbindung auf derzeit oft verwendete Monitoring-Lösungen wie Chukwa und Ambari. Anschließend lernen Sie, wie Sie einen Hadoop-Cluster und dessen Daten sichern, bzw. wiederherstellen können. Am Ende des Kurses werden die vermittelten Inhalte zusammengefasst.

Nach dem Seminar sind Sie dann in der Lage, Überwachungsmechanismen für den Hadoop-Cluster zu implementieren, Wartungsaufgaben durchzuführen sowie den Cluster zu sichern, zu erweitern und zu skalieren. Außerdem erhalten sie ein umfassendes Verständnis über die verschiedenen Logdateien des Clusters.

Teilnehmer - Zielgruppe

Administratoren

Kurs - Voraussetzungen

  • Erste Erfahrungen mit Hadoop Cluster oder Besuch der Schulung "Aufbau des Hadoop-Clusters"
  • Gute Unix-Kenntnisse in Ganglia und/oder Nagios
  • XML-Kenntnisse

Seminardauer

  • 2 Tage
  • 09:00 Uhr bis 17:00 Uhr

Schulungsunterlagen

  • nach Absprache

Seminar-Inhalt / Agenda

Theorie

  • Welche Verwaltungssysteme gibt es?
  • Wie kann ich Hadoop überwachen?
  • Sichern und Wiederherstellung

Praxis

  • Log-Dateien auswerten
  • Überwachung mit Chukwa und Ambari
  • Überwachung mit Ganglia
  • Überwachung mit Nagios
  • Sichern und Wiedeherstellung

Abschluss

  • Zusammenfassung
  • Ausblick
  • Fragen und Antworten

Weitere Schulungen zu Thema Hadoop

(Schnell-)Einstieg in Big Data mit Hadoop

- u.a. in Nürnberg, Berlin, Stuttgart, München, Köln

In diesem 3-tägigen Seminar geben wir Ihnen einen über Überblick über die Funktionsweise vom OpenSource MapReduce Framework Apache Hadoop. Dabei erfahren Sie, welche Vor- und Nachteile Hadoop besitzt, wie Sie Softwarelösungen für Hadoop entwickeln können, und welche ...

Entwickeln von Lösungen mit Apache Hadoop

- u.a. in Nürnberg, Berlin, Stuttgart, München, Köln

Innerhalb dieses viertätigen Seminars werden Sie lernen, wie Sie Lösungen mit Apache Hadoop Lösungen entwickeln können um große Datenmengen analysieren zu können.

Microsoft Azure HDInsight: Einsatzszenarien und Kostenmodell

- u.a. in Köln, Leipzig, Wien, Essen, Freiburg

Apache Hadoop zählt zu den populärsten Lösungen im Big Data-Umfeld. Die Architektur des Hadoop-Frameworks ermöglicht eine leistungsfähige und kosteneffiziente horizontale Skalierung über mehrere Rechnersysteme, was die Verarbeitung von Massendaten im Vergleich zu ...

Hadoop Einsatzszenarien

- u.a. in Hannover, Köln, Heidelberg, Mannheim, Offenbach

Innerhalb dieses eintägigen Seminars erhalten Sie einen umfassenden Überblick über die Einsatzgebiete und lernen die Vorteile des Hadoop-Frameworks kennen. Dabei erfahren Sie auch, wie Sie mit Hadoop die Arbeit mit Massendaten hinsichtlich Kosten und Performance optimieren ...