(Schnell-)Einstieg in Big Data mit Hadoop

Seminarinformationen

Seminar - Ziel

In diesem 3-tägigen Seminar geben wir Ihnen einen über Überblick über die Funktionsweise vom OpenSource MapReduce Framework Apache Hadoop. Dabei erfahren Sie, welche Vor- und Nachteile Hadoop besitzt, wie Sie Softwarelösungen für Hadoop entwickeln können, und welche Einsatzszenarien sich daraus ergeben

Teilnehmer - Zielgruppe

Dieses Seminar richtet sich an

  • IT Architekten
  • Applikations Entwickler/Verantwortliche
  • Datenbank Entwickler- Administratoren

Kurs - Voraussetzungen

Um an diesem Seminar teilnehmen zu können, sollten Sie in folgenden Bereichen solide Grundkenntnisse vorweisen können:

  • Linux
  • Java
  • Scripting Grundkenntnisse (shell, python, perl)
  • SQL

Seminardauer

  • 3 Tage
  • 09:00 Uhr bis 17:00 Uhr

Schulungsunterlagen

  • nach Absprache

Seminar-Inhalt / Agenda

Theorie:

  • Entstehung von Hadoop
  • Wie funktioniert MapReduce? Was sind die Vor- und Nachteile?
  • Aufbau eines Hadoop Clusters (fertige Distributionen und Eigenbau, Hardware Anforderungen)
  • Funktion des HDFS (Hadoop Distributed File System)

Praxis

  • Hadoop Streaming (schreiben von Beispiel Jobs mit einfachen Shell Scripten)
  • Hive - ein Tool, das SQL ähnliche Anweisungen in skalierbare Hadoop Jobs übersetzt
  • Kurzvorstellung von weiteren Tools (z.B. HBase, Pig, ...)- Theorie: Java Entwicklung mit/für Hadoop
  • Beispiel: Ablösung eines überlasteten Datenbank Clusters durch Hadoop

Weitere Schulungen zu Thema Hadoop

Entwickeln von Lösungen mit Apache Hadoop

- u.a. in Nürnberg, Berlin, Stuttgart, München, Köln

Innerhalb dieses viertätigen Seminars werden Sie lernen, wie Sie Lösungen mit Apache Hadoop Lösungen entwickeln können um große Datenmengen analysieren zu können.

Microsoft Azure HDInsight: Einsatzszenarien und Kostenmodell

- u.a. in Nürnberg, Berlin, Stuttgart, München, Köln

Apache Hadoop zählt zu den populärsten Lösungen im Big Data-Umfeld. Die Architektur des Hadoop-Frameworks ermöglicht eine leistungsfähige und kosteneffiziente horizontale Skalierung über mehrere Rechnersysteme, was die Verarbeitung von Massendaten im Vergleich zu ...

Wartung eines Hadoop-Clusters

- u.a. in Hamburg, Düsseldorf, Heidelberg, Darmstadt, Freiburg

Innerhalb dieser zweitätigen Schulung lernen Sie verschiedene Methoden und Praktiken zur Überwachung und Instandhaltung des Clusters kennen, sowie die Anbindung auf derzeit oft verwendete Monitoring-Lösungen wie Chukwa und Ambari. Anschließend lernen Sie, wie Sie einen ...

Hadoop mit MongoDB als Hybridmodell

- u.a. in Berlin, Zürich, Düsseldorf, Mannheim, Freiburg

Innerhalb dieses viertätigen Seminars lernen Sie, wie Sie Hadoop an die MongoDB anbinden können. Dazu lernen Sie die einzelnen Datenverarbeitungsschritte sinnvoll zwischen den beiden Systemen aufteilen können, um ein ein bestmögliches Ergebnis (sowohl bei der ...