Hadoop mit relationalen Datenbanken als Hybridmodell

Das Seminar "Hadoop mit relationalen Datenbanken als Hybridmodell" ist seitens des Herstellers nicht mehr verfügbar, bzw. abgekündigt. Wir können Ihnen diese Schulung in Form eines Workshops in Ihrem Unternehmen oder in unserem Schulungszentrum anbieten.

Seminarinformationen

Seminar - Ziel

In diesem Seminar lernen Sie die Anbindung der Hadoop-Komponente Hive an relationale Datenbanken. Zunächst lernen Sie die verschiedenen Möglichkeiten Hive mit anderen Datenbanken und Systemen zu kombinieren sowie die möglichen Einsatzszenarien. Im praktischen Teil lernen Sie dann die Hive-Mechanismen Datenimport und -export kennen. Dabei gehen wir mit Ihnen auf die Anbindung des Microsoft SQL Servers sowie von Microsoft SQL Server Analysis Services an das Hive-Datawarehouse ein. Im Fallbeispiel setzen Sie dann selbst ein kleines praktisches Datenmigrationsprojekt um. Abschließend werden die vermittelten Inhalte noch einmal zusammengefasst und Sie haben die Möglichkeit, spezifische Fragestellungen anzusprechen.

Nach dem Seminar können Sie ein hybrides Datawarehouse bestehend aus einem Hadoop-Cluster, einem Microsoft SQL Server und/oder Microsoft SQL Server Analysis Services erstellen.

Teilnehmer - Zielgruppe

  • Softwareentwickler
  • Datenbankentwickler

Kurs - Voraussetzungen

  • IT-Grundkenntnisse
  • Grundkenntnisse in SQL
  • Grundkenntnisse in Hadoop oder Besuch des Seminars Entwicklung mit Hadoop
  • Grundkenntnisse in Hive oder Besuch des Seminars Programmierung mit Hive

Seminardauer

  • 4 Tage
  • 09:00 Uhr bis 17:00 Uhr

Schulungsunterlagen

  • nach Absprache

Seminar-Inhalt / Agenda

Theorie

  • Hive an andere Datenbanken und Systeme anbinden
  • Welche Einsatzszenarien von Hybridlösungen mit Hive gibt es?
  • Strategien zur Datenmigration

Praxis

  • Mit Hive Daten importieren
  • Aus Hive Daten exportieren
  • Microsoft SQL Servers und das Hive-Datawarehouse
  • Microsoft SQL Server Analysis Services und das Hive-Datawarehouse
  • Zeitplanbasierte Imports/Exports
  • Umsetzung eines praktischen Beispielprojekts zur Datenmigration

Abschluss

  • Zusammenfassung
  • Ausblick
  • Fragen und Antworten

Weitere Schulungen zu Thema Hadoop

(Schnell-)Einstieg in Big Data mit Hadoop

- u.a. in Nürnberg, Berlin, Stuttgart, München, Köln

In diesem 3-tägigen Seminar geben wir Ihnen einen über Überblick über die Funktionsweise vom OpenSource MapReduce Framework Apache Hadoop. Dabei erfahren Sie, welche Vor- und Nachteile Hadoop besitzt, wie Sie Softwarelösungen für Hadoop entwickeln können, und welche ...

Entwickeln von Lösungen mit Apache Hadoop

- u.a. in Nürnberg, Berlin, Stuttgart, München, Köln

Innerhalb dieses viertätigen Seminars werden Sie lernen, wie Sie Lösungen mit Apache Hadoop Lösungen entwickeln können um große Datenmengen analysieren zu können.

Microsoft Azure HDInsight: Einsatzszenarien und Kostenmodell

- u.a. in Berlin, Köln, Leipzig, Zürich, Heidelberg

Apache Hadoop zählt zu den populärsten Lösungen im Big Data-Umfeld. Die Architektur des Hadoop-Frameworks ermöglicht eine leistungsfähige und kosteneffiziente horizontale Skalierung über mehrere Rechnersysteme, was die Verarbeitung von Massendaten im Vergleich zu ...

Hadoop mit MongoDB als Hybridmodell

- u.a. in Köln, Leipzig, Düsseldorf, Heidelberg, Mannheim

Innerhalb dieses viertätigen Seminars lernen Sie, wie Sie Hadoop an die MongoDB anbinden können. Dazu lernen Sie die einzelnen Datenverarbeitungsschritte sinnvoll zwischen den beiden Systemen aufteilen können, um ein ein bestmögliches Ergebnis (sowohl bei der ...