Brückenschlag zwischen Big Data und traditionellen BI und DWH-Systemen

Seminarinformationen

Seminar - Ziel

In diesem zweitägigen Seminar erhalten Sie einen Überblick über Big Data und behandeln verschiedene Integrationsaspekte.

Die beiden Module "Überblick" und "Integration" können auch seperat gebucht werden.

Hinweis:

Die Kurssprache am 24.06. wird ausnahmsweise Englisch sein

Teilnehmer - Zielgruppe

Entscheider, Entwickler und BI-Architekten

Kurs - Voraussetzungen

BI-Kenntnisse

Seminardauer

  • 2 Tage
  • 09:00 Uhr bis 17:00 Uhr

Schulungsunterlagen

  • nach Absprache

Seminar-Inhalt / Agenda

Überblick

  • Überblick über „Big Data“
  • hadoop-Distributionen von Cloudera und HortonWorks
  • Big Data & BI
  • RealTime-Anforderungen
  • Der Brückenschlag zwischen Big Data und traditionellen BI und DWH-Systemen
  • Big Data mit verschiedenen Systemen
    • SAP
    • Microsoft
    • IBM
    • Oracle

Integration

  • Wo ist der Mehrwert? Definition möglicher Use Cases
  • Allgemeine Architekturansätze
  • Maintenance-Aspekte
  • Performance-Aspekte
  • Sicherheits-Aspekte
  • Echtzeit-Aspekte
  • Datenqualitäts-Aspekte

Weitere Schulungen zu Thema Big Data

(Schnell-)Einstieg in Big Data mit Hadoop

- u.a. in Nürnberg, Berlin, Stuttgart, München, Köln

In diesem 3-tägigen Seminar geben wir Ihnen einen über Überblick über die Funktionsweise vom OpenSource MapReduce Framework Apache Hadoop. Dabei erfahren Sie, welche Vor- und Nachteile Hadoop besitzt, wie Sie Softwarelösungen für Hadoop entwickeln können, und welche ...

Big Data: Technologien, Strategien & Trends

- u.a. in Nürnberg, Berlin, Stuttgart, München, Köln

Das Seminar gibt einen Überblick zu verschiedenen Themen, welche aus aktuellen IT-Überlegungen kaum mehr auszublenden sind. In Abgrenzung zum Seminar „Big Data Einstieg“, in dem das quelloffene Software-Framework Hadoop im Mittelpunkt steht, wird in diesem Seminar der ...

Microsoft Azure HDInsight: Einsatzszenarien und Kostenmodell

- u.a. in Berlin, Hamburg, Stuttgart, München, Virtual Classroom

Apache Hadoop zählt zu den populärsten Lösungen im Big Data-Umfeld. Die Architektur des Hadoop-Frameworks ermöglicht eine leistungsfähige und kosteneffiziente horizontale Skalierung über mehrere Rechnersysteme, was die Verarbeitung von Massendaten im Vergleich zu ...

Wartung eines Hadoop-Clusters

- u.a. in Hamburg, Köln, Stuttgart, Leipzig, Heidelberg

Innerhalb dieser zweitätigen Schulung lernen Sie verschiedene Methoden und Praktiken zur Überwachung und Instandhaltung des Clusters kennen, sowie die Anbindung auf derzeit oft verwendete Monitoring-Lösungen wie Chukwa und Ambari. Anschließend lernen Sie, wie Sie einen ...