Lernen Sie, die Skalierbarkeit von Data Lakes mit der Leistung von Warehouses zu kombinieren. Beherrschen Sie Delta Lake & Apache Iceberg, um Big Data zu optimieren, zu verwalten und effizient zu analysieren.

Data Lakehouse für Datenexperten

Lernen Sie, die Skalierbarkeit von Data Lakes mit der Leistung von Warehouses zu kombinieren. Beherrschen Sie Delta Lake & Apache Iceberg, um Big Data zu optimieren, zu verwalten und effizient zu analysieren.

Data Lakehouse für Datenexperten

Auf einen Blick

1 Tag

Individuell planbar

Komplett Online

Theorie &
Praxis

Englisch

Lernen Sie, die Skalierbarkeit von Data Lakes mit der Leistung von Warehouses zu kombinieren. Beherrschen Sie Delta Lake & Apache Iceberg, um Big Data zu optimieren, zu verwalten und effizient zu analysieren.

Unsere vertrauenswürdigen Partner

Agenda (Beispiel)

Gerne erstellen wir mit Ihnen gemeinsam eine Agenda, die den Einstieg in das Data-Lakehouse-Konzept erleichtert.

Tag 1

Data Lakehouses – Grundlagen, Technologien und bewährte Praktiken

  1. Was ist ein Data Lakehouse?
  2. Warum Lakehouses in modernen Datenplattformen nützlich sind
  3. Schlüsselkomponenten einer Lakehouse-Architektur
  1. Einführung in Delta Lake
  2. Einführung in Apache Iceberg
  3. Delta Lake und Apache Iceberg im Vergleich: Stärken, Anwendungsfälle, Kompromisse
  1. Einrichten einer Delta Lake-Umgebung
  2. Kernfunktionen von Delta Lake: ACID-Transaktionen, Schema-Entwicklung, Time-Travel
  3. Bewährte Verfahren für die Datenverwaltung mit Delta Lake
  1. Einrichten einer Apache Iceberg Umgebung
  2. Die wichtigsten Iceberg-Funktionen: versteckte Partitionierung, Versionierung, Daten-Snapshots
  3. Best Practices für den Aufbau skalierbarer Datenplattformen mit Iceberg
  1. Einführung in Data Governance mit Unity Catalog
  2. Verwaltung komplexer Datenflüsse mit dem DAG-Stack
  3. Freigabe von Daten aus semantischen Schichten über RESTful APIs

Erleben Sie eine ausgewogene Mischung aus Theorie, Live-Demonstrationen und praktischen Übungen.

Lernen Sie, zwischen Data Lakes, Data Warehouses und Data Lakehouses zu unterscheiden, um die Vorteile der einzelnen Systeme zu nutzen.

Erwerben Sie praktische Kenntnisse in Delta Lake und Apache Iceberg, um wichtige Funktionen wie ACID-Transaktionen und Zeitreisen zu implementieren.

Beherrschen Sie Strategien zur Optimierung der Abfrageleistung und der Datenspeicherverwaltung in Data Lakehouse-Umgebungen.

In diesem Data Lakehouse Training lernen Sie …

… wie Sie moderne Datenplattformen mit Lakehouse-Technologien wie Delta Lake und Apache Iceberg aufbauen und verwalten. Dieser Kurs richtet sich an Dateningenieure, Architekten und Analysten, die die Skalierbarkeit von Data Lakes mit der Zuverlässigkeit von Data Warehouses kombinieren möchten. Wenn Sie für den Umgang mit großen Datenmengen verantwortlich sind und Leistung, Governance und Analysen verbessern möchten, vermittelt Ihnen diese Schulung praktische Fähigkeiten zur Modernisierung Ihrer Datenarchitektur.

Praktische Anwendungen, die wir in der Schulung behandeln werden:

  • 1

    Einrichtung von Delta Lake- und Apache Iceberg-Umgebungen für die Datenverwaltung.

  • 2
    Implementierung und Testen von ACID-Transaktionen in Delta Lake.
  • 3
    Verwendung der Zeitreisefunktion, um historische Daten abzufragen.
  • 4
    Verwaltung der Schema-Evolution und versteckter Partitionierung in Apache Iceberg.
  • 5
    Optimierung der Abfrageleistung und Datenverwaltung.

Nach diesem Kurs werden Sie in der Lage sein:

  • 1
    Data Lakes, Data Warehouses und Data Lakehouses zu definieren und voneinander zu unterscheiden.
  • 2
    zu erklären, warum Data Lakehouses nützlich sind und wie sie die Einschränkungen traditioneller Datenarchitekturen beheben.
  • 3
    Delta Lake- und Apache Iceberg-Umgebungen einzurichten und zu nutzen.
  • 4
    wichtige Funktionen wie ACID-Transaktionen, Zeitreisen und Schema-Evolution in Delta Lake und Apache Iceberg zu implementieren.
  • 5
    die Leistung zu optimieren und große Datenmengen effizient in einer Data Lakehouse-Umgebung zu verwalten.

Die Data Lakehouse Schulung ist perfekt für Sie, wenn…

  • Sie ein Data Engineer, Data Architect oder Data Scientist sind, der sein Wissen über moderne Datenarchitekturen vertiefen möchte.
  • Sie für das Management großer Datenmengen verantwortlich sind und effizientere Speicher- und Verarbeitungslösungen erkunden.
  • Sie mit traditionellen Data Lakes oder Data Warehouses vertraut sind und den nächsten Schritt in der Evolution der Datenarchitektur verstehen möchten.

Die Data Lakehouse Schulung ist nicht für Sie geeignet, wenn…

  • Sie neu in den Konzepten der Datenverarbeitung sind und kein grundlegendes Verständnis von Datenarchitekturen haben.
  • Sie nach einem Kurs suchen, der sich auf traditionelle relationale Datenbanken konzentriert, anstatt auf moderne Speicherlösungen.
  • Sie einen rein theoretischen Kurs ohne praktische Laborarbeit bevorzugen.

Hören Sie von unseren zufriedenen Schulungsteilnehmern

A1 Telekom Austria AG

“UTA hat mein Team bei der Entwicklung des Migrationsplans für unseren lokalen Datenspeicher in die öffentliche Cloud unterstützt.

Das herausragende Maß an Fachwissen, sowohl auf technischer als auch auf organisatorischer Ebene, sorgte für einen gut strukturierten und realistischen Migrationsplan mit Zeitplan, Meilensteinen und Aufwand.

Die Befähigung meines Teams stand im Mittelpunkt einer sehr reibungslosen Zusammenarbeit. Durch UTA haben wir unser Ziel schneller erreicht und die Risiken des Migrationsprojekts erheblich reduziert.

Ich kann die Dienste von UTA nur empfehlen!”

Reinhard Burgmann
Leiter des Data Ecosystem

Vattenfall

“Ich habe kürzlich an dem von Ultra Tendency veranstalteten Online-Kafka-Schulungstag von Vattenfall IT teilgenommen, und es war eine bereichernde Erfahrung.

Der Trainer, Ahmed, hat die Theorie hinter Kafka fantastisch erklärt und der Schwerpunkt auf der praktischen Anwendung war großartig. Die praktischen Programmierübungen waren besonders hilfreich, und ich habe noch nie eine Schulung mit so vielen interaktiven Beispielen erlebt!

Insgesamt kann ich diese Schulung jedem empfehlen, der seine Kafka-Kenntnisse interaktiv verbessern und wertvolle Fähigkeiten erwerben möchte.”

Bernard Benning
BA Heat

VP Bank

“Die MLOps-Schulung hat unsere Erwartungen übertroffen!

Er bot eine perfekte Mischung aus einem Überblick, praktischen Kodierungsbeispielen und realen Anwendungsfällen. Der Trainer beantwortete alle Fragen kompetent und passte die Inhalte an die Infrastruktur unseres Unternehmens an.

Diese Schulung vermittelte uns nicht nur Wissen, sondern auch praktische Fähigkeiten, die wir sofort anwenden können.”

Eisele Peer
Leitender Architekt & Leiter IT-Integration & Entwicklung

Hutchison Drei Austria GmbH

“Die Schulung Einführung in die Cloud mit AWS und Azure hat uns beeindruckt! Wir schätzten besonders den ausgezeichneten Überblick über die Themen, die praktischen Übungen und die umfangreichen praktischen Aktivitäten, die die erlernten Konzepte direkt anwendbar machten.

Der Inhalt war gut strukturiert, und die Kombination aus Theorie und praktischen Anwendungen war ideal für unsere Bedürfnisse. Die Möglichkeit, spezifische Fragen in den Fragerunden zu klären, war ebenfalls äußerst wertvoll. Insgesamt hat die Schulung unser Verständnis von Cloud Computing vertieft und uns einen Einblick in die Unterschiede und Stärken von AWS und Azure gegeben.

Wir fühlen uns jetzt besser vorbereitet, um strategische Entscheidungen für unsere Cloud-Strategie zu treffen. Vielen Dank für diese hervorragende Schulung!”

Eisele Peer
Leitender Architekt & Leiter IT-Integration & Entwicklung

Lernen Sie Ihre Trainingsexperten kennen

Marvin Taschenberger

Professioneller Software Architekt, Ultra Tendenz

Hudhaifa Ahmed

Senior Lead Big Data Developer & Berlin Territory Manager, Ultra Tendency

Matthias Baumann

Chief Technology Officer & leitender Architekt für Big Data-Lösungen, Ultra Tendency

Benötigte Hardware & Infrastruktur für Ihr Data Lakehouse Training

  • Sie benötigen einen PC oder Mac mit einem Webbrowser und MS Teams.
  • Während der Schulung stellen wir Ihnen eine virtuelle Maschine mit den erforderlichen lokalen Abhängigkeiten, Diensten und Root-Zugriffen zur Verfügung.
  • Sie können über einen Browser oder SSH auf die Maschine zugreifen, wenn Sie möchten und die Netzwerkbeschränkungen dies zulassen.