Cloud Lakehouse: Delta Lake, Iceberg & Databricks Praxis
Ziele der Schulung
In dieser 3-tägigen Schulung "Cloud Lakehouse: Delta Lake, Iceberg & Databricks Praxis" lernen Sie, moderne Cloud Lakehouse-Architekturen mit Delta Lake, Apache Iceberg und Databricks aufzubauen und zu betreiben. Sie verstehen den strategischen Unterschied zwischen Data Lakes und Lakehouses sowie die Prinzipien der Storage-Compute-Trennung für Batch-, Streaming- und ML-Workloads. Die Teilnehmenden beherrschen ACID-Transaktionen, Time Travel, Schema Evolution und Performance-Optimierung über Cloud Storage (S3, ADLS, GCS).
Zielgruppe Seminar
- Data Engineers
- Cloud-Architekten
- IT-Teams
Voraussetzungen
- Grundkenntnisse SQL und Big Data
- Erfahrung mit Cloud Storage oder Spark sind von Vorteil
Lernmethodik
Die Schulung bietet Ihnen eine ausgewogene Mischung aus Theorie und Praxis in einer erstklassigen Lernumgebung. Profitieren Sie vom direkten Austausch mit unseren projekterfahrenen Trainern und anderen Teilnehmern, um Ihren Lernerfolg zu maximieren.
Seminarinhalt
Data Lake vs. Lakehouse & Architektur
- Evolution: Von Data Swamps zu Lakehouses (ACID, BI/ML-Unterstützung)
- Storage-Compute-Separation: Medallion Architecture, Open Table Formats
- Übung 1: S3/ADLS Container aufsetzen, Bronze/Silver/Gold-Struktur
Delta Lake & Iceberg Deep Dive
- ACID-Transaktionen, Time Travel, Schema Enforcement/Evolution
- Partitionierung, Z-Order, Kompression, Data Skipping
- Übung 2: Delta/Iceberg-Tabelle mit MERGE, Time Travel erstellen
Multi-Cloud Storage & Security
- AWS S3, Azure Data Lake Storage Gen2, Google Cloud Storage
- IAM, Fine-Grained Access Control, Encryption-at-Rest
- Kostenoptimierung: Intelligent Tiering, Lifecycle Policies
Polyglot Persistence & Performance Tuning
- NoSQL-Integration (MongoDB Atlas, Cosmos DB) in Lakehouse
- Spark-Performance: Catalyst Optimizer, Adaptive Query Execution
- Übung 3: Federated Query über Lakehouse + NoSQL + Warehouse
Streaming Lakehouse & Databricks
- Delta Live Tables, Unity Catalog, Structured Streaming
- Kafka/Flink-Integration, Change Data Feed (CDC)
- Übung 4: End-to-End Pipeline (Bronze→Silver→Gold mit Streaming)
Governance, Monitoring & Best Practices
- Data Quality, Lineage, Metadata Management (Unity Catalog, Amundsen)
- Compliance: GDPR, Audit Trails, Data Classification
- Monitoring: Databricks Lakehouse Monitor, Cost Management
Praxisübungen & Best Practices
- Aufbau eines Cloud Lakehouse
- Datenintegration, Batch & Streaming
- Performance-Analyse & Optimierung
- Diskussion realer Use Cases
Open Badge für dieses Seminar - Ihr digitaler Kompetenznachweis

Durch die erfolgreiche Teilnahme an einem Kurs bei IT-Schulungen.com erhalten Sie zusätzlich zu Ihrem Teilnehmerzertifikat ein digitales Open Badge (Zertifikat) – Ihren modernen Nachweis für erworbene Kompetenzen.
Ihr Open Badge ist jederzeit in Ihrem persönlichen und kostenfreien Mein IT-Schulungen.com-Konto verfügbar. Mit wenigen Klicks können Sie diesen digitalen Nachweis in sozialen Netzwerken teilen, um Ihre Expertise sichtbar zu machen und Ihr berufliches Profil gezielt zu stärken.
Übersicht: Big Data Schulungen Portfolio



