Polyglot Persistence & Lakehouse: NoSQL, Data Lakes, CQRS
Ziele der Schulung
In dieser 3-tägigen Schulung "Polyglot Persistence & Lakehouse: NoSQL, Data Lakes, CQRS" lernen Sie, verschiedene Datenbankmodelle (SQL, NoSQL, Object Storage, Graph DBs) sinnvoll zu kombinieren, um flexible, skalierbare Big-Data-Architekturen zu bauen. Sie verstehen CAP-Theorem, Konsistenzmodelle und Lakehouse Patterns, implementieren CQRS & Event Sourcing und integrieren NoSQL-Datenbanken in moderne Data Pipelines mit Spark, Kafka und Change Data Capture.
Zielgruppe Seminar
- Data Engineers (ETL, Streaming, Data Lake Integration)
- Datenarchitekten (Polyglot Design, CAP-Theorem, Lakehouse)
- Backend-Entwickler (CQRS, Event Sourcing, NoSQL)
- Cloud Architects (Cosmos DB, DynamoDB, Managed Services)
Voraussetzungen
- Datenbank-Grundlagen (SQL oder NoSQL)
- Big Data Konzepte (Data Lakes, ETL)
- Linux/Mac Terminal Grundkenntnisse
- Docker/Kubernetes Erfahrung und Spark/Kafka Grundkenntnisse sind hilfreich
Lernmethodik
Die Schulung bietet Ihnen eine ausgewogene Mischung aus Theorie und Praxis in einer erstklassigen Lernumgebung. Profitieren Sie vom direkten Austausch mit unseren projekterfahrenen Trainern und anderen Teilnehmern, um Ihren Lernerfolg zu maximieren.
Seminarinhalt
Polyglot Persistence – Konzepte & CAP-Theorem
- Warum ein System nicht reicht: Use Case Mapping
- CAP-Theorem, Konsistenzmodelle (Strong, Eventual, Causal)
- CQRS Design Patterns
- Polyglot Persistence Maturity Model
NoSQL-Datenbanken im Überblick
- Key-Value (Redis, DynamoDB), Document (MongoDB), Column (Cassandra, HBase), Graph (Neo4j)
- Stärken, Schwächen & Einsatzempfehlungen
- Wide Column vs. Document vs. Graph vs. Time Series
- CQRS/NoSQL Matrix 2026
Integration in Big-Data-Architekturen
- Anbindung an Data Lakes (S3, ADLS Gen2)
- Streaming & Batch Integration (Spark, Flink, Kafka)
- SQL Engines (Trino, Presto, Databricks)
- Datenflüsse & Synchronisation (CDC mit Debezium)
Cloud NoSQL & Managed Services
- DynamoDB, Cosmos DB, DocumentDB, Neptune (Graph)
- Skalierung, Verfügbarkeit, Multi-Region
- Kostenmodelle & FinOps Best Practices
- Security & Governance (IAM, Encryption, Audit Logs)
CQRS & Event Sourcing Praxis
- Event Store Design (Kafka, Axon, EventStoreDB)
- CQRS Implementation Patterns
- Materialized Views mit NoSQL Read Stores
- Saga Pattern für Distributed Transactions
Lakehouse Patterns
- Delta Lake, Apache Iceberg, Apache Hudi
- Schema Evolution, Time Travel, ACID Transactions
- Operational vs. Analytical Stores (HTAP
- Governance mit Unity Catalog, Apache Ranger
Architekturpatterns
- CQRS & Event Sourcing Deep Dive
- Materialized Views, Read Replicas, Caching Strategies
- Realtime vs. Batch Use Cases
- Microservices Data Patterns (Database per Service)
AI/ML Data Pipelines
- Feature Stores (Feast, Tecton)
- MLOps Data Integration
- Online/Offline Feature Serving
- Data Provenance & Lineage
Praxis & Design-Workshops
- Architekturentwürfe für E-Commerce Platform mit CQRS
- Technologieauswahl Workshop (Decision Matrix)
- Multi-Modal Data Pipeline Design (Logs + Transactions + Images)
- Lakehouse Migration Strategy
Best Practices & Fallstudien
- Performanceoptimierung (Partitioning, Compaction)
- Disaster Recovery & Backup Strategies
- Cost Optimization (Spot Instances, Reserved Capacity)
- Lessons Learned aus Production Systems
Open Badge für dieses Seminar - Ihr digitaler Kompetenznachweis

Durch die erfolgreiche Teilnahme an einem Kurs bei IT-Schulungen.com erhalten Sie zusätzlich zu Ihrem Teilnehmerzertifikat ein digitales Open Badge (Zertifikat) – Ihren modernen Nachweis für erworbene Kompetenzen.
Ihr Open Badge ist jederzeit in Ihrem persönlichen und kostenfreien Mein IT-Schulungen.com-Konto verfügbar. Mit wenigen Klicks können Sie diesen digitalen Nachweis in sozialen Netzwerken teilen, um Ihre Expertise sichtbar zu machen und Ihr berufliches Profil gezielt zu stärken.
Übersicht: Big Data Schulungen Portfolio



