dbt Core Fundamentals - Datentransformation, Automatisierung und DataOps
Ziele der Schulung
In dieser 3-tägigen Schulung "DBT Core Fundamentals - Datentransformation, Automatisierung und DataOps" lernen Sie den professionellen Einsatz von dbt Core (data build tool) zur modellbasierten Datentransformation und Automatisierung in modernen Analytics-Umgebungen.
Sie erwerben ein fundiertes Verständnis der dbt-Architektur, der Projektstruktur sowie fortgeschrittener Funktionen wie Jinja-Scripting, Macros, Testing und Snapshots.
Anhand realitätsnaher Übungen werden Konzepte aus den Bereichen Data Modeling, DataOps und Orchestrierung praxisnah vermittelt, sodass die Teilnehmer in der Lage sind, skalierbare, wartbare und reproduzierbare dbt-Projekte eigenständig aufzubauen und produktiv zu betreiben.
Zielgruppe Seminar
- Analytics Engineers, Data Analysts und BI Professionals mit Vorkenntnissen in Python und SQL
- Data Engineers, die dbt in bestehende Datenarchitekturen integrieren möchten
- Fachkräfte, die ihre Kenntnisse in Datentransformation, Testing und Automatisierung vertiefen wollen
Voraussetzungen
- Grundkenntnisse in SQL (Abfragen, Joins, Aggregationen)
- Vertrautheit mit Datenmodellen, ETL-/ELT-Konzepten und Python (Variablen, Funktionen, Skriptstrukturen) ist von Vorteil
- Erste Erfahrung im Umgang mit Versionierungstools (z. B. Git) erleichtert den Einstieg
Lernmethodik
Die Schulung bietet Ihnen eine ausgewogene Mischung aus Theorie und Praxis in einer erstklassigen Lernumgebung. Profitieren Sie vom direkten Austausch mit unseren projekterfahrenen Trainern und anderen Teilnehmern, um Ihren Lernerfolg zu maximieren.
Seminarinhalt
Grundlagen der Datenmodellierung und Datenarchitektur
- Einführung in SQL-basierte Datenmodellierung für Analytics
- Bedeutung und Typen von Datenmodellen (Staging, Core, Mart Layer)
- Überblick über moderne Datenarchitekturen (Data Warehouse, Data Lake, Lakehouse)
- Verständnis der Rolle von dbt im Kontext moderner Datenflüsse
Einführung und Kernkonzepte von dbt Core
- Überblick über das dbt-Ökosystem und die Open-Source-Architektur
- Zentrale Prinzipien: Immutability, Reproducibility, Scalability
- Einordnung von dbt in den Analytics- und DataOps-Kontext
- Vorteile von dbt für Transparenz, Datenqualität und Automatisierung
Projektstrukturierung und Quellverwaltung
- Aufbau und Organisation eines dbt-Projekts
- Definition und Verwaltung von Datenquellen (sources.yml)
- **Modellabhängigkeiten, Referenzen und Build-Strategien
- Best Practices für Versionierung und Team-Kollaboration
Jinja-Scripting und Qualitätssicherung in dbt
- Nutzung von Jinja zur dynamischen SQL-Generierung
- Erstellung und Wiederverwendung von Macros
- Integration und Nutzung von dbt Packages
- Tests, Hooks und Logging zur Qualitätssicherung und Nachvollziehbarkeit
Datenmodellierungstechniken
- Erweiterte Modellierungsstrategien und Source Data Management
- Implementierung von Snapshots zur Versionskontrolle historischer Daten
- Umgang mit komplexen Datenflüssen und Hierarchien
- Optimierung der Datenmodelle hinsichtlich Wartbarkeit und Performance
DataOps-Grundlagen und Testing in dbt
- Einführung in DataOps und Automatisierung im Datenlebenszyklus
- Versionskontrolle, Kollaboration und Continuous Integration mit dbt
- Testing-Strategien zur Sicherung von Datenqualität und Modellintegrität
- Aufbau reproduzierbarer, auditierbarer Pipelines
Dokumentation und Best Practices
- Erstellung von Dokumentationen in dbt (Model Descriptions, Schema YAMLs)
- Automatisierte Generierung von Projekt-Dokumentationen
- Best Practices zur Skalierbarkeit, Wartbarkeit und Teamarbeit
- Governance und Code-Standards für langfristige Qualitätssicherung
DBT-Orchestrierung
- Integration von dbt in Orchestration Tools wie Airflow, Dagster oder Prefect
- Planung und Steuerung** von Pipelines im Produktionsbetrieb
- Monitoring und Alerting von dbt-Runs
- Best Practices für stabile, skalierbare DataOps-Workflows
Open Badge für dieses Seminar - Ihr digitaler Kompetenznachweis

Durch die erfolgreiche Teilnahme an einem Kurs bei IT-Schulungen.com erhalten Sie zusätzlich zu Ihrem Teilnehmerzertifikat ein digitales Open Badge (Zertifikat) – Ihren modernen Nachweis für erworbene Kompetenzen.
Ihr Open Badge ist jederzeit in Ihrem persönlichen und kostenfreien Mein IT-Schulungen.com-Konto verfügbar. Mit wenigen Klicks können Sie diesen digitalen Nachweis in sozialen Netzwerken teilen, um Ihre Expertise sichtbar zu machen und Ihr berufliches Profil gezielt zu stärken.
Übersicht: Data Science Schulungen Portfolio
Seminare kurz vor der Durchführung
| 22.04. - 24.04.2026 | Hamburg | ||
| 18.05. - 20.05.2026 | Köln | ||
| 24.06. - 26.06.2026 | Köln | ||
| 22.07. - 24.07.2026 | Nürnberg |



