Header Background
 
 
 

dbt Core Fundamentals - Datentransformation, Automatisierung und DataOps

Seminardauer: 3 Tage

Ziele der Schulung

In dieser 3-tägigen Schulung "DBT Core Fundamentals - Datentransformation, Automatisierung und DataOps" lernen Sie den professionellen Einsatz von dbt Core (data build tool) zur modellbasierten Datentransformation und Automatisierung in modernen Analytics-Umgebungen.

Sie erwerben ein fundiertes Verständnis der dbt-Architektur, der Projektstruktur sowie fortgeschrittener Funktionen wie Jinja-Scripting, Macros, Testing und Snapshots.

Anhand realitätsnaher Übungen werden Konzepte aus den Bereichen Data Modeling, DataOps und Orchestrierung praxisnah vermittelt, sodass die Teilnehmer in der Lage sind, skalierbare, wartbare und reproduzierbare dbt-Projekte eigenständig aufzubauen und produktiv zu betreiben.

Zielgruppe Seminar

  • Analytics Engineers, Data Analysts und BI Professionals mit Vorkenntnissen in Python und SQL
  • Data Engineers, die dbt in bestehende Datenarchitekturen integrieren möchten
  • Fachkräfte, die ihre Kenntnisse in Datentransformation, Testing und Automatisierung vertiefen wollen

Voraussetzungen

  • Grundkenntnisse in SQL (Abfragen, Joins, Aggregationen)
  • Vertrautheit mit Datenmodellen, ETL-/ELT-Konzepten und Python (Variablen, Funktionen, Skriptstrukturen) ist von Vorteil
  • Erste Erfahrung im Umgang mit Versionierungstools (z. B. Git) erleichtert den Einstieg

Lernmethodik

Die Schulung bietet Ihnen eine ausgewogene Mischung aus Theorie und Praxis in einer erstklassigen Lernumgebung. Profitieren Sie vom direkten Austausch mit unseren projekterfahrenen Trainern und anderen Teilnehmern, um Ihren Lernerfolg zu maximieren.

Seminarinhalt

Grundlagen der Datenmodellierung und Datenarchitektur

  • Einführung in SQL-basierte Datenmodellierung für Analytics
  • Bedeutung und Typen von Datenmodellen (Staging, Core, Mart Layer)
  • Überblick über moderne Datenarchitekturen (Data Warehouse, Data Lake, Lakehouse)
  • Verständnis der Rolle von dbt im Kontext moderner Datenflüsse

Einführung und Kernkonzepte von dbt Core

  • Überblick über das dbt-Ökosystem und die Open-Source-Architektur
  • Zentrale Prinzipien: Immutability, Reproducibility, Scalability
  • Einordnung von dbt in den Analytics- und DataOps-Kontext
  • Vorteile von dbt für Transparenz, Datenqualität und Automatisierung

Projektstrukturierung und Quellverwaltung

  • Aufbau und Organisation eines dbt-Projekts
  • Definition und Verwaltung von Datenquellen (sources.yml)
  • **Modellabhängigkeiten, Referenzen und Build-Strategien
  • Best Practices für Versionierung und Team-Kollaboration

Jinja-Scripting und Qualitätssicherung in dbt

  • Nutzung von Jinja zur dynamischen SQL-Generierung
  • Erstellung und Wiederverwendung von Macros
  • Integration und Nutzung von dbt Packages
  • Tests, Hooks und Logging zur Qualitätssicherung und Nachvollziehbarkeit

Datenmodellierungstechniken

  • Erweiterte Modellierungsstrategien und Source Data Management
  • Implementierung von Snapshots zur Versionskontrolle historischer Daten
  • Umgang mit komplexen Datenflüssen und Hierarchien
  • Optimierung der Datenmodelle hinsichtlich Wartbarkeit und Performance

DataOps-Grundlagen und Testing in dbt

  • Einführung in DataOps und Automatisierung im Datenlebenszyklus
  • Versionskontrolle, Kollaboration und Continuous Integration mit dbt
  • Testing-Strategien zur Sicherung von Datenqualität und Modellintegrität
  • Aufbau reproduzierbarer, auditierbarer Pipelines

Dokumentation und Best Practices

  • Erstellung von Dokumentationen in dbt (Model Descriptions, Schema YAMLs)
  • Automatisierte Generierung von Projekt-Dokumentationen
  • Best Practices zur Skalierbarkeit, Wartbarkeit und Teamarbeit
  • Governance und Code-Standards für langfristige Qualitätssicherung

DBT-Orchestrierung

  • Integration von dbt in Orchestration Tools wie Airflow, Dagster oder Prefect
  • Planung und Steuerung** von Pipelines im Produktionsbetrieb
  • Monitoring und Alerting von dbt-Runs
  • Best Practices für stabile, skalierbare DataOps-Workflows

Open Badge für dieses Seminar - Ihr digitaler Kompetenznachweis

Digital Skills Open Badges

Durch die erfolgreiche Teilnahme an einem Kurs bei IT-Schulungen.com erhalten Sie zusätzlich zu Ihrem Teilnehmerzertifikat ein digitales Open Badge (Zertifikat) – Ihren modernen Nachweis für erworbene Kompetenzen.

Ihr Open Badge ist jederzeit in Ihrem persönlichen und kostenfreien Mein IT-Schulungen.com-Konto verfügbar. Mit wenigen Klicks können Sie diesen digitalen Nachweis in sozialen Netzwerken teilen, um Ihre Expertise sichtbar zu machen und Ihr berufliches Profil gezielt zu stärken.

Übersicht: Data Science Schulungen Portfolio

Mehr zu den Vorteilen von Badges

Seminare kurz vor der Durchführung

       
22.04. - 24.04.2026 Hamburg Anfragen
18.05. - 20.05.2026 Köln Anfragen
24.06. - 26.06.2026 Köln Anfragen
22.07. - 24.07.2026 Nürnberg Anfragen
 
1.) Wählen Sie den Seminartyp:


2.) Wählen Sie Ort und Datum:
1.895,00 € Preis pro Personspacing line2.255,05 € inkl. 19% MwSt
all incl.
zzgl. Verpflegung 30,00 €/Tag bei Präsenz

Anfragen Buchen Merkzettel
 
Diese Seite weiterempfehlen:
0
Merkzettel öffnen
0
Besuchsverlauf ansehen
IT-Schulungen.com Control Panel