Aufgaben
- Entwicklung und Betrieb von ETL/ELT-Pipelines mit Dataform und SQL
- Implementierung von Data Vault 2.0 (Raw & Business Vault)
- Aufbau von Bereitstellungsschichten (Data Marts, Star-Schemata)
- Sicherstellung der Datenqualität und automatisierte Tests
-
Coaching & Wissenstransfer: Mentoring des internen Teams, Pair-Programming und Dokumentation
-
Cloud-Plattform: Google Cloud Platform (GCP)
-
Datenbank: BigQuery
-
Transformation: Dataform (SQL-basiert)
-
Ingestion: Kafka, Pub/Sub, S3, On-Premise DB2
- Orchestrierung & Infrastruktur: Terraform (IaC), Google Cloud Workflows
Profil
-
Exzellente SQL-Kenntnisse für komplexe Datenverarbeitungslogik
-
Erfahrung mit ETL/ELT-Pipelines auf einer Cloud-Plattform (GCP, AWS, Azure)
-
Erfahrung mit Data Vault
-
Erfahrung mit großen Datenmengen und Performance-Optimierung
-
Erfahrung mit Terraform, Google Cloud Workflows
-
Kenntnisse in dbt als Alternative zu Dataform
- Erfahrung in Coaching und Wissenstransfer
Benefits
- Einsatz bei einem Namenhaften Kunden