Profil
- Als erfahrener Data Engineer und Architekt bringe ich über 6 Jahre Expertise im Aufbau cloudbasierter Datenplattformen mit. Meine Einsatzgebiete umfassen die End-to-End-Konzeption und -Implementierung von Azure Data Platforms ? von der Architektur über Data Engineering bis zum BI-Reporting.
- Development Lead & Architekt für Data-Mesh- und Lakehouse-Projekte
- Senior Data Engineer für ETL/ELT-Entwicklung mit Databricks/PySpark
- Technischer Berater für Cloud-Migration und Plattform-Modernisierung
- Infrastruktur-Architekt mit Terraform/Terragrunt (IaC)
- Ich arbeite sowohl konzeptionell (Architektur-Blueprints, Governance, Security) als auch hands-on in der Umsetzung.
- Besondere Erfahrung habe ich in regulierten Umgebungen (BSI-Compliance) sowie in der Leitung internationaler Dev-Teams in agilen Großprojekten.
- Seit 2018 bin ich im BI-Umfeld tätig und bringe eine breite Expertise in den Bereichen Data Warehousing, Datenplattform-Architektur sowie Infrastruktur und Sicherheit mit. Mit Leidenschaft gestalte ich skalierbare Azure-Lösungen, die von bewährter Business Intelligence bis zu zukunftsfähigen Datenplattform-Architekturen reichen. Dabei lege ich besonderen Wert auf Automatisierung und sichere Infrastrukturen, um unseren Kunden nachhaltige und effiziente Mehrwerte zu schaffen.
Methoden
- Agiles Projektmanagement
- Datenmodellierung
- Anforderungsmanagement
- Automatisierung
- Continuous Integration / Continuous
- Deployment (CICD)
Skills
Architektur & Plattformdesign
- Konzeption und Aufbau von Azure Data Plattformen (ADLS Gen2, Synapse, Databricks, ADF, Power BI)
- Entwicklung von Hub-and-Spoke-Topologien sowie Data Mesh-Architekturen
- Infrastructure as Code mit Terraform & Terragrunt (inkl. Modularisierung, Best Practices)
- Erstellung von End-to-End Architektur-Blueprints und Governance-Konzepten
- Cloud-Architektur mit Fokus auf Skalierbarkeit, Performance & Sicherheit
Data Engineering
- Azure Databricks / PySpark: Data Processing, DWHDesign, Automatisierung von ETL-/ELT-Prozessen
- Azure Data Factory: Orchestrierung von Datenpipelines und Integration von Quellsystemen
- Azure Synapse Analytics / SQL Database: Datenmodellierung, Performance Tuning, BIIntegration
- Python: ETL-Automatisierung, Datenqualitätsprüfungen, Analytics-Skripting
- Datenmodellierung (Star Schema, Data Vault, 3NF) und Datenvisualisierung
- Umsetzung von Coding Standards und Best Practices für wiederverwendbare Pipelines
Analytics & Reporting
- Microsoft Power BI (inkl. DAX-Entwicklung, KPIDesign, Governance, Security)
- Entwicklung von Self-Service BI und Enterprise Reporting
- Integration von Microsoft Business Intelligence-Komponenten
- Aufbau interaktiver Dashboards und Reports für datengetriebene Entscheidungsfindung
DevOps & Automatisierung
- Azure DevOps: CI/CD-Pipelines, Deployment-Automatisierung, Monitoring
- Einführung von Infrastructure as Code für Cloud-Deployments
- Umsetzung von ETL-/ELT-Automatisierung und Testing-Frameworks
- Sicherstellung von Performance, Stabilität und Kosteneffizienz
Projekt- & Teamleitung
- Leitung von Dev-Teams (agil, international)
- Anforderungsaufnahme und Übersetzung in technische Backlogs
- Definition von Coding- und Architekturstandards
- Erfahrung im agilen Projektumfeld und in crossfunktionalen Teams
- Schulungen & Enablement
Coding Skills
- Python / PySpark
- DAX
- T-SQL
- Terraform / Terragrunt (HCL)
- Powershell
- VBA
- Code Generator (jinja2)
Beruflicher Werdegang
2026 - heute
Rolle: Gründer / Geschäftsführer
Kunde: auf Anfrage
2021 - 2025
Rolle: Senior Consultant
Kunde: Oraylis GmbH
Aufgaben:
Business Intelligence
2018 - 2021
Rolle: Business Intelligence Specialist
Kunde: Deloitte Deutschland GmbH