Tools & Methoden: Miro, SharePoint, SQL, Postgres, DataGrip, Python, PyCharm, dbt, Jupyter Notebooks, Git, REST APIs, Postman, ETL/ELT-Pipelines, PowerShell, n8n, HubSpot, Pipedrive, GitHub, GenAI/LLMs, OpenAI API, Kanban, UML
Teil des Anti-Financial-Crime Transaction Monitoring Teams der Deutschen Bank, Analyse von Produktionsdaten in EMEA und APAC zur Identifizierung und Steuerung der Behebung von Data-Governance- und Data-Quality-Problemen für AML/Sanctions/Fraud/Tax Use Cases. Unterstützung des Rollouts einer neuen TM-Applikation auf GCP und einer Data-Staging-Schicht mit audit- und regulatorisch konformen Nachweisen, abgestimmt mit Internal Audit, KPMG und BaFin.
Tools & Methoden: Jira, SQL, Python, R, RStudio, Jupyter Notebooks, Git, Camunda, SAFe, BPMN 2.0, UML, API, Kanban
Uponor führte Docebo als neues Enterprise-LMS ein und integrierte es mit Salesforce. Die Umsetzung kombinierte E-Learning-Produktion mit geschäftslogikgesteuertem Datenaustausch zwischen LMS und CRM (Provisioning, Enrolments, Abschlüsse/Zertifizierungen). Die Arbeit umfasste iteratives Prototyping in Scrum, Testing über Sandbox und Produktion, Deployment-Koordination und Post-Go-Live-Monitoring in einer risikosensitiven Umgebung.
Tools & Methoden: Miro, Figma, Notion, Scrum, Articulate Storyline, Docebo
Umsetzung innerhalb des Transaction Reporting Engine (TRE) Programms der Deutschen Bank für MiFID II/MiFIR Transaction Reporting (T+1). In einem internationalen Scrum-Setup verantwortete ich einen Anbietermigrations-Stream: Übergang vom bestehenden Deutsche Börse Reporting-Anbieter (ARM) zu einer UK-basierten Alternative, inklusive TRE-seitiger Anforderungen, Mapping, Testing und Cutover-Koordination.
Tools & Methoden: Jira, Confluence, Jama, Enterprise Architect, SQL, Oracle SQL Developer, REST APIs, Swagger,
ETL/ELT pipelines, Scrum, UML
TechQuartier nutzte HubSpot neben einem CMS und Web Analytics, aber Funnel-Tracking und Reporting waren inkonsistent und manuell. Das Ziel war die Etablierung eines RevOps-Betriebsmodells: Definition von Lifecycle-Stages und KPIs, Automatisierung von Lead-Handling und Übergaben sowie Bereitstellung zuverlässiger täglicher Reports. Die Lösung kombinierte HubSpot-Konfiguration und Workflows mit API-basierten Integrationen und Enrichment über umliegende Tools. Ergebnis: klarere Funnel-Sichtbarkeit, schnellere Follow-ups und reduzierter manueller Admin-Aufwand.
Tools & Methoden: Miro, Notion, Python, REST APIs, Postman,
PowerShell, Make, HubSpot, Google Analytics, BPMN 2.0, UML
CGI führte eine interne Initiative zur Modernisierung des HR-Reportings und zur Reduzierung des manuellen Aufwands durch Standardisierung von KPIs und Ermöglichung von Self-Service-Analytics. Die größte Herausforderung war fragmentierte Reporting-Logik und wiederkehrende manuelle Vorbereitung. Der Ansatz kombinierte Requirements-Workshops und Datenanalyse mit schnellem Tableau-Prototyping (Prep/Desktop/Server) und strukturiertem Enablement zur Förderung der Adoption. Parallel erkundeten zusätzliche Prototypen Near-Real-Time Event Analytics und Voice-Interaktion als Innovation Use Cases. Ergebnis: klareres Reporting, schnellere Zyklen und stärkere interne Tableau-Kompetenz.
Tools & Methoden: Tableau, Python, REST APIs, Postman, JavaScript
Frühere Phase desselben TRE-Programms (2017?2019). Das Projekt startete Anfang 2017 als Wasserfallmodell und wurde in ein agiles Projekt mit DevOps-Modell transformiert. Ich war der Einzige mit Scrum-Projekterfahrung in unserem Projektteam. Dies half dem Team bei einem reibungslosen Übergang zu Scrum.
Tools & Methoden: Jira, Confluence, Jama, HP ALM, Visio, Enterprise Architect, SharePoint, SQL, Oracle SQL Developer, Git, REST APIs, Swagger, ETL/ELT-Pipelines, Docker, PowerShell, Bitbucket, Scrum, UML
Innovation-Lab-Engagement bei MAN (Volkswagen AG) zur schnellen Prototypenentwicklung von Predictive-Maintenance-Analytics unter Verwendung von LKW-Telematikdaten. Ziel war die Erkundung ausfall-relevanter Signale, Validierung von Annahmen durch explorative/statistische Analyse und Umsetzung der Erkenntnisse in ein Dashboard-/Prototyp-Konzept für Frühwarnung und Wartungsplanung.
Tools & Methoden: R, Shiny, RStudio, QlikView, Scrum
Entwicklung einer Cloud-BI-Plattform zur Messung der Online-/Offline-Marketing-Performance von ?KODA unter Verwendung eines Lean-KPI-Ansatzes und Datenvisualisierung. Als Product Owner stimmte ich KPI-Definitionen, Tracking-/Messlogik und Reporting-Anforderungen mit Digital-Marketing-Stakeholdern ab, unter Nutzung von Google Analytics als Kerndatenquelle für kanalübergreifendes Kampagnen-Performance-Tracking.
Tools & Methoden: Trello, REST APIs, Postman, Google Analytics, Kanban
Zertifizierungen
Ich bringe über 10 Jahre Erfahrung in der Umsetzung datenintensiver Projekte mit, vom ersten Workshop bis zum Rollout. Mit ausgeprägtem technischem Verständnis arbeite ich eng mit Entwicklern zusammen und sorge für eine klare Abstimmung zwischen Fachbereich und IT durch eindeutige Deliverables. Ich bin erfahren in agiler Delivery (Certified Scrum Master) und kann bei Bedarf Testing und Produktionssupport übernehmen. Mein Projekthintergrund umfasst DAX-Konzerne und große Organisationen (Deutsche Bank, European Central Bank, Volkswagen) sowie mittelständische Unternehmen und Start-ups. Ich passe mich schnell sowohl an Konzernstrukturen als auch an dynamische Umgebungen an.
Kunden
Deutsche Bank, Europäische Zentralbank, Volkswagen (MAN, ?KODA), Uponor (heute GF/Georg Fischer), EUMETSAT, TechQuartier
Freiwillige Arbeit und Community Aktivitäten gerne auf Anfrage
Tools & Methoden: Miro, SharePoint, SQL, Postgres, DataGrip, Python, PyCharm, dbt, Jupyter Notebooks, Git, REST APIs, Postman, ETL/ELT-Pipelines, PowerShell, n8n, HubSpot, Pipedrive, GitHub, GenAI/LLMs, OpenAI API, Kanban, UML
Teil des Anti-Financial-Crime Transaction Monitoring Teams der Deutschen Bank, Analyse von Produktionsdaten in EMEA und APAC zur Identifizierung und Steuerung der Behebung von Data-Governance- und Data-Quality-Problemen für AML/Sanctions/Fraud/Tax Use Cases. Unterstützung des Rollouts einer neuen TM-Applikation auf GCP und einer Data-Staging-Schicht mit audit- und regulatorisch konformen Nachweisen, abgestimmt mit Internal Audit, KPMG und BaFin.
Tools & Methoden: Jira, SQL, Python, R, RStudio, Jupyter Notebooks, Git, Camunda, SAFe, BPMN 2.0, UML, API, Kanban
Uponor führte Docebo als neues Enterprise-LMS ein und integrierte es mit Salesforce. Die Umsetzung kombinierte E-Learning-Produktion mit geschäftslogikgesteuertem Datenaustausch zwischen LMS und CRM (Provisioning, Enrolments, Abschlüsse/Zertifizierungen). Die Arbeit umfasste iteratives Prototyping in Scrum, Testing über Sandbox und Produktion, Deployment-Koordination und Post-Go-Live-Monitoring in einer risikosensitiven Umgebung.
Tools & Methoden: Miro, Figma, Notion, Scrum, Articulate Storyline, Docebo
Umsetzung innerhalb des Transaction Reporting Engine (TRE) Programms der Deutschen Bank für MiFID II/MiFIR Transaction Reporting (T+1). In einem internationalen Scrum-Setup verantwortete ich einen Anbietermigrations-Stream: Übergang vom bestehenden Deutsche Börse Reporting-Anbieter (ARM) zu einer UK-basierten Alternative, inklusive TRE-seitiger Anforderungen, Mapping, Testing und Cutover-Koordination.
Tools & Methoden: Jira, Confluence, Jama, Enterprise Architect, SQL, Oracle SQL Developer, REST APIs, Swagger,
ETL/ELT pipelines, Scrum, UML
TechQuartier nutzte HubSpot neben einem CMS und Web Analytics, aber Funnel-Tracking und Reporting waren inkonsistent und manuell. Das Ziel war die Etablierung eines RevOps-Betriebsmodells: Definition von Lifecycle-Stages und KPIs, Automatisierung von Lead-Handling und Übergaben sowie Bereitstellung zuverlässiger täglicher Reports. Die Lösung kombinierte HubSpot-Konfiguration und Workflows mit API-basierten Integrationen und Enrichment über umliegende Tools. Ergebnis: klarere Funnel-Sichtbarkeit, schnellere Follow-ups und reduzierter manueller Admin-Aufwand.
Tools & Methoden: Miro, Notion, Python, REST APIs, Postman,
PowerShell, Make, HubSpot, Google Analytics, BPMN 2.0, UML
CGI führte eine interne Initiative zur Modernisierung des HR-Reportings und zur Reduzierung des manuellen Aufwands durch Standardisierung von KPIs und Ermöglichung von Self-Service-Analytics. Die größte Herausforderung war fragmentierte Reporting-Logik und wiederkehrende manuelle Vorbereitung. Der Ansatz kombinierte Requirements-Workshops und Datenanalyse mit schnellem Tableau-Prototyping (Prep/Desktop/Server) und strukturiertem Enablement zur Förderung der Adoption. Parallel erkundeten zusätzliche Prototypen Near-Real-Time Event Analytics und Voice-Interaktion als Innovation Use Cases. Ergebnis: klareres Reporting, schnellere Zyklen und stärkere interne Tableau-Kompetenz.
Tools & Methoden: Tableau, Python, REST APIs, Postman, JavaScript
Frühere Phase desselben TRE-Programms (2017?2019). Das Projekt startete Anfang 2017 als Wasserfallmodell und wurde in ein agiles Projekt mit DevOps-Modell transformiert. Ich war der Einzige mit Scrum-Projekterfahrung in unserem Projektteam. Dies half dem Team bei einem reibungslosen Übergang zu Scrum.
Tools & Methoden: Jira, Confluence, Jama, HP ALM, Visio, Enterprise Architect, SharePoint, SQL, Oracle SQL Developer, Git, REST APIs, Swagger, ETL/ELT-Pipelines, Docker, PowerShell, Bitbucket, Scrum, UML
Innovation-Lab-Engagement bei MAN (Volkswagen AG) zur schnellen Prototypenentwicklung von Predictive-Maintenance-Analytics unter Verwendung von LKW-Telematikdaten. Ziel war die Erkundung ausfall-relevanter Signale, Validierung von Annahmen durch explorative/statistische Analyse und Umsetzung der Erkenntnisse in ein Dashboard-/Prototyp-Konzept für Frühwarnung und Wartungsplanung.
Tools & Methoden: R, Shiny, RStudio, QlikView, Scrum
Entwicklung einer Cloud-BI-Plattform zur Messung der Online-/Offline-Marketing-Performance von ?KODA unter Verwendung eines Lean-KPI-Ansatzes und Datenvisualisierung. Als Product Owner stimmte ich KPI-Definitionen, Tracking-/Messlogik und Reporting-Anforderungen mit Digital-Marketing-Stakeholdern ab, unter Nutzung von Google Analytics als Kerndatenquelle für kanalübergreifendes Kampagnen-Performance-Tracking.
Tools & Methoden: Trello, REST APIs, Postman, Google Analytics, Kanban
Zertifizierungen
Ich bringe über 10 Jahre Erfahrung in der Umsetzung datenintensiver Projekte mit, vom ersten Workshop bis zum Rollout. Mit ausgeprägtem technischem Verständnis arbeite ich eng mit Entwicklern zusammen und sorge für eine klare Abstimmung zwischen Fachbereich und IT durch eindeutige Deliverables. Ich bin erfahren in agiler Delivery (Certified Scrum Master) und kann bei Bedarf Testing und Produktionssupport übernehmen. Mein Projekthintergrund umfasst DAX-Konzerne und große Organisationen (Deutsche Bank, European Central Bank, Volkswagen) sowie mittelständische Unternehmen und Start-ups. Ich passe mich schnell sowohl an Konzernstrukturen als auch an dynamische Umgebungen an.
Kunden
Deutsche Bank, Europäische Zentralbank, Volkswagen (MAN, ?KODA), Uponor (heute GF/Georg Fischer), EUMETSAT, TechQuartier
Freiwillige Arbeit und Community Aktivitäten gerne auf Anfrage