Business/Funktionelle/Daten Analyse. Requirements Engineering und Testing
Aktualisiert am 29.01.2026
Profil
Freiberufler / Selbstständiger
Remote-Arbeit
Verfügbar ab: 02.02.2026
Verfügbar zu: 100%
davon vor Ort: 100%
Anforderungsanalyse
Prozessberatung
Datenanalyse
certified scrum master
Atlassian JIRA
Atlassian Confluence
BPMN
Camunda
SQL
Python
Collibra
Testing/QS/QM
L3 Support
MiFID
Regulatory Affairs
EU AI Act
IT-Governance
UML
DSGVO
VBA
Datenqualitätsprüfung
Figma
Künstliche Intelligenz
Deutsch
Verhandlungssicher
Englisch
Verhandlungssicher
Usbekisch
Muttersprache

Einsatzorte

Einsatzorte

Deutschland, Österreich
möglich

Projekte

Projekte

4 Monate
2025-10 - 2026-01

CRM-Migration: Datenqualität, Integrationen, Prozessautomatisierung

Business- und Daten-Analyst Python SQL Git ...
Business- und Daten-Analyst
TechQuartier migrierte von HubSpot zu Pipedrive, um das CRM für Vertrieb und Marketing zu vereinfachen und zu skalieren. Die größte Herausforderung war ein großer, inkonsistenter Datenbestand, der ein direktes Lift-and-Shift zu riskant machte. Die Migration wurde als kontrollierter Neuaufbau durchgeführt: sauberes Zieldatenmodell, gestufter Migrationsprozess mit Validierung sowie Neuimplementierung von Automatisierungen und Integrationen für End-to-End-Prozesse.


  • Durchführung von Discovery-Workshops zur Bestätigung der Anforderungen und Entfernung redundanter Objekte/Felder
  • Extraktion von HubSpot-Daten via API und Exports; Sicherstellung der Vollständigkeit für den Migrationsumfang
  • Aufbau einer gestuften Migrationspipeline mit n8n + Cloud PostgreSQL für Data Staging/Processing
  • Profilierung, Bereinigung und Abstimmung von Kontakten/Unternehmen mit SQL-basierten Qualitätsprüfungen
  • Entwicklung von Python-Cleanup-Scripts für Musteranalyse und systematische Standardisierung
  • Erstellung von Source-to-Target-Mapping inkl. Enum-/Value-Mapping und Atomic-Value-Standards
  • Nutzung der OpenAI API zur Normalisierung anonymisierter, nicht-sensitiver Freitext-Felder
  • Konfiguration von Pipedrive, Import via API, Neuaufbau von Automatisierungen + API-Integrationen.


Tools & Methoden: Miro, SharePoint, SQL, Postgres, DataGrip, Python, PyCharm, dbt, Jupyter Notebooks, Git, REST APIs, Postman, ETL/ELT-Pipelines, PowerShell, n8n, HubSpot, Pipedrive, GitHub, GenAI/LLMs, OpenAI API, Kanban, UML

HubSpot Pipedrive n8n OpenAPI GitHub Jupyter Notebooks dbt
Python SQL Git ETL Postgres REST API
TechQuartier
Frankfurt am Main
5 Monate
2024-01 - 2024-05

Anti-Financial-Crime Daten-Governance und Data Stewardship

Datenanalyst und Data Steward SQL Python Kanban ...
Datenanalyst und Data Steward

Teil des Anti-Financial-Crime Transaction Monitoring Teams der Deutschen Bank, Analyse von Produktionsdaten in EMEA und APAC zur Identifizierung und Steuerung der Behebung von Data-Governance- und Data-Quality-Problemen für AML/Sanctions/Fraud/Tax Use Cases. Unterstützung des Rollouts einer neuen TM-Applikation auf GCP und einer Data-Staging-Schicht mit audit- und regulatorisch konformen Nachweisen, abgestimmt mit Internal Audit, KPMG und BaFin.


  • Untersuchung von Datenlücken mittels Root-Cause-Analyse und Governance-Reviews
  • Unterstützung bei Audit-/Regulatorik-Nachweisen und Dokumentation (Internal Audit, KPMG, BaFin)
  • Erhebung und Verfeinerung technischer Anforderungen für Analyse- und Behebungsaktivitäten
  • Durchführung von Data Discovery und Ursache-Wirkungs-Analyse über 20+ Systeme und 20+ Länder
  • Bewertung kritischer Elemente gegen Governance-Richtlinien und Standards/Nachrichtenformate
  • Analyse von Lineage/Metadaten/EDM-Artefakten; Klärung von Richtlinien mit Data Owners
  • Erstellung von Übergabe- und Audit-Abschluss-Dokumentation für CB/PB-Stakeholder
  • Verfolgung des Behebungsfortschritts und Erstellung von Management-Reporting (Kanban-Workflow)
Tools & Methoden: Jira, Confluence, SQL, Impala, Python, VBA, Collibra, Waltz, Kanban
Atlassian JIRA Atlassian Confluence Collibra Waltz
SQL Python Kanban VBA
Deutsche Bank
Frankfurt am Main
5 Monate
2023-02 - 2023-06

Migration von Enterprise Analytics: Prozessmodellierung/-automatisierung

Prozessanalyst SQL Python R ...
Prozessanalyst
Die EZB migrierte von einer 25 Jahre alten Legacy-Analytics-Plattform zu SPACE. Das globale Programm (~200 IT-Mitarbeiter) erforderte die Modellierung und Automatisierung von 96 Geschäftsprozessen, die die Report-Produktion für die Geldpolitik der EZB orchestrieren. Ich übersetzte Abteilungsanforderungen in BPMN-Designs, die in Camunda ausführbar sind, abgestimmt mit manuellen Ausführungspfaden in Jupyter/RStudio unter strengen Performance- und Vertraulichkeitsanforderungen.


  • Erhebung und Dokumentation fachlich-technischer Anforderungen von 30+ EZB-Abteilungen
  • Analyse und Optimierung von End-to-End-Prozessen inkl. Rollen, Übergaben, Ausnahmen, Regeln
  • Design von BPMN 2.0-Prozessmodellen in Camunda Modeler, abgestimmt auf Engine-Ausführung
  • Unterstützung von 15 Delivery Teams bei der Klärung von Prozessintention, Edge Cases und Anforderungen
  • Review und Ausführung von Python/R-Scripts zur Abstimmung automatisierter vs. manueller Schritte (Jupyter/RStudio)
  • Moderation von Workshops, Demos und Trainings in einem großen, vollständig remoten Setup
  • Monitoring von Durchsatz-/Performance-Constraints und Rückführung der Erkenntnisse in das Prozessdesign


Tools & Methoden: Jira, SQL, Python, R, RStudio, Jupyter Notebooks, Git, Camunda, SAFe, BPMN 2.0, UML, API, Kanban

Camunda Atlassian JIRA
SQL Python R RStudio Jupyter Notebooks Git BPMN
Europäische Zentralbank
Frankfurt am Main
1 Jahr 2 Monate
2021-11 - 2022-12

LMS-Rollout: Bildungsprodukte und Salesforce-Integration

Technischer Product Owner Scrum Product Owner
Technischer Product Owner

Uponor führte Docebo als neues Enterprise-LMS ein und integrierte es mit Salesforce. Die Umsetzung kombinierte E-Learning-Produktion mit geschäftslogikgesteuertem Datenaustausch zwischen LMS und CRM (Provisioning, Enrolments, Abschlüsse/Zertifizierungen). Die Arbeit umfasste iteratives Prototyping in Scrum, Testing über Sandbox und Produktion, Deployment-Koordination und Post-Go-Live-Monitoring in einer risikosensitiven Umgebung.

  • Übersetzung von Geschäftsanforderungen in technische Anforderungen; Verantwortung für Backlog-Pflege.
  • Spezifikation der LMS-Salesforce-Integrationsregeln (Users, Enrolments, Abschlüsse, Zertifikate).
  • Koordination von SMEs, Instructional Designers, Low-Code-Entwicklern und Video-/Content-Teams.
  • Lieferung von ~15 interaktiven E-Learning-Kursen, abgestimmt auf Business-Lernziele.
  • Management von QA/UAT über Sandbox und Produktion; Handling von Defects und Release-Readiness.
  • Verwaltung von Content-Packaging und Deployment zu Docebo; Unterstützung der Go-Live Stabilisierung.
  • Stakeholder-Kommunikation und Delivery Governance (Risiken, Abhängigkeiten, Budget).


Tools & Methoden: Miro, Figma, Notion, Scrum, Articulate Storyline, Docebo

Docebo Figma Notion Articulate Articulate Storyline Articulate Rise Miro Salesforce
Scrum Product Owner
Uponor (heute GF/Georg Fischer)
Frankfurt am Main
6 Monate
2021-06 - 2021-11

Migration eines Reporting-Anbieters: API-Spezifikationen & Cutover

Requirements Engineer ETL Scrum UML ...
Requirements Engineer

Umsetzung innerhalb des Transaction Reporting Engine (TRE) Programms der Deutschen Bank für MiFID II/MiFIR Transaction Reporting (T+1). In einem internationalen Scrum-Setup verantwortete ich einen Anbietermigrations-Stream: Übergang vom bestehenden Deutsche Börse Reporting-Anbieter (ARM) zu einer UK-basierten Alternative, inklusive TRE-seitiger Anforderungen, Mapping, Testing und Cutover-Koordination.


  • Definition von Sign-off-Kriterien und Akzeptanz-Gates für Reporting-Vollständigkeit/-Korrektheit
  • Abstimmung interner Reporting-Prozesse mit MiFID II/MiFIR und Zielanbieter-Schnittstellen
  • Pflege von systemübergreifenden AS-IS/TO-BE-Dokumenten inkl. Prozessflüsse, Übergaben, Schnittstellen
  • Erstellung von Specs für Source-to-Target-Mapping, Transformationen und API-/Schnittstellenverträge
  • Definition von Batch-Run-Anforderungen: Zeitplan, Abhängigkeiten, Abstimmung, Cutover-Checks
  • Koordination von Stakeholdern, Entwicklungsteams und Anbieter; Unterstützung von E2E-Testing


Tools & Methoden: Jira, Confluence, Jama, Enterprise Architect, SQL, Oracle SQL Developer, REST APIs, Swagger,

ETL/ELT pipelines, Scrum, UML

Atlassian JIRA Atlassian JIRA Agile Atlassian Confluence SQL Enterprise Architect Oracle SQL Developer Swagger
ETL Scrum UML MiFID
Deutsche Bank
Frankfurt am Main
10 Monate
2020-08 - 2021-05

CRM HubSpot Automatisierung: KPI-Reporting und Integrationen

Prozessanalyst und Automatisierungsberater BPMN REST make ...
Prozessanalyst und Automatisierungsberater

TechQuartier nutzte HubSpot neben einem CMS und Web Analytics, aber Funnel-Tracking und Reporting waren inkonsistent und manuell. Das Ziel war die Etablierung eines RevOps-Betriebsmodells: Definition von Lifecycle-Stages und KPIs, Automatisierung von Lead-Handling und Übergaben sowie Bereitstellung zuverlässiger täglicher Reports. Die Lösung kombinierte HubSpot-Konfiguration und Workflows mit API-basierten Integrationen und Enrichment über umliegende Tools. Ergebnis: klarere Funnel-Sichtbarkeit, schnellere Follow-ups und reduzierter manueller Admin-Aufwand.


  • Definition teamübergreifender Lifecycle-Stages, der erforderlichen Felder und Übergaberegeln
  • Aufbau von HubSpot-Workflows für Lead-Erfassung, Routing, Follow-ups und Erinnerungen
  • Implementierung automatisierter täglicher KPI-Dashboards für Funnel- und Pipeline-Reporting
  • Integration von HubSpot mit CMS und Web Analytics für Attribution/Segmentierung
  • Implementierung von API-basiertem Enrichment und Datenaustausch mit externen Services
  • Bereinigung und Standardisierung von CRM-Daten zur Verbesserung von Reporting-Genauigkeit und Usability
  • Validierung von Datenflüsse und Metriken mit SQL/Python-Checks und Stakeholder-Reviews
  • Dokumentation von Prozessen und Unterstützung der Adoption während Rollout und Iterationen


Tools & Methoden: Miro, Notion, Python, REST APIs, Postman,

PowerShell, Make, HubSpot, Google Analytics, BPMN 2.0, UML


Miro HubSpot Google Analytics
BPMN REST make Python UML Postman PowerShell
TechQuartier
Frankfurt am Main
8 Monate
2019-07 - 2020-02

Tableau HR-Reporting: Datenaufbereitung, KPI-Dashboards, Automatisierung

Prozessanalyst und Automatisierungsberater Python REST JavaScript
Prozessanalyst und Automatisierungsberater

CGI führte eine interne Initiative zur Modernisierung des HR-Reportings und zur Reduzierung des manuellen Aufwands durch Standardisierung von KPIs und Ermöglichung von Self-Service-Analytics. Die größte Herausforderung war fragmentierte Reporting-Logik und wiederkehrende manuelle Vorbereitung. Der Ansatz kombinierte Requirements-Workshops und Datenanalyse mit schnellem Tableau-Prototyping (Prep/Desktop/Server) und strukturiertem Enablement zur Förderung der Adoption. Parallel erkundeten zusätzliche Prototypen Near-Real-Time Event Analytics und Voice-Interaktion als Innovation Use Cases. Ergebnis: klareres Reporting, schnellere Zyklen und stärkere interne Tableau-Kompetenz.


  • Analyse von HR-Reporting-Anforderungen via Stakeholder-Interviews und Prozess-Walkthroughs
  • Definition von KPIs und Datenanforderungen; Dokumentation von Transformations-/Automatisierungsbedarf
  • Erstellung und Präsentation des Business Case für die HR-Reporting-Modernisierungsinitiative
  • Prototyping von Management-Dashboards mit Tableau Prep, Desktop und Server
  • Implementierung automatisierter Data-Prep-Schritte zur Reduzierung des manuellen Reporting-Aufwands
  • Planung und Durchführung von Tableau-Enablement-Sessions; Koordination externer Trainer-Workshops
  • Erstellung eines Event-Analytics-PoC mit Integration von QR-Scan-Service und Tableau-Dashboards
  • Entwicklung eines Alexa-Voice-Prototyps in JavaScript für Innovation-/Demo-Kontexte


 Tools & Methoden: Tableau, Python, REST APIs, Postman, JavaScript

Tableau Postman
Python REST JavaScript
CGI
Sulzbach (Taunus)
2 Jahre 6 Monate
2017-01 - 2019-06

MiFID/MiFIR Transaction Reporting Engine: Business-Analyse, Anforderungsengineering, SIT/UAT Testing, Monitoring, L3-Support

Requirements Engineer und Tester SQL Git UML ...
Requirements Engineer und Tester

Frühere Phase desselben TRE-Programms (2017?2019). Das Projekt startete Anfang 2017 als Wasserfallmodell und wurde in ein agiles Projekt mit DevOps-Modell transformiert. Ich war der Einzige mit Scrum-Projekterfahrung in unserem Projektteam. Dies half dem Team bei einem reibungslosen Übergang zu Scrum.


  • Erstellung funktionaler/technischer Specs inkl. API-Verträge, Regeln, Services, Schemas, Daten
  • Verantwortung für Frontend-Anforderungen: Wireframes, UI-Module, Interaktionslogik, API-Touchpoints
  • Erstellung von SIT/UAT-Tests; Unterstützung von E2E-Testing über UI, Services und Data Layer
  • Defect-Management (Triage, Fix-Verifikation); Unterstützung der Testautomatisierung (UI-Objekte, Daten)
  • L3-Produktionssupport: Incident-/Datenanalyse, Root-Cause und Stakeholder-Kommunikation
  • Koordination von Business, Dev-/Test-Teams, Anbietern und regulatorisch orientierten Stakeholdern
  • Moderation von Workshops zur Abstimmung von Scope, Regeln, Schnittstellen und Delivery-Readiness
  • Unterstützung des Scrum/DevOps-Übergangs; Aufbau der Req-to-Test-Traceability in Jira/Confluence


Tools & Methoden: Jira, Confluence, Jama, HP ALM, Visio, Enterprise Architect, SharePoint, SQL, Oracle SQL Developer, Git, REST APIs, Swagger, ETL/ELT-Pipelines, Docker, PowerShell, Bitbucket, Scrum, UML

Atlassian JIRA Atlassian JIRA Agile Atlassian Confluence Jama HP ALM MS Visio Microsoft Visio 2010 Enterprise Architect Oracle SQL Developer Swagger Bitbucket
SQL Git UML UML 2.0 Scrum ETL Test Testing/QS/QM Acceptance Test Webdesign MiFID
Deutsche Bank
Frankfurt am Main
8 Monate
2015-10 - 2016-05

Predictive-Maintenance-Analytics-Prototyp

Daten- und Functional Analyst R Scrum
Daten- und Functional Analyst

Innovation-Lab-Engagement bei MAN (Volkswagen AG) zur schnellen Prototypenentwicklung von Predictive-Maintenance-Analytics unter Verwendung von LKW-Telematikdaten. Ziel war die Erkundung ausfall-relevanter Signale, Validierung von Annahmen durch explorative/statistische Analyse und Umsetzung der Erkenntnisse in ein Dashboard-/Prototyp-Konzept für Frühwarnung und Wartungsplanung.


  • Lieferung eines PoC in Scrum; Umsetzung von Predictive-Maintenance-Hypothesen in Prototypen
  • Vorbereitung von Telematikdaten (Extraktion/Bereinigung); Erkundung von Features und ausfall-relevanten Signalen
  • Erstellung von Dashboard-/Prototyp-Konzepten zur Visualisierung von KPIs, Trends und Anomalie-Mustern
  • Implementierung schneller Iterationen in R/RShiny mit Stakeholder-Feedback-Schleifen


Tools & Methoden: R, Shiny, RStudio, QlikView, Scrum

RStudio QlikView
R Scrum
Volkswagen AG / MAN
München
6 Monate
2014-10 - 2015-03

Marketing-BI-Platform

Product Owner Kanban REST Scrum
Product Owner

Entwicklung einer Cloud-BI-Plattform zur Messung der Online-/Offline-Marketing-Performance von ?KODA unter Verwendung eines Lean-KPI-Ansatzes und Datenvisualisierung. Als Product Owner stimmte ich KPI-Definitionen, Tracking-/Messlogik und Reporting-Anforderungen mit Digital-Marketing-Stakeholdern ab, unter Nutzung von Google Analytics als Kerndatenquelle für kanalübergreifendes Kampagnen-Performance-Tracking.


  • Verantwortung für Backlog und Requirements für Analytics-/Reporting-Features (Personas, Stories)
  • Definition von Lean KPIs und Messlogik aus Kampagnen- und Conversion-Daten
  • Spezifikation von Tracking und API-/Datenschnittstellen für zuverlässige Datenerfassung und Reporting
  • Unterstützung der A/B-Test-Messung und Iteration von Dashboards via Usability-Feedback


Tools & Methoden: Trello, REST APIs, Postman, Google Analytics, Kanban

Trello Postman Google Analytics
Kanban REST Scrum
Volkswagen AG / ?KODA
Prag

Aus- und Weiterbildung

Aus- und Weiterbildung

1 Jahr 1 Monat
2016-09 - 2017-09

MSc Data Science

Hochschule Albstadt-Sigmaringen, Albstadt
Hochschule Albstadt-Sigmaringen, Albstadt
  • Berufsbegleitendes Teilzeitstudium. Der Studiengang ist nicht abgeschlossen
2 Jahre 4 Monate
2013-09 - 2015-12

MA International Business Administration

Rhein Main Hochschule, Wiesbaden
Rhein Main Hochschule, Wiesbaden
1 Jahr 3 Monate
2012-06 - 2013-08

Deutsch-Intensivkurse

Sprachschulen, Freiburg und Frankfurt a.M.
Sprachschulen, Freiburg und Frankfurt a.M.
1 Jahr 3 Monate
2007-09 - 2008-11

Postgrad International Management

University of Brighton, Brighton, England
University of Brighton, Brighton, England
4 Jahre 11 Monate
2000-09 - 2005-07

B.A. Economics

Universität für Weltwirtschaft und Diplomatie, Taschkent, Usbekistan
Universität für Weltwirtschaft und Diplomatie, Taschkent, Usbekistan

Position

Position

  • Requirements Engineer
  • Functional Analyst
  • Business Analyst
  • Data Analyst
  • Process Analyst


Kompetenzen

Kompetenzen

Top-Skills

Anforderungsanalyse Prozessberatung Datenanalyse certified scrum master Atlassian JIRA Atlassian Confluence BPMN Camunda SQL Python Collibra Testing/QS/QM L3 Support MiFID Regulatory Affairs EU AI Act IT-Governance UML DSGVO VBA Datenqualitätsprüfung Figma Künstliche Intelligenz

Schwerpunkte

Requirements Engineering
Experte
Funktionale Analyse
Experte
Business Analyse
Experte
Scrum
Experte
Testing
Experte

Produkte / Standards / Erfahrungen / Methoden

AWS
Basics
Confluence
Fortgeschritten
Google Analytics
Fortgeschritten
HP ALM
Basics
HubSpot
Experte
Jama
Basics
JIRA
Fortgeschritten
MySQL
Fortgeschritten
Python
Basics
R
Basics
Tableau
Basics
BPMN
Fortgeschritten
Camunda
Fortgeschritten
Miro
Fortgeschritten
UML
Fortgeschritten
Collibra
Basics
Figma
Basics
SharePoint
Basics
Power BI
Basics
Visio
Fortgeschritten
dbt
Basics
Git
Basics
REST
Fortgeschritten
SQL
Fortgeschritten
Swagger
Basics
Postman
Basics
ETL
Fortgeschritten
ELT
Basics
Docebo
Fortgeschritten
Moodle
Basics
Pipedrive
Experte
Docker
Basics
SAFe
Basics
Scrum
Experte
OpenAI
Fortgeschritten
LLM
Basics
GenAI
Basics
KI
Fortgeschritten
Waltz
Basics
n8n
Fortgeschritten
Kanban
Fortgeschritten

Ich bringe über 10 Jahre Erfahrung in der Umsetzung datenintensiver Projekte mit, vom ersten Workshop bis zum Rollout. Mit ausgeprägtem technischem Verständnis arbeite ich eng mit Entwicklern zusammen und sorge für eine klare Abstimmung zwischen Fachbereich und IT durch eindeutige Deliverables. Ich bin erfahren in agiler Delivery (Certified Scrum Master) und kann bei Bedarf Testing und Produktionssupport übernehmen. Mein Projekthintergrund umfasst DAX-Konzerne und große Organisationen (Deutsche Bank, European Central Bank, Volkswagen) sowie mittelständische Unternehmen und Start-ups. Ich passe mich schnell sowohl an Konzernstrukturen als auch an dynamische Umgebungen an.


Kunden

Deutsche Bank, Europäische Zentralbank, Volkswagen (MAN, ?KODA), Uponor (heute GF/Georg Fischer), EUMETSAT, TechQuartier


Kernkompetenzen
  • Stakeholder-Interviews, Workshops, Discovery
  • Epics/User Stories, Akzeptanzkriterien, Use Cases, Backlog Refinement
  • AS-IS/TO-BE, Gap-Analyse, Business Rules, Prozess-/Datenanforderungen
  • Change Requests, Impact Analyse, NFRs (Security/Performance)
  • UAT/SIT Planung & Support, Defect Triage
  • Go-Live Readiness, Hypercare/L3
  • SQL-Analyse, Data Profiling, Source-to-Target Mapping
  • Datenmodellierung, ETL/ELT Requirements
  • Datenbereinigung/Standardisierung, Data-Quality Checks (Regeln, Thresholds, Monitoring)
  • KPI-Definition, Dashboard-Prototyping, Reporting-Automation
  • API-basierte Integrationen (REST)
  • BPMN 2.0, Prozessdesign & Optimierung, ausführbare Modelle in Camunda
  • End-to-End Workflows inkl. Exceptions, Schnittstellen-/Datenflussdokumentation
  • Automatisierung mit n8n/Make
  • RevOps-/CRM-Automation (HubSpot, Pipedrive)
  • Data Dictionary/Katalog, Metadaten & Lineage
  • Remediation Workflows, Audit-Nachweise governance-aware (DSGVO, DGA, DORA, EU AI Act)
  • OpenAI API/LLMs für Normalisierung/Enrichment (z.B. Freitextfelder)
  • Assistenz für DQ/Mapping/Tests - mit Datenschutz-/Governance

  • Fach-/Technikkonzepte, Funktions- & Schnittstellenspezifikationen
  • Datenflüsse/Mappings, DQ-Regeln, Prüfberichte, Testfälle/UAT-Pakete, Go-Live Checklisten
  • BPMN/UML Modelle, Prozessdokumentation, KPI-/BI-Dashboards

  •  Jira, Confluence, Jama, HP ALM, Miro, Visio, Enterprise Architect, Figma, Balsamiq, Trello, Asana, MS Office, SharePoint, Teams
  •  SQL, Postgres, Power BI, Tableau, Python, VBA, dbt, Git, REST APIs, Postman, Swagger, ETL/ELT Pipelines, Docker
  •  n8n, Make, Camunda, HubSpot, Pipedrive, Google Analytics, GitHub, Collibra, Waltz, GenAI, LLMs, OpenAI API, Docebo
  •  Scrum, SAFe, Kanban, BPMN 2.0, UML

  • Scrum Master

Branchen

Branchen

  • Finanzdienstleistungen (Banken)
  • Versicherung
  • Einzelhandel
  • Regulatorik, Compliance
  • Automotive
  • Bauwesen, Immobilien
  • Industrie
  • E-Learning

Einsatzorte

Einsatzorte

Deutschland, Österreich
möglich

Projekte

Projekte

4 Monate
2025-10 - 2026-01

CRM-Migration: Datenqualität, Integrationen, Prozessautomatisierung

Business- und Daten-Analyst Python SQL Git ...
Business- und Daten-Analyst
TechQuartier migrierte von HubSpot zu Pipedrive, um das CRM für Vertrieb und Marketing zu vereinfachen und zu skalieren. Die größte Herausforderung war ein großer, inkonsistenter Datenbestand, der ein direktes Lift-and-Shift zu riskant machte. Die Migration wurde als kontrollierter Neuaufbau durchgeführt: sauberes Zieldatenmodell, gestufter Migrationsprozess mit Validierung sowie Neuimplementierung von Automatisierungen und Integrationen für End-to-End-Prozesse.


  • Durchführung von Discovery-Workshops zur Bestätigung der Anforderungen und Entfernung redundanter Objekte/Felder
  • Extraktion von HubSpot-Daten via API und Exports; Sicherstellung der Vollständigkeit für den Migrationsumfang
  • Aufbau einer gestuften Migrationspipeline mit n8n + Cloud PostgreSQL für Data Staging/Processing
  • Profilierung, Bereinigung und Abstimmung von Kontakten/Unternehmen mit SQL-basierten Qualitätsprüfungen
  • Entwicklung von Python-Cleanup-Scripts für Musteranalyse und systematische Standardisierung
  • Erstellung von Source-to-Target-Mapping inkl. Enum-/Value-Mapping und Atomic-Value-Standards
  • Nutzung der OpenAI API zur Normalisierung anonymisierter, nicht-sensitiver Freitext-Felder
  • Konfiguration von Pipedrive, Import via API, Neuaufbau von Automatisierungen + API-Integrationen.


Tools & Methoden: Miro, SharePoint, SQL, Postgres, DataGrip, Python, PyCharm, dbt, Jupyter Notebooks, Git, REST APIs, Postman, ETL/ELT-Pipelines, PowerShell, n8n, HubSpot, Pipedrive, GitHub, GenAI/LLMs, OpenAI API, Kanban, UML

HubSpot Pipedrive n8n OpenAPI GitHub Jupyter Notebooks dbt
Python SQL Git ETL Postgres REST API
TechQuartier
Frankfurt am Main
5 Monate
2024-01 - 2024-05

Anti-Financial-Crime Daten-Governance und Data Stewardship

Datenanalyst und Data Steward SQL Python Kanban ...
Datenanalyst und Data Steward

Teil des Anti-Financial-Crime Transaction Monitoring Teams der Deutschen Bank, Analyse von Produktionsdaten in EMEA und APAC zur Identifizierung und Steuerung der Behebung von Data-Governance- und Data-Quality-Problemen für AML/Sanctions/Fraud/Tax Use Cases. Unterstützung des Rollouts einer neuen TM-Applikation auf GCP und einer Data-Staging-Schicht mit audit- und regulatorisch konformen Nachweisen, abgestimmt mit Internal Audit, KPMG und BaFin.


  • Untersuchung von Datenlücken mittels Root-Cause-Analyse und Governance-Reviews
  • Unterstützung bei Audit-/Regulatorik-Nachweisen und Dokumentation (Internal Audit, KPMG, BaFin)
  • Erhebung und Verfeinerung technischer Anforderungen für Analyse- und Behebungsaktivitäten
  • Durchführung von Data Discovery und Ursache-Wirkungs-Analyse über 20+ Systeme und 20+ Länder
  • Bewertung kritischer Elemente gegen Governance-Richtlinien und Standards/Nachrichtenformate
  • Analyse von Lineage/Metadaten/EDM-Artefakten; Klärung von Richtlinien mit Data Owners
  • Erstellung von Übergabe- und Audit-Abschluss-Dokumentation für CB/PB-Stakeholder
  • Verfolgung des Behebungsfortschritts und Erstellung von Management-Reporting (Kanban-Workflow)
Tools & Methoden: Jira, Confluence, SQL, Impala, Python, VBA, Collibra, Waltz, Kanban
Atlassian JIRA Atlassian Confluence Collibra Waltz
SQL Python Kanban VBA
Deutsche Bank
Frankfurt am Main
5 Monate
2023-02 - 2023-06

Migration von Enterprise Analytics: Prozessmodellierung/-automatisierung

Prozessanalyst SQL Python R ...
Prozessanalyst
Die EZB migrierte von einer 25 Jahre alten Legacy-Analytics-Plattform zu SPACE. Das globale Programm (~200 IT-Mitarbeiter) erforderte die Modellierung und Automatisierung von 96 Geschäftsprozessen, die die Report-Produktion für die Geldpolitik der EZB orchestrieren. Ich übersetzte Abteilungsanforderungen in BPMN-Designs, die in Camunda ausführbar sind, abgestimmt mit manuellen Ausführungspfaden in Jupyter/RStudio unter strengen Performance- und Vertraulichkeitsanforderungen.


  • Erhebung und Dokumentation fachlich-technischer Anforderungen von 30+ EZB-Abteilungen
  • Analyse und Optimierung von End-to-End-Prozessen inkl. Rollen, Übergaben, Ausnahmen, Regeln
  • Design von BPMN 2.0-Prozessmodellen in Camunda Modeler, abgestimmt auf Engine-Ausführung
  • Unterstützung von 15 Delivery Teams bei der Klärung von Prozessintention, Edge Cases und Anforderungen
  • Review und Ausführung von Python/R-Scripts zur Abstimmung automatisierter vs. manueller Schritte (Jupyter/RStudio)
  • Moderation von Workshops, Demos und Trainings in einem großen, vollständig remoten Setup
  • Monitoring von Durchsatz-/Performance-Constraints und Rückführung der Erkenntnisse in das Prozessdesign


Tools & Methoden: Jira, SQL, Python, R, RStudio, Jupyter Notebooks, Git, Camunda, SAFe, BPMN 2.0, UML, API, Kanban

Camunda Atlassian JIRA
SQL Python R RStudio Jupyter Notebooks Git BPMN
Europäische Zentralbank
Frankfurt am Main
1 Jahr 2 Monate
2021-11 - 2022-12

LMS-Rollout: Bildungsprodukte und Salesforce-Integration

Technischer Product Owner Scrum Product Owner
Technischer Product Owner

Uponor führte Docebo als neues Enterprise-LMS ein und integrierte es mit Salesforce. Die Umsetzung kombinierte E-Learning-Produktion mit geschäftslogikgesteuertem Datenaustausch zwischen LMS und CRM (Provisioning, Enrolments, Abschlüsse/Zertifizierungen). Die Arbeit umfasste iteratives Prototyping in Scrum, Testing über Sandbox und Produktion, Deployment-Koordination und Post-Go-Live-Monitoring in einer risikosensitiven Umgebung.

  • Übersetzung von Geschäftsanforderungen in technische Anforderungen; Verantwortung für Backlog-Pflege.
  • Spezifikation der LMS-Salesforce-Integrationsregeln (Users, Enrolments, Abschlüsse, Zertifikate).
  • Koordination von SMEs, Instructional Designers, Low-Code-Entwicklern und Video-/Content-Teams.
  • Lieferung von ~15 interaktiven E-Learning-Kursen, abgestimmt auf Business-Lernziele.
  • Management von QA/UAT über Sandbox und Produktion; Handling von Defects und Release-Readiness.
  • Verwaltung von Content-Packaging und Deployment zu Docebo; Unterstützung der Go-Live Stabilisierung.
  • Stakeholder-Kommunikation und Delivery Governance (Risiken, Abhängigkeiten, Budget).


Tools & Methoden: Miro, Figma, Notion, Scrum, Articulate Storyline, Docebo

Docebo Figma Notion Articulate Articulate Storyline Articulate Rise Miro Salesforce
Scrum Product Owner
Uponor (heute GF/Georg Fischer)
Frankfurt am Main
6 Monate
2021-06 - 2021-11

Migration eines Reporting-Anbieters: API-Spezifikationen & Cutover

Requirements Engineer ETL Scrum UML ...
Requirements Engineer

Umsetzung innerhalb des Transaction Reporting Engine (TRE) Programms der Deutschen Bank für MiFID II/MiFIR Transaction Reporting (T+1). In einem internationalen Scrum-Setup verantwortete ich einen Anbietermigrations-Stream: Übergang vom bestehenden Deutsche Börse Reporting-Anbieter (ARM) zu einer UK-basierten Alternative, inklusive TRE-seitiger Anforderungen, Mapping, Testing und Cutover-Koordination.


  • Definition von Sign-off-Kriterien und Akzeptanz-Gates für Reporting-Vollständigkeit/-Korrektheit
  • Abstimmung interner Reporting-Prozesse mit MiFID II/MiFIR und Zielanbieter-Schnittstellen
  • Pflege von systemübergreifenden AS-IS/TO-BE-Dokumenten inkl. Prozessflüsse, Übergaben, Schnittstellen
  • Erstellung von Specs für Source-to-Target-Mapping, Transformationen und API-/Schnittstellenverträge
  • Definition von Batch-Run-Anforderungen: Zeitplan, Abhängigkeiten, Abstimmung, Cutover-Checks
  • Koordination von Stakeholdern, Entwicklungsteams und Anbieter; Unterstützung von E2E-Testing


Tools & Methoden: Jira, Confluence, Jama, Enterprise Architect, SQL, Oracle SQL Developer, REST APIs, Swagger,

ETL/ELT pipelines, Scrum, UML

Atlassian JIRA Atlassian JIRA Agile Atlassian Confluence SQL Enterprise Architect Oracle SQL Developer Swagger
ETL Scrum UML MiFID
Deutsche Bank
Frankfurt am Main
10 Monate
2020-08 - 2021-05

CRM HubSpot Automatisierung: KPI-Reporting und Integrationen

Prozessanalyst und Automatisierungsberater BPMN REST make ...
Prozessanalyst und Automatisierungsberater

TechQuartier nutzte HubSpot neben einem CMS und Web Analytics, aber Funnel-Tracking und Reporting waren inkonsistent und manuell. Das Ziel war die Etablierung eines RevOps-Betriebsmodells: Definition von Lifecycle-Stages und KPIs, Automatisierung von Lead-Handling und Übergaben sowie Bereitstellung zuverlässiger täglicher Reports. Die Lösung kombinierte HubSpot-Konfiguration und Workflows mit API-basierten Integrationen und Enrichment über umliegende Tools. Ergebnis: klarere Funnel-Sichtbarkeit, schnellere Follow-ups und reduzierter manueller Admin-Aufwand.


  • Definition teamübergreifender Lifecycle-Stages, der erforderlichen Felder und Übergaberegeln
  • Aufbau von HubSpot-Workflows für Lead-Erfassung, Routing, Follow-ups und Erinnerungen
  • Implementierung automatisierter täglicher KPI-Dashboards für Funnel- und Pipeline-Reporting
  • Integration von HubSpot mit CMS und Web Analytics für Attribution/Segmentierung
  • Implementierung von API-basiertem Enrichment und Datenaustausch mit externen Services
  • Bereinigung und Standardisierung von CRM-Daten zur Verbesserung von Reporting-Genauigkeit und Usability
  • Validierung von Datenflüsse und Metriken mit SQL/Python-Checks und Stakeholder-Reviews
  • Dokumentation von Prozessen und Unterstützung der Adoption während Rollout und Iterationen


Tools & Methoden: Miro, Notion, Python, REST APIs, Postman,

PowerShell, Make, HubSpot, Google Analytics, BPMN 2.0, UML


Miro HubSpot Google Analytics
BPMN REST make Python UML Postman PowerShell
TechQuartier
Frankfurt am Main
8 Monate
2019-07 - 2020-02

Tableau HR-Reporting: Datenaufbereitung, KPI-Dashboards, Automatisierung

Prozessanalyst und Automatisierungsberater Python REST JavaScript
Prozessanalyst und Automatisierungsberater

CGI führte eine interne Initiative zur Modernisierung des HR-Reportings und zur Reduzierung des manuellen Aufwands durch Standardisierung von KPIs und Ermöglichung von Self-Service-Analytics. Die größte Herausforderung war fragmentierte Reporting-Logik und wiederkehrende manuelle Vorbereitung. Der Ansatz kombinierte Requirements-Workshops und Datenanalyse mit schnellem Tableau-Prototyping (Prep/Desktop/Server) und strukturiertem Enablement zur Förderung der Adoption. Parallel erkundeten zusätzliche Prototypen Near-Real-Time Event Analytics und Voice-Interaktion als Innovation Use Cases. Ergebnis: klareres Reporting, schnellere Zyklen und stärkere interne Tableau-Kompetenz.


  • Analyse von HR-Reporting-Anforderungen via Stakeholder-Interviews und Prozess-Walkthroughs
  • Definition von KPIs und Datenanforderungen; Dokumentation von Transformations-/Automatisierungsbedarf
  • Erstellung und Präsentation des Business Case für die HR-Reporting-Modernisierungsinitiative
  • Prototyping von Management-Dashboards mit Tableau Prep, Desktop und Server
  • Implementierung automatisierter Data-Prep-Schritte zur Reduzierung des manuellen Reporting-Aufwands
  • Planung und Durchführung von Tableau-Enablement-Sessions; Koordination externer Trainer-Workshops
  • Erstellung eines Event-Analytics-PoC mit Integration von QR-Scan-Service und Tableau-Dashboards
  • Entwicklung eines Alexa-Voice-Prototyps in JavaScript für Innovation-/Demo-Kontexte


 Tools & Methoden: Tableau, Python, REST APIs, Postman, JavaScript

Tableau Postman
Python REST JavaScript
CGI
Sulzbach (Taunus)
2 Jahre 6 Monate
2017-01 - 2019-06

MiFID/MiFIR Transaction Reporting Engine: Business-Analyse, Anforderungsengineering, SIT/UAT Testing, Monitoring, L3-Support

Requirements Engineer und Tester SQL Git UML ...
Requirements Engineer und Tester

Frühere Phase desselben TRE-Programms (2017?2019). Das Projekt startete Anfang 2017 als Wasserfallmodell und wurde in ein agiles Projekt mit DevOps-Modell transformiert. Ich war der Einzige mit Scrum-Projekterfahrung in unserem Projektteam. Dies half dem Team bei einem reibungslosen Übergang zu Scrum.


  • Erstellung funktionaler/technischer Specs inkl. API-Verträge, Regeln, Services, Schemas, Daten
  • Verantwortung für Frontend-Anforderungen: Wireframes, UI-Module, Interaktionslogik, API-Touchpoints
  • Erstellung von SIT/UAT-Tests; Unterstützung von E2E-Testing über UI, Services und Data Layer
  • Defect-Management (Triage, Fix-Verifikation); Unterstützung der Testautomatisierung (UI-Objekte, Daten)
  • L3-Produktionssupport: Incident-/Datenanalyse, Root-Cause und Stakeholder-Kommunikation
  • Koordination von Business, Dev-/Test-Teams, Anbietern und regulatorisch orientierten Stakeholdern
  • Moderation von Workshops zur Abstimmung von Scope, Regeln, Schnittstellen und Delivery-Readiness
  • Unterstützung des Scrum/DevOps-Übergangs; Aufbau der Req-to-Test-Traceability in Jira/Confluence


Tools & Methoden: Jira, Confluence, Jama, HP ALM, Visio, Enterprise Architect, SharePoint, SQL, Oracle SQL Developer, Git, REST APIs, Swagger, ETL/ELT-Pipelines, Docker, PowerShell, Bitbucket, Scrum, UML

Atlassian JIRA Atlassian JIRA Agile Atlassian Confluence Jama HP ALM MS Visio Microsoft Visio 2010 Enterprise Architect Oracle SQL Developer Swagger Bitbucket
SQL Git UML UML 2.0 Scrum ETL Test Testing/QS/QM Acceptance Test Webdesign MiFID
Deutsche Bank
Frankfurt am Main
8 Monate
2015-10 - 2016-05

Predictive-Maintenance-Analytics-Prototyp

Daten- und Functional Analyst R Scrum
Daten- und Functional Analyst

Innovation-Lab-Engagement bei MAN (Volkswagen AG) zur schnellen Prototypenentwicklung von Predictive-Maintenance-Analytics unter Verwendung von LKW-Telematikdaten. Ziel war die Erkundung ausfall-relevanter Signale, Validierung von Annahmen durch explorative/statistische Analyse und Umsetzung der Erkenntnisse in ein Dashboard-/Prototyp-Konzept für Frühwarnung und Wartungsplanung.


  • Lieferung eines PoC in Scrum; Umsetzung von Predictive-Maintenance-Hypothesen in Prototypen
  • Vorbereitung von Telematikdaten (Extraktion/Bereinigung); Erkundung von Features und ausfall-relevanten Signalen
  • Erstellung von Dashboard-/Prototyp-Konzepten zur Visualisierung von KPIs, Trends und Anomalie-Mustern
  • Implementierung schneller Iterationen in R/RShiny mit Stakeholder-Feedback-Schleifen


Tools & Methoden: R, Shiny, RStudio, QlikView, Scrum

RStudio QlikView
R Scrum
Volkswagen AG / MAN
München
6 Monate
2014-10 - 2015-03

Marketing-BI-Platform

Product Owner Kanban REST Scrum
Product Owner

Entwicklung einer Cloud-BI-Plattform zur Messung der Online-/Offline-Marketing-Performance von ?KODA unter Verwendung eines Lean-KPI-Ansatzes und Datenvisualisierung. Als Product Owner stimmte ich KPI-Definitionen, Tracking-/Messlogik und Reporting-Anforderungen mit Digital-Marketing-Stakeholdern ab, unter Nutzung von Google Analytics als Kerndatenquelle für kanalübergreifendes Kampagnen-Performance-Tracking.


  • Verantwortung für Backlog und Requirements für Analytics-/Reporting-Features (Personas, Stories)
  • Definition von Lean KPIs und Messlogik aus Kampagnen- und Conversion-Daten
  • Spezifikation von Tracking und API-/Datenschnittstellen für zuverlässige Datenerfassung und Reporting
  • Unterstützung der A/B-Test-Messung und Iteration von Dashboards via Usability-Feedback


Tools & Methoden: Trello, REST APIs, Postman, Google Analytics, Kanban

Trello Postman Google Analytics
Kanban REST Scrum
Volkswagen AG / ?KODA
Prag

Aus- und Weiterbildung

Aus- und Weiterbildung

1 Jahr 1 Monat
2016-09 - 2017-09

MSc Data Science

Hochschule Albstadt-Sigmaringen, Albstadt
Hochschule Albstadt-Sigmaringen, Albstadt
  • Berufsbegleitendes Teilzeitstudium. Der Studiengang ist nicht abgeschlossen
2 Jahre 4 Monate
2013-09 - 2015-12

MA International Business Administration

Rhein Main Hochschule, Wiesbaden
Rhein Main Hochschule, Wiesbaden
1 Jahr 3 Monate
2012-06 - 2013-08

Deutsch-Intensivkurse

Sprachschulen, Freiburg und Frankfurt a.M.
Sprachschulen, Freiburg und Frankfurt a.M.
1 Jahr 3 Monate
2007-09 - 2008-11

Postgrad International Management

University of Brighton, Brighton, England
University of Brighton, Brighton, England
4 Jahre 11 Monate
2000-09 - 2005-07

B.A. Economics

Universität für Weltwirtschaft und Diplomatie, Taschkent, Usbekistan
Universität für Weltwirtschaft und Diplomatie, Taschkent, Usbekistan

Position

Position

  • Requirements Engineer
  • Functional Analyst
  • Business Analyst
  • Data Analyst
  • Process Analyst


Kompetenzen

Kompetenzen

Top-Skills

Anforderungsanalyse Prozessberatung Datenanalyse certified scrum master Atlassian JIRA Atlassian Confluence BPMN Camunda SQL Python Collibra Testing/QS/QM L3 Support MiFID Regulatory Affairs EU AI Act IT-Governance UML DSGVO VBA Datenqualitätsprüfung Figma Künstliche Intelligenz

Schwerpunkte

Requirements Engineering
Experte
Funktionale Analyse
Experte
Business Analyse
Experte
Scrum
Experte
Testing
Experte

Produkte / Standards / Erfahrungen / Methoden

AWS
Basics
Confluence
Fortgeschritten
Google Analytics
Fortgeschritten
HP ALM
Basics
HubSpot
Experte
Jama
Basics
JIRA
Fortgeschritten
MySQL
Fortgeschritten
Python
Basics
R
Basics
Tableau
Basics
BPMN
Fortgeschritten
Camunda
Fortgeschritten
Miro
Fortgeschritten
UML
Fortgeschritten
Collibra
Basics
Figma
Basics
SharePoint
Basics
Power BI
Basics
Visio
Fortgeschritten
dbt
Basics
Git
Basics
REST
Fortgeschritten
SQL
Fortgeschritten
Swagger
Basics
Postman
Basics
ETL
Fortgeschritten
ELT
Basics
Docebo
Fortgeschritten
Moodle
Basics
Pipedrive
Experte
Docker
Basics
SAFe
Basics
Scrum
Experte
OpenAI
Fortgeschritten
LLM
Basics
GenAI
Basics
KI
Fortgeschritten
Waltz
Basics
n8n
Fortgeschritten
Kanban
Fortgeschritten

Ich bringe über 10 Jahre Erfahrung in der Umsetzung datenintensiver Projekte mit, vom ersten Workshop bis zum Rollout. Mit ausgeprägtem technischem Verständnis arbeite ich eng mit Entwicklern zusammen und sorge für eine klare Abstimmung zwischen Fachbereich und IT durch eindeutige Deliverables. Ich bin erfahren in agiler Delivery (Certified Scrum Master) und kann bei Bedarf Testing und Produktionssupport übernehmen. Mein Projekthintergrund umfasst DAX-Konzerne und große Organisationen (Deutsche Bank, European Central Bank, Volkswagen) sowie mittelständische Unternehmen und Start-ups. Ich passe mich schnell sowohl an Konzernstrukturen als auch an dynamische Umgebungen an.


Kunden

Deutsche Bank, Europäische Zentralbank, Volkswagen (MAN, ?KODA), Uponor (heute GF/Georg Fischer), EUMETSAT, TechQuartier


Kernkompetenzen
  • Stakeholder-Interviews, Workshops, Discovery
  • Epics/User Stories, Akzeptanzkriterien, Use Cases, Backlog Refinement
  • AS-IS/TO-BE, Gap-Analyse, Business Rules, Prozess-/Datenanforderungen
  • Change Requests, Impact Analyse, NFRs (Security/Performance)
  • UAT/SIT Planung & Support, Defect Triage
  • Go-Live Readiness, Hypercare/L3
  • SQL-Analyse, Data Profiling, Source-to-Target Mapping
  • Datenmodellierung, ETL/ELT Requirements
  • Datenbereinigung/Standardisierung, Data-Quality Checks (Regeln, Thresholds, Monitoring)
  • KPI-Definition, Dashboard-Prototyping, Reporting-Automation
  • API-basierte Integrationen (REST)
  • BPMN 2.0, Prozessdesign & Optimierung, ausführbare Modelle in Camunda
  • End-to-End Workflows inkl. Exceptions, Schnittstellen-/Datenflussdokumentation
  • Automatisierung mit n8n/Make
  • RevOps-/CRM-Automation (HubSpot, Pipedrive)
  • Data Dictionary/Katalog, Metadaten & Lineage
  • Remediation Workflows, Audit-Nachweise governance-aware (DSGVO, DGA, DORA, EU AI Act)
  • OpenAI API/LLMs für Normalisierung/Enrichment (z.B. Freitextfelder)
  • Assistenz für DQ/Mapping/Tests - mit Datenschutz-/Governance

  • Fach-/Technikkonzepte, Funktions- & Schnittstellenspezifikationen
  • Datenflüsse/Mappings, DQ-Regeln, Prüfberichte, Testfälle/UAT-Pakete, Go-Live Checklisten
  • BPMN/UML Modelle, Prozessdokumentation, KPI-/BI-Dashboards

  •  Jira, Confluence, Jama, HP ALM, Miro, Visio, Enterprise Architect, Figma, Balsamiq, Trello, Asana, MS Office, SharePoint, Teams
  •  SQL, Postgres, Power BI, Tableau, Python, VBA, dbt, Git, REST APIs, Postman, Swagger, ETL/ELT Pipelines, Docker
  •  n8n, Make, Camunda, HubSpot, Pipedrive, Google Analytics, GitHub, Collibra, Waltz, GenAI, LLMs, OpenAI API, Docebo
  •  Scrum, SAFe, Kanban, BPMN 2.0, UML

  • Scrum Master

Branchen

Branchen

  • Finanzdienstleistungen (Banken)
  • Versicherung
  • Einzelhandel
  • Regulatorik, Compliance
  • Automotive
  • Bauwesen, Immobilien
  • Industrie
  • E-Learning

Vertrauen Sie auf Randstad

Im Bereich Freelancing
Im Bereich Arbeitnehmerüberlassung / Personalvermittlung

Fragen?

Rufen Sie uns an +49 89 500316-300 oder schreiben Sie uns:

Das Freelancer-Portal

Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.