Agile Softwareentwicklung, Scrum Master, Product Owner , Software Testing, Business Analyst, KYC/ Compliance
Aktualisiert am 28.09.2025
Profil
Freiberufler / Selbstständiger
Remote-Arbeit
Verfügbar ab: 25.09.2025
Verfügbar zu: 100%
davon vor Ort: 0%
Scrum Master
Product Owner
Testautomatisierung
Software Testing
KYC
AML
agile
ISTQB
HP ALM
JIRA
Confluence
Python
Testautomatisierung
Testautomatisierungstools
Selenium
Selenium WebDriver
Appium
testcafe
Behavior Driven Development
Cucumber
robot framework
English
German
Russian
Spanish, Castilian

Einsatzorte

Einsatzorte

Deutschland, Schweiz, Österreich
möglich

Projekte

Projekte

8 Monate
2025-04 - heute

Entwicklung einer KI-basierten Früherkennungs-App

AI Projektleiter & Koordinator Agile Projektmethodik (Scrum) CRISP-DM für Data Science MDR-Compliance-Prozesse ...
AI Projektleiter & Koordinator
Entwicklung einer KI-basierten Früherkennungs-App für neonatologische Lebererkrankungen

  • Konzeption und Entwicklung einer innovativen Früherkennungs-App für eine seltene Lebererkrankung bei Kleinkindern. Der Ansatz kombiniert ein neuronales Netz zur Analyse medizinischer Bilddaten mit einem Retrieval-Augmented Generation (RAG)-Modell, das patientenindividuelle Krankenhausdaten (Befunde, Laborwerte, Anamnese) integriert. Zur Überwindung der begrenzten Datenverfügbarkeit bei seltenen Erkrankungen kommt die Generierung synthetischer Daten mit GANs zum Einsatz
    • Technisch-wissenschaftliche Gesamtverantwortung für die Entwicklung der KI-basierten Diagnoseplattform
      • Steuerung des Projektteams und Abstimmung mit medizinischen Experten, Datenwissenschaftlern, Softwareentwicklern und Compliance-Stellen (Datenschutz)
      • Konzeption der KI-Systemarchitektur, die ein neuronales Netz (CNN) für die Bildanalyse mit einem RAG-Modell zur Anreicherung mit klinischen Patientendaten verbindet
      • Vektorbasierte Retrieval-Architektur mit LangChain für Echtzeit-Abruf ähnlicher neonataler Fälle aus Studien- und Literaturdaten (Clinical RAG-System)
      • Entwicklung und Training von Generative Adversarial Networks (GANs) zur Erzeugung synthetischer medizinischer Bild- und Patientendaten zur Datenaugmentierung bei begrenzter Fallzahl (Synthetische Datengenerierung)
      • Integration von Studienprozessen (Eltern-Einwilligung, Follow-ups, Arzt-Eskalation) in die KI-Pipeline mithilfe von N8N-Workflows
      • Entwicklung einer Pipeline zur Fusion von Stuhlbild-Analysen (CNN-basiert) mit klinischen Neonataldaten (u.a. Bilirubin-Werte, Anamnese) via RAG und LLMs (multimodale Datenintegration)
      • Orchestrierung von CrewAI Agenten für Krankheitsbildklassifikation, Risikobewertung und Elternkommunikation in kooperativen Workflows
      • Entwicklung und Optimierung präziser Prompt-Strategien zur Steuerung der RAG-Komponente für die Verbesserung der Diagnoserelevanz der abgerufenen Daten (Prompt Engineering)
      • Optimierung der CNN-Modelle für Echtzeit-Bildanalysen für die Erkennung der Erkrankung auf mobilen Endgeräten (Mobile AI Integration)
      • Sicherstellung der klinischen Validität, Robustheit und Erklärbarkeit der KI-Modelle in enger Zusammenarbeit mit Medizinern, einschließlich Validierung der synthetischen Daten
Python PyTorch/TensorFlow LangChain LangGraph CrewAI N8N RAG-Frameworks (z.B. LlamaIndex) Vector Databases FastAPI Docker Jira Confluence CursorAI PyTorch GAN/Zoo TensorFlow GAN NVIDIA Clara
Agile Projektmethodik (Scrum) CRISP-DM für Data Science MDR-Compliance-Prozesse Prompt Engineering Agent-Based Modeling Synthetic Data Generation MobileML Convolutional Neural Networks (CNNs) Vektordatenbanken Transformer-Modelle Retrieval-Augmented Generation (RAG) Generative Adversarial Networks (GANs) AI-Agenten-Orchestrierung Synthetic Data Validation LLM (u.a. Open AI/ Gemini)
Gesundheitswesen / Medizintechnik (AI in Healthcare)
5 Monate
2025-01 - 2025-05

Entwicklung einer KI-Agenten-gestützten M&A Suchplattform

AI Workflow Spezialist Agile Development Agent-Based Modeling Cloud Deployment ...
AI Workflow Spezialist

Entwicklung einer agentenbasierten KI-Plattform zur Automatisierung von M&A-Rechercheprozessen. Die Architektur kombiniert CrewAI für Multi-Agenten-Systeme mit LangGraph für komplexe Workflows, um manuelle Suchvorgänge durch intelligente Datenextraktion und Analyse zu ersetzen

  • Entwicklung spezialisierter Agenten für Unternehmensrecherche, Marktanalyse und Due-Diligence
  • Tool Anbindungen (Custom Tools mit Selenium, API-Integrationen und unternehmensinternen Datenbankanbindungen)
  • Stateful Workflows für mehrstufige Analyseprozesse per LangChain Workflow Orchestrierung
  • Implementierung eines RAG-Systems mit Hugging Face Embedding-Modellen, sodass Vektorbasierte Wissensdatenbanken für Unternehmensdaten präzisere LLM-Abfragen ermöglicht haben
  • Multi-LLM-Architektur im Kontext einer Kombination verschiedener Sprachmodelle (u.a. GPT-4, Claude etc.) für spezifische Analyseaufgaben
  • Azure Cloud Deployment auf Azure Kubernetes Service (AKS) mit Azure Container Instances
  • Prozessintegration mit N8N im Kontext der Reporting-Erstellung
  • Prompt Engineering für den spezifischen Arbeitskontext
Agile Development Agent-Based Modeling Cloud Deployment Prompt Engineering API-Integration
M&A / Unternehmensberatung
7 Monate
2024-10 - 2025-04

Digitale Vernetzung

Technischer Teilprojektleiter / Senior Anforderungsanalytiker / Testmanager Agile Scrum CI/CD ...
Technischer Teilprojektleiter / Senior Anforderungsanalytiker / Testmanager

Digitale Vernetzung der Bundesagentur für Arbeit mit Kranken-, Renten- und Unfallversicherungen

  • Umsetzung gesetzlich vorgegebener Anforderungen zum digitalen Datenaustausch der Bundesagentur für Arbeit mit anderen Behörden und Sozialversicherungsträgern und Schaffung einer effizienten, sicheren und skalierbaren Dateninfrastruktur zur automatisierten Verarbeitung und Übertragung relevanter Informationen
    • Steuerung des technischen Teams & Abstimmung mit Stakeholdern
    • Planung & Allokation von Entwicklungskapazitäten und Kostenmodellierung
    • Anforderungsanalyse, Anforderungserstellung und Design
    • Anforderungsmanagement, Klärung, Spezifikation & Priorisierung von gesetzlichen Vorgaben
    • Koordination zwischen Fachabteilungen, Entwicklern, Testern & Architekten
    • Vermittlung zwischen gesetzlichen Anforderungen & technischer Umsetzung
    • Spezifikation von User Stories, Use Cases, BPMN- & UML-Modellen
    • Erstellung von Datenmodellen, Datenflussdiagrammen & Schnittstellenspezifikationen
    • Technische Konzeption: Entwicklung der Architektur & Schnittstellen mit Microservices & Event- Driven Architektur
    • Datenintegration: Nutzung von Kafka, Camel & APIs für nahtlose Kommunikation zwischen Behörden
    • Testautomatisierung & Qualitätssicherung: CI/CD, BDD, Selenium, PACT Testing zur Sicherstellung der Stabilität
    • Monitoring und Fehleranalyse mithilfe des Grafana-Tools
    • Konzeption von Unit Tests, Integrationstests, Systemtests und End-to-End-Tests (E2E)
    • Behavior-Drive Development (BDD) mti Cucumber & Python
    • Testmanagement im Kontext von PACT-Testing/Contract Testing
    • Kombination aus BDD, Contract Testing (PACT) und Testautomatisierung (Selenium, Robot Framework)

AWS Kafka Apache Camel S3 Python Selenium Robot Framework Innovator Jira Confluence Grafana Oracle PostgreSQL
Agile Scrum CI/CD DevOps BDD PACT Tests JSON XML BPMN 2.0 UML
öffentlicher Sektor / Behördendigitalisierung
6 Monate
2024-05 - 2024-10

Implementierung und Wartung von Datenbanken und Datenintegrationsprozessen

DWH-Entwickler | Data Engineer | Software Engineer DWH Data Engineering Agile ...
DWH-Entwickler | Data Engineer | Software Engineer
Daten müssen aus verschiedenen Quellen extrahiert, transformiert und in ein zentrales Data Warehouse geladen werden (ETL-Prozess). Die Mengen an Daten kommen aus verschiedenen Systemen (wie Transaktionssysteme, CRM-Systeme, und Risikomanagement-Systeme,) und werden entsprechend konsolidiert.
  • Anforderungsanalyse, Anforderungserstellung und Design
  • ETL-Prozesse
  • Datenmodellierung
  • Kontinuierliche Integration und Deployment (CI/CD)
  • Erstellung von Python-Skripten für die Integration von Daten aus verschiedenen Quellen
  • Datenverarbeitung mit Python und den verschiedenen Bibliotheken
  • Erstellung von PL/SQL Skripten
  • Integration von API-Daten in das Data Warehouse (Schnittstellenintegration)
  • Aufbau eines komplett neuen Sharepoints in Bezug auf die fachliche und technische Bedienung von ALM Octane
  • Teilprojektleitung bei der Trennung von Dev und Ops im DWH-Kontext
  • Erstellung und Weiterentwicklung von Dokumentationskonzepten
Python SQL PL/SQL Postman Jira Confluence MID Innovator Bitbucket Smartgit SAP BO Power Designer Oracle Data Integrator (ODI) Toad pandas polars requests selenium Pycharm PandaSQL Oracle PostgreSQL
DWH Data Engineering Agile Scrum CI/CD DevOps
Banken
10 Monate
2022-04 - 2023-01

Einführung von ALM Octane als zentrales Testmanagement- und DevOps-Tool

Business Analyst | Data Engineer | Testmanager Data Engineering ETL Business Analyse ...
Business Analyst | Data Engineer | Testmanager
Bankenübergreifende Einführung und RollOut von ALM Octane (Anforderung der Bafin). Es mussten (Test)-Daten aus verschiedenen Quellen (u.a. Excel, SAP, HP ALM/QC) transformiert und nach ALM Octane zusammengeführt werden
  • ETL-Prozesse
  • Datenmigration und Datenmapping
  • Erstellung von Python-Skripten für die Datentransformation- und Datenmigration nach ALM Octane (RestAPI) unter der Nutzung verschiedener Bibliotheken (u.a. Pandas)
  • Unterstützung bei der Erstellung von Java Skripten
  • Bankenweite Schulung von Mitarbeitern für den Umgang ALM Octane
  • Aufbau eines komplett neuen Sharepoints in Bezug auf die fachliche und technische Bedienung von ALM Octane
  • Containerisierung von ALM Octane (Docker)
  • Erstellung und Durchführung von manuellen und automatisierten Tests, sowie anschließender Visualisierung der Testergebnisse/Bugs/Defects unter der Erstellung verschiedener Dashboards (DEV/TEST/PROD)
  • Einarbeitung neuer Tester und Überarbeitung der Testinfrastruktur
  • Integration von Elasticsearch
  • Erstellung und Durchführung automatisierter und manueller Tests
    • Oberflächentests mit Selenium (Python/Java)
    • ?API Tests mit requests (Python), REST Assured (Java) und Postman Anbindung einer CI/CD Pipeline (Jenkins) über die REST-Schnittstelle
  • Datenmanagement und Datenanalysen mit SAS
  • Erstellung und Weiterentwicklung von Testkonzepten
Python Java SQL Xpath Postman Jira Confluence HP ALM/QC MID Innovator Bitbucket Dynatrace Elasticsearch Docker Container SAS openpyxl pandas requests selenium Jupyter Notebook Eclipse Pycharm PandaSQL REST Assured SAP HANA IBM DB2 MinIO (S3 Storage)
Data Engineering ETL Business Analyse Testmanagement Testautomatisierung Business Intelligence Leitung von Schulungen Agile Scrum CI/CD DevOps
Banken
4 Monate
2022-01 - 2022-04

Digitalisierung von Wagenflotten

Testmanager |Testautomatisierer | Scrum Master Agile/Scrum
Testmanager |Testautomatisierer | Scrum Master

Entwicklung von Web ? und Mobile-Anwendungen zur Überprüfung des Wagenzustands nach Rückgabe und Überführung der Rich Client-Applikation in eine Web-App. Als Testmanager/Testautomatisierer und Scrum Master habe ich das Projekt wie folgt unterstützt:

  • Beschreibung, Durchführung und Dokumentation von Testskripten und Testfällen für die neue Web- Oberfläche und Mobile-App
    • Erstellung von Skripten mit Python und Selenium (GUI-Tests)
    • Einführung des Robot Frameworks und des Keyword Driven Testings (GUI/Mobile/API)
    • Erstellung von Testskripten für die neue Mobile-App mit Appium
    • Integrierung der Python Skripte in die CI/CD-Pipeline
  • Überarbeitung des Testkonzepts für die API-Tests
    • Automatisiertes Testen der API-Schnittstellen mit Python und Robot in Kombination mit dem manuellen Testen mit Postman
    • Schulung des Teams in Bezug auf die Testautomatisierung
  • Zusammenarbeit mit Java-Entwicklern für die Überführung der Python-Skripte nach Java
  • Leitung von 3 Scrum Teams
    • Einführung des Scrum-Frameworks
    • Moderation und Koordination der Scrum-Events (u.a. Sprint Planning, Sprint Review, Retrospektiven usw.)
    • Planung, Vorbereitung und Nachbereitung der Scrum Workshops
    • Coaching des Teams
    • Beseitigung sogenannter ?Impediments?
Python Java Bitbucket Bamboo CI/CD Gitlab Postman Jupyter Notebook VSCode Eclipse Cypress Robot (Python Framework) Appium Selenium requests PostgreSQL SAP HANA
Agile/Scrum
Logistik
7 Monate
2021-07 - 2022-01

Modernisierung der IT-Partnerdatenbank für einen Versicherungsverbund

Data Engineer | Business Analyst | Testmanager ETL-Prozesse Erstellung von Python-Skripten für API Tests Data Warehouse/ DWH ...
Data Engineer | Business Analyst | Testmanager

Das Partnersystem des Versicherungsverbunds wird modernisiert, sodass die Funktionalitäten in Java bereitgestellt werden müssen (vorher: COBOL). Als Data Engineer und Business Analyst fielen folgende Tätigkeiten in meinen Aufgabenbereich:

  • Anforderungsanalyse für das modernisierte IT-Partnersystem
  • Analyse vorhandener Datenstrukturen und der Entwurf/Erstellung neuer Datenmodelle für das modernisierte Partnersystem
  • Diverse Aufgaben zur Datenmigration und -transformationen/ ETL-Prozesse mit Talend:
    • Datenextraktion aus den alten COBOL-Systemen (IMS) mithilfe von Skripten (Talend Job)
    • Datenkonvertierungen aus dem COBOL-Format mit der anschließenden Überführung in relationale Datenbanken
  • Überführung relevanter Daten vorhandener CRM-Systeme in das neue Partnersystem/ IT-Partnerdatenbank
  • Erstellen unterschiedlicher Dashboards zur Messung und Reporting des Fortschritts (u.a. Power BI, Tableau)
  • Aufbau eines Data Warehouse (Redshift in AWS)
  • Erstellung von Python-Skripten für die für die gesamte Datenmigration
  • Daten Auslesen aus Datenbanken (Verbindungsaufbau)
  • Ausführung von SQL-Abfragen oder anderer Extraktionsmethoden
  • Datenverarbeitung und Datentransformationen
  • Laden der Daten in die Zieldatenbanken
  • Entwurf und Aufbau von ETL-Strecken (Airflow DAGs), inklusive Datentransformationen
  • Automatisierung der ETL-Pipelines, um den Prozess der Datenextraktion, -transformation und -laden zu automatisieren und zu beschleunigen.
  • Abstimmung, Entwicklung und Präsentation verschiedener Datenmodelle (Datenmodellierung)
  • Entwurf und Entwicklung automatisierter Tests für die ETL-Pipeline
  • Visuelle Darstellungen und Konfiguration der ETL-Flüsse mit SAS
  • Übernahme von Projektmanagementaufgaben im Bereich Test
  • Testen der neuen Web Services (Unit Tests)
  • Analyse der Anforderungen unterschiedlicher Web Services
  • Erstellung von Python Skripten für die API Tests (inkl. Reporting)
  • Testmanagement und Testfallerstellung mit dem Aqua-Tool
  • Unterstützung bei der Erstellung von Java-Skripten für das Testen der Web Services
  • Pflege und Erweiterung des Fachkonzepts
Python Java SQL ETL Talend Grafana Microsoft Visio Power BI Tableau Jira Confluence Guidewire Salesforce Salesforce Data Loader SQL Server Management Studio Pycharm Azure Databricks SAS Data Integration/ SAS Studio Aqua requests unittest pytest-html Oracle MySQL IBM DB2 IMS Redshift (AWS) S3 (AWS) DBeaver
ETL-Prozesse Erstellung von Python-Skripten für API Tests Data Warehouse/ DWH Agile/Scrum Entity Relationship Data Vault
Versicherung
1 Jahr 3 Monate
2020-05 - 2021-07

Modernisierung der neuen Anlagestrecken für Giro- und Kreditkarten

Lead Business Analyst für Data & Test | Testmanager | Projektleiter/Projektmanager Datenmigration - und Manipulation Testautomatisierung (GUI-Tests) ...
Lead Business Analyst für Data & Test | Testmanager | Projektleiter/Projektmanager

Modernisierung der neuen Anlagestrecken für Giro- und Kreditkarten und die Erstellung einer übergreifenden Datenplattform (Data Warehouse)

  • Eine der führenden Geschäftsbanken modernisierte die Anlagestrecken für Girokonten und Kreditkarten. Weiterhin wurde im Zuge des Projekts HP ALM/QC abgelöst durch ALM Octane, sodass eine Migration des gesamten Datenbestands notwendig gewesen ist, sodass die Daten vor dem Import bereinigt und transformiert werden müssen. Neben vorhandenen Testfällen aus dem alten System wurde auch häufig Excel für die Dokumentation der Testfälle genutzt. Neben den Testfällen müssen auch weitere Artefakte des alten Systems nach ALM Octane überführt werden (Anforderungen, Defects usw.)
    • Datenmigration von HP ALM/QC nach ALM Octane
      • Analyse der Anforderungen für das Datenmapping und Datenmigration
      • Bereuung und Koordination mehrerer Teams + Teilprojekte
      • Nutzung des Shift Tools (Migrationstool für ALM Octane)
      • Datenmapping zwischen ALM/QC und Octane
      • Entwicklung von Python-Skripten für die Datenbereinigung- und Transformation in Excel, bevor diese nach ALM Octane importiert werden (pandas und openpyxl-Bibliotheken)
    • Testen und Überwachung der neuen Anlagestrecken
      • Entwicklung von Python Skripts für die Automatisierung der GUI-Tests (neue Anlagestrecken) in Form von Unit Tests und Selenium
      • Erstellung, Weiterentwicklung von Testkonzepten
      • Fachbereichsübergreifende Schulungen zur Nutzung von ALM Octane
      • Mitwirkung an der Erstellung einer CI/CD-Pipeline, sodass eine automatische Ausführung der Selenium Tests ermöglicht wird
      • Durchführung manueller Tests für komplexe Testszenarien
      • Regelmäßiges Reporting der Defects und Log-Analyse
    • Entwicklung einer übergreifenden Datenplattform (Data Warehouse)
      • Migration von Datenmengen verschiedener Anwendungen und Datenbanken nach Redshift (AWS)
      • Konzeptionierung und Entwicklung von ETL (Extract-Transform-Load) Prozessen
      • Entwicklung mehrerer Datenmodelle (u.a. Entity-relationship, Star Schema/Sternschema)
      • Entwicklung unterschiedlicher ETL-Strecken mit Apache Airflow DAGs, inklusive der Datentransformationen und Datenmanipulationen
      • Erstellen von Unit Tests, Integrationstests und End-to-End (E2E)-Tests für das Testen der ETL- Pipeline (unterschiedliche Testframeworks)
      • Aufbau einer CI/CD Pipeline in Gitlab
Python SQL Xpath Jenkins XRay Shift Git Gitlab Pycharm VS Code Prometheus Grafana pandas openpyxl airflow spark PostgreSQL SAP S4/HANA Oracle Microsoft SQL Server Amazon Redshift (AWS)
Datenmigration - und Manipulation Testautomatisierung (GUI-Tests) ETL-Prozesse Data Warehouse/DWH CI/CD Leitung von Schulungen Agile/Scrum Agiles Projektmanagament
Banken
2 Monate
2020-04 - 2020-05

Anbindung unterschiedlicher Zahlungslösungen

Business Analyst Data | Requirements Engineer | Product Owner Agile/Scrum Wasserfall Entity-relationship
Business Analyst Data | Requirements Engineer | Product Owner
Anbindung unterschiedlicher Zahlungslösungen (Point of Sale) für Händler und Implementierung einer Datenintegrationslösung für die Verarbeitung von Transaktionsdaten
  • Für unterschiedliche Händler wurden individuelle Zahlungslösungen entwickelt und in deren Geschäftsprozesse integriert (u.a. Virtual Point of Sale-VPOS, Software Point of Sale-SoftPOS, Clover)
  • Weiterhin wurde eine Datenintegrationslösung für die Analyse der Transaktionsdaten entwickelt
    • Anforderungsanalyse: Abstimmung der Anforderungen mit Stakeholdern und Produktmanagern sowie die Dokumentation der Anforderung bzgl. der Datenintegration
    • Datenmodellierung: Entwurf und Abstimmung von unterschiedlichen Datenmodellen, Datenattributen und -beziehungen, die der Point of Sale-Anbindungen entsprechen
    • Datenanalyse: Die vorhandene Datenmenge wurde auf unterschiedliche Weise untersucht (bsp. Excel/CSV/JSON mit Python unter Verwendung der Pandas- und Spark Bibliotheken, XML Daten mit Xpath, relationale Datenbanken mit SQL)
    • Unterstützung bei der API Integration für den Austausch der Daten zwischen der Point of Sale (POS)- Lösung und anderen Systemen sowie der Analyse der API-Dokumentationen (Endpoints, Parameter Authentifizierungsmethoden usw.)
    • Enge Zusammenarbeit mit dem Entwicklungsteam für die Analyse der API-Spezifikation und die Durchführung unterschiedlicher API Tests mit Postman (Restful APIs) und SOAP UI
    • Erstellung von Testkonzepten
    • Unterstützung bei der Einführung von Monitoring-Tools (Grafana)
    • Erstellung unterschiedlicher Visualisierungsansätze für das Reporting gegenüber dem höheren Management
    • Analyse von Logs u.a. mit Kibana
    • Erstellung von Epics und User Stories, Visualisierung von Kennzahlen (Burndown Chart, Velocity, usw.) sowie die Priorisierung der Arbeitspakete
    • Pflege des Product- und Sprint Backlog
    • Definition of Done und Definition of Ready-Kriterien
Python SQL Xpath Kibana Xray Tableau PowerBI Postman SOAP UI SAP Power Designer Bitbucket Jira Confluence Tosca Pandas Spark Seaborn Numpy PostgreSQL Oracle
Agile/Scrum Wasserfall Entity-relationship
Zahlungsverkehr/Payments
9 Monate
2018-08 - 2019-04

Automatisierung von Datenbeschaffungsprozessen für eine M&A-Boutique

Data Engineer Mergers & Acquisitions (M&A) | Agile Coach/ Scrum Master ETL Scrum Agile ...
Data Engineer Mergers & Acquisitions (M&A) | Agile Coach/ Scrum Master
Automatisierung von Datenbeschaffungsprozessen für eine M&A-Boutique und Erstellung eines Data Lakes für die Errichtung eines Datenraums für Due-Diligence Prozesse

  • Das Projektziel bestand in der Entwicklung von automatisierten Datenbeschaffungsprozessen aus dem Web mithilfe von Scraping Tools
  • Somit sollte der manuelle Aufwand bei der Datenerhebung reduziert und die Effizienz der Prozesse gesteigert werden
  • Die Skripte wurden in Python geschrieben, sodass anschließend Bereinigungs- und Transformationsprozesse durchgeführt werden und die Daten in die Datenbanken oder in Excel-Sheets geladen werden konnten. Somit wurde ein Data Lake erstellt, sodass Daten aus unterschiedlichen Quellen zusammengetragen wurden
  • Es wurde eine Hybridlösung (on premise und AWS Cloud) genutzt
    • Folgende Frameworks wurden für das Web Scraping (Datenextraktion aus dem Web) verwendet:
      • Selenium: Erstellen von Selenium Skripten, vor allem für Webseiten mit JavaScript Elementen
      • Beautiful Soup (Python-Bibliothek für das Extrahieren der Daten aus dem HTML-Quellcode)
      • API Scraping: Einige Webseiten bieten den Zugriff auf API-Schnittstellen, sodass Daten direkt erfasst werden können, anstatt sie von der Webseite zu scrapen. Hierfür wurde die requests- Bibliothek verwendet
    • Erstellung von Skripten zur Bereinigung und Manipulation von Daten mit Pandas (Python-Bibliothek) und AWS Glue (DataBrew) (AWS-Cloud)
    • Automatisierung der Datenbeschaffungsprozesse unter der Erstellung einer CI/CD Pipeline (Jenkins) Entwicklung einer automatisierten Datenpipeline (DAG) zur Datenbeschaffung,- Bereinigung,- Analyse und -visualisierung unter Verwendung von Apache Airflow
    • Datenanalyse und Visualisierung mit Python unter der Verwendung von Matplotlib, Seaborn, Tableau, Power BI und Vorbereitung der Kundenpräsentationen
    • Abfragen mit Pandas SQL und Spark SQL
    • Unterstützung bei der Errichtung eines Data Lakes (Datenraum für Due Diligence Prozesse mit Azure Data Lake Solution Storage Gen 2)
    • Schulung eines ausgewählten Kreises von Mitarbeitern für die Erstellung von Web Scrapern Umstellung von Waterfall Modell zu Scrum (agile Transformation)
    • Moderation unterschiedlicher Scrum Events

AWS Azure Python SQL Xpath HTML CSS Git Bitbucket Confluence Jenkins CI/CD AWS Glue (DataBrew) AWS S3 Azure Data Lake Storage Gen2 Power BI Tableau Apache Airflow Azure Databricks Selenium BeautifulSoup requests Pandas pyspark Spark Matplotlib Seaborn psycopg2 sqlalchemy airflow PostgreSQL MySQL Orbis Markus SAP HANA (Procedures/Table Functions/Calculation Views/SQL Views)
ETL Scrum Agile Waterfall
Mergers & Acquisitions (M&A)
8 Monate
2018-01 - 2018-08

Bankenweite IT-Implementierung von zusätzlichen Liquiditätsüberwachungsmetriken

Product Owner (Product Owner Data) + Interim Agile Coach | Data Engineer Agile/Scrum Entity-Relationship Star Schema/Sternschema
Product Owner (Product Owner Data) + Interim Agile Coach | Data Engineer
Bankenweite IT-Implementierung von zusätzlichen Liquiditätsüberwachungsmetriken gemäß den Anforderungen der BaFin| Banken-Compliance

  • Konkret geht es in dem Projekt um die Umsetzung von zusätzlichen Parametern für die Liquiditätsüberwachung der Genossenschaftsbanken (Additional Monitoring Metrics for Liquidity Reporting ? AMM). Dabei werden die Anforderungen der BaFin und der EBA umgesetzt, um sicherzustellen, dass die Banken den regulatorischen Vorgaben entsprechen und ein effektives Liquiditätsrisikomanagement gewährleisten können. So muss gegenüber den Aufsichtsbehörden ein umfassenderes Bild in Bezug auf die Liquiditätsposition gemeldet werden.
  • Als Product Owner im Bereich Data war ich an der Schnittstelle zwischen den Fachverantwortlichen und dem Entwicklungsteam tätig:
    • Regelmäßige Abstimmung mit den Stakeholdern, um die regulatorischen Anforderungen in Bezug auf die Implementierung der Liquiditätskennzahlen aufzunehmen und in die Anforderungsdokumente sowie in EPICs und User Stories zu überführen
    • Analyse des technischen Datenblatts zur Umsetzung der Meldebögen und Dokumentation in Confluence (C 66.01, C 67.00, C 68.00, C 71.00,)
    • Identifizierung der relevanten Datenquellen, aus denen die Daten für die ALMM-Analyse benötigt werden (u.a. Kernbankensystem, Datenbanken usw.) sowie der anschließenden Erstellung von Extraktionsjobs, sodass die entsprechenden Daten extrahiert werden können
    • Erstellung von Datenmodellen, welche die entsprechenden Datenstrukturen- und Beziehungen der Liquiditätsmeldebögen abbilden. Hierbei wurden die Datenentitäten gemäß den Anforderungen des technischen Datenblatts identifiziert, sowie die entsprechenden Datenattribute und -beziehungen definiert.
    • Kommunikation mit den Entwicklerteam, welche die technische Implementierung auf Code-Ebene durchgeführt haben
    • Erstellung von geeigneten Testkonzepten und Test-Cases
    • Verwaltung, Planung und Ausführung von Testfällen sowie Defect Tracking mit Aqua
    • Schnittstelle zwischen dem Fachbereich und der IT
    • Abstimmung des Datenmodells mit den unternehmensinternen Datenarchitekten
    • Pflege und Erweiterung des Fachkonzepts sowie die Priorisierung der Arbeitspakete Modellierung der Geschäftsregeln/Geschäftsprozessmodellierung mit Visual Rules
    • Erstellung von Berichten inkl. Diverser Dashboards und Visualisierungen für die Abbildung der Liquiditätspositionen und das Reporting an das Management
    • Moderation von Scrum Events wie Dailys, Sprint Reviews, Sprint Plannings, Sprint Reviews oder Backlog Refinement Meetings
    • ?Erstellung von Priorisierung von User Stories im Backlog (Jira)

SQL Java Visual Rules (Bosch) Innovator Jira Confluence Lucidchart Apache Nifi SAP Data Services SAP Analytics Cloud Tableau Power BI agree21 (Kernbanksystem) FitNesse Aqua Oracle SAP S/4Hana
Agile/Scrum Entity-Relationship Star Schema/Sternschema
Banken
6 Monate
2017-08 - 2018-01

Aufbau und Ausbau eines Data Lakes für die Optimierung des KYC-Prozesses

Senior KYC-Analyst Compliance & Data + Projektleiter/Projektmanager | Data Engineering ETL Business Intelligence Data Warehouse ...
Senior KYC-Analyst Compliance & Data + Projektleiter/Projektmanager | Data Engineering

Aufbau und Ausbau eines Data Lakes für die Optimierung des KYC-Prozesses einer international führenden Bank

  • Aufgrund der Vorgaben der Bankenaufsicht muss eine international führende Bank ihre Prozesse in Bezug auf Geldwäscheverdachtsmeldungen (Know Your Customer -KYC und Anti Money Laundering -AML) verbessern
  • So ging es in dem Projekt darum, verdächtige Transaktionen zu analysieren und relevante Daten zu den entsprechenden Kunden zu sammeln, diese zu reinigen/manipulieren und zusammenzutragen
  • Ziel war die Entwicklung einer harmonisierten Datenbasis
    • Datensammlung/Datenextraktion: Sobald verdächtige Transaktionen stattgefunden haben, mussten Daten aus unterschiedlichen Quellen bezogen auf den Kunden gesammelt werden. Häufig stammen die Daten von den Kundenbetreuern oder aus der Datenbank der Bank selbst (PDF-Dokumente, Transaktionsauszüge, Excel/CSV-Dateien usw.). Mithilfe unterschiedlicher Verfahren wurden die Daten extrahiert:
      • Auslesen von Daten aus PDF Dateien mit Python-Bibliotheken (PyPDF2), UiPath (Robotic Process Automation) / Textract
      • Auslesen von gescannten Dateien mit Tesseract OCR
      • Sammlung von Daten direkt aus den Datenbanken, sowie LexisNexis
    • Transformationsarbeiten mit Pandas und Spark (Python-Bibliotheken)
      • Datenbereinigung und -manipulation
      • Aggregation und Zusammenfassung
      • Explorative Datenanalyse
      • Datenvisualisierung mit weiteren Bibliotheken (u.a. Matplotlib, Seaborn)
    • Zusammenführen der Daten nach S3 für weitere Bearbeitungsschritte, Analysen (u.a. mit AWS Athena usw.)
    • Automatisierung unterschiedlicher Excel-Jobs mithilfe von Python und Pandas/Openpyxl (Python- Bibliothek) für die Analyse und Extraktion relevanter Daten
    • Harmonisierung und Bereinigung von Kundeninformationen für die Erstellung von Kundenprofilen für die weitere Analysen (u.a. mit SAS)
    • Dokumentation der erstellten Python Skripte in Confluence
    • Wöchentliches Reporting und Ergebnisvorstellung vor einem breiten Publikum

AWS Python SQL UiPath (RPA) Tesseract Textract Jira Confluence AWS Athena Automic SAS/ SAS Studio Pandas Spark PyPDF2 Openpyxl Numpy Oracle LexisNexis SAP S4/Hana AWS S3
ETL Business Intelligence Data Warehouse Business Analyse OCR Agile Agiles Projektmanagement Data Vault
Banken
3 Monate
2017-06 - 2017-08

Entwicklung eines Testprozesses für die Umsetzung der IT-Strategien

Software Tester (Web/API) | Testmanager
Software Tester (Web/API) | Testmanager

Entwicklung eines Testprozesses für die Umsetzung der IT-Strategien für das Financial Reporting (FINREP)

  • Als Teil des regulatorischen Meldewesens müssen Banken die Finanzberichterstattung (Financial Reporting - FINREP) umsetzen
  • Als Teil der Umsetzung von FINREP gehört eine Teststrategie für die korrekte Berichterstattung. Test wurden manuell und automatisiert durchgeführt. So wurden unter anderem funktionale Tests, Integrationstests oder Regressionstests durchgeführt. Hierzu zählt auch das Reporting zu den Ergebnissen (inkl. Dokumentation von Bugs/Defects)
  • Weiterhin wurde mithilfe von Python unterschiedliche Excel-Jobs mit Openpyxl (Python Bibliothek) umgesetzt, da die Datenmenge historisch gewachsen und teilweise unübersichtlich ist
  • Bug/Defect-Tracking mit dem Aqua-Tool

OSPlus HP QC/ALM Postman Jira Confluence Tosca Cypress Aqua Python SQL Xpath Openpyxl PostgreSQL IBM DB2
Banken

Aus- und Weiterbildung

Aus- und Weiterbildung

10 Monate
2025-02 - heute

AI in Healthcare

Dr. rer. medic, Charité Universitätsmedizin Berlin
Dr. rer. medic
Charité Universitätsmedizin Berlin
3 Jahre 2 Monate
2021-08 - 2024-09

Business, Administrative Social Communications and Technologies

PhD/Dr., University of Library Studies and Information Technologies, Sofia (ANABIN H+)
PhD/Dr.
University of Library Studies and Information Technologies, Sofia (ANABIN H+)
2 Jahre 4 Monate
2017-09 - 2019-12

Banken & Finanzen

Master of Science (M.Sc.), FOM University of Applied Science
Master of Science (M.Sc.)
FOM University of Applied Science
  • Banking & Finance
  • Statistik
  • Computer Science
3 Jahre 9 Monate
2013-10 - 2017-06

Business Administration

Bachelor of Arts, Universität Hildesheim
Bachelor of Arts
Universität Hildesheim
  • IT

  • Computer Science

  • Business Administration

Position

Position

  • IT-Consultant
  • QA Engineer
  • Python Programmierer
  • Management Consultant Data & AI

Kompetenzen

Kompetenzen

Top-Skills

Scrum Master Product Owner Testautomatisierung Software Testing KYC AML agile ISTQB HP ALM JIRA Confluence Python Testautomatisierung Testautomatisierungstools Selenium Selenium WebDriver Appium testcafe Behavior Driven Development Cucumber robot framework

Produkte / Standards / Erfahrungen / Methoden

AGILE/Scrum
Experte
Hp Alm
Fortgeschritten
Python
Fortgeschritten
Selenium
Experte
TestCafe
Fortgeschritten
Robot Framework
Fortgeschritten
Appium
Fortgeschritten
Behavior Driven Development
Fortgeschritten
Postman
Fortgeschritten
JavaScript
SQL
HTML/ CSS

Erfahrungen als Programmier-Tutor:

Als Tutor auf der Weiterbildungsplattform "Udemy" (über 75.000 eingeschriebene Teilnehmer) und auf Youtube erstelle ich Python-Kurse u.a. für folgende Themengebiete (Englisch & Deutsch):

  • Web Scraping
  • Datenbereinigung
  • Datenanalyse und Überführung von Daten in Datenbanken
  • Programmieren eines Sprachassistenten (Alexa Klon) Automations-Projekte mit Selenium

Beruflicher Werdegang:

01/2022 - heute:

Rolle: Freiberuflicher Berater Data & AI

Aufgaben:
  • Data Engineering
  • AI
  • Python-Programmierung
  • Testautomatisierung und Requirements Engineering (Anforderungsanalyse) im Kontext der agilen Softwareentwicklung

03/2019 - 01/2022:
Einsatzort: Frankfurt am Main
Rolle: Senior IT-Consultant Data, Data Engineer, Lead Business Analyst für Data & Test, Business Analyst Data, Requirements Engineer, Product Owner
Kunde: Capgemini GmbH


Aufgaben:
  • Modernisierung einer IT-Partnerdatenbank für einen Versicherungskunden
  • Modernisierung der neuen Anlagestrecken für Giro- und Kreditkarten
  • Anbindung von Zahlungslösungen für Händler

08/2018 - 03/2019:
Einsatzort: Lampertheim
Rolle: Data Engineer M&A

Kunde: Emporion GmbH


Aufgaben:
Automatisierung von Datenbeschaffungsprozessen für eine M&A-Boutique und Erstellung eines Data Lakes für die Errichtung eines Datenraums für Due-Diligence Prozesse

06/2017 - 08/2018:
Einsatzort: Hamburg
Rolle: Associate IT Consultant, Data Analyst, KYC-Analyst Compliance & Data, Software Tester
Kunde: Sopra Steria GmbH


Aufgaben:
  • IT-seitige Umsetzung der Anforderungen zur Liquiditätsüberwachung/Banken-Compliance 
  • Aufbau eines Data Lakes für die Optimierung des KYC- Prozesses einer Großbank 
  • Entwicklung des Testprozesses für die Umsetzung der IT- Strategie im Financial Reporting 

Libraries/Frameworks:

  • Selenium
  • Beautiful Soup
  • Scrapy
  • Pandas - Numpy - Matplotlib
  • Requests SpeechRecognition

Tools/Platforms:

  • Jira/Confluence Wordpress
  • Elementor Git
  • Jenkins
  • Heroku

Software Testing Tools (Web + API + Mobile):

  • Selenium
  • Robot-Framework
  • Behavior Driven Development (Cucumber)
  • Postman
  • TestCafe
  • Appium HP ALM / UFT
  • X-Ray

Programmierprojekte:

  • Web Scraping (Selenium, Beautiful Soup, API Scraping, Scrapy)
  • Data Science ähnliche Projekte - Datensammlung - Datenbereinigung - Datenanalyse (Pandas, PostgreSQL)
  • Testautomation (Selenium)
  • Instagram Bot (Selenium)
  • Sprachassistent / Alexa Klon (Smalltalk, Kryptowährungen / Aktieninformationen, Übersetzer, Nachrichtenausgabe, Wetter-API, Wolfram Alpha API etc.)

5 Jahre Arbeits ? und Projekterfahrung in der IT:

Kunden im IT-Projektumfeld:

  • VTG AG (Digitalisierung der Transportwagen und Wagonvermietung) - Logistik
  • IVV (IT Dienstleister der VGH Versicherung) ? Insurance
  • Commerzbank ? Banking
  • Fiserv/ First Data ? Finanzdienstleister / Payments
  • Fiducia & GAD (IT Dienstleister für Volks- und Raiffeisenbanken) ? Banking
  • Deutsche Bank ? Banking
  • Finanz Informatik (IT Dienstleister der Sparkassen) - Banking

Software Tester:

  • Testen von IT- Strecken
  • Erstellung von Testfällen
  • Dokumentation von Bugs und Incidents
  • Reporting und Fehlerauswertung
  • Visualisierung der Testergebnisse
  • Selenium
  • Web Services/API
  • Keyword Driven Testing, Behavior Driven Testing
  • Cucumber
  • Gherkin Syntax
  • Robot Framework
  • Postman, Appium
  • HP Quality Center
  • MicroFocus

Business Analyse:

  • Business Analyse im agilen Projektumfeld & multinationalen Teams
  • BPMN
  • Anforderungsanalyse ? und Management
  • Geschäftsprozessoptimierung ? und Visualisierung
  • Reporting
  • Lastenheft
  • Pflichtenheft
  • Fachkonzept
  • Bindeglied zwischen dem Fachbereich und der IT
  • Requirements Engineering
  • Durchführung von Machbarkeitsstudien
  • Überführung von fachlichen Anforderungen nach Jira/Confluence
  • BPMN
  • Prozessmanagement
  • Datenmigration
  • Functional Requirements Document
  • Datenbankmanagement
  • SQ

Agile Entwicklung (allgemein):

  • Scrum
  • Less
  • Kanban
  • SAFe
  • Sprint Planning
  • Sprint Retrospektive
  • Sprint Review
  • PI Planning
  • Planning Poker
  • Epics
  • User Stories
  • (Sub-)Tasks
  • Product Backlog
  • Sprint Backlog
  • Burndown Chart
  • Velocity

Scrum Master:

  • Einführung von Scrum in (IT) - Unternehmen
  • Coachen des Development-Team hin zu Selbstorganisation und funktionsübergreifender Teamarbeit
  • Unterstützen des Development-Teams
  • Beseitigen von Hindernissen
  • Moderation von Team-Events
  • Vermitteln von Techniken für eine effektive Verwaltung des Product Backlogs
  • Schaffen eines Verständnisses für Produktplanung in einem empirischen Arbeitsumfeld
  • Vermitteln des richtigen Verständnisses von Agilität und ihrer Anwendung

Product Owner:

  • Entwicklung einer Product Vision und Roadmap
  • Verwalten des Produkt-Backlogs
  • Priorisieren der Anforderungen
  • Überwachung der Entwicklungsphasen
  • Kommunikation zwischen dem Fachbereich und der IT-Abteilung
  • regelmäßige Kommunikation mit den Stakeholdern
  • Vereinbarung des SprintZiels mit den Developern und die Klärung der Epics & User Storys

Projektschwerpunkte im IT-Kontext:

  • IT-Modernisierung
  • Tool-Evaluation
  • Digitalisierungsstrategie
  • Einführung von TestautomationsTools
  • RACI-Matrix
  • Re-Organisation der IT Struktur
  • Modernisierung von Partnersystemen (Insurance-Kontext)
  • Prozessoptimierung
  • Anbindung von Payment-Lösungen für Fach- und Onlinehändler
  • Überführung und Umsetzung von backregulatorischen Vorgaben in die IT
  • Festlegung der Prozessziele und KPIs


Profil:

  • Über 8 Jahre Erfahrung in IT-, Data- und AI-Kundenprojekten bei Großkonzernen
  • Nebenberufliche Promotion (2021?2024) zu Blockchain-Themen
  • seit 2025 zweite Promotion an der Charité Universitätsmedizin Berlin zu KI im Gesundheitswesen
  • Dozent auf Udemy für Python-Programmierung


Software Testing | Testmanagement:

Selenium, Appium, Testautomatisierung, Testautomation, manuelles Testen, ALM Octane, HP QC/ALM, Quality Center, Cypress, Tosca, Zypher, Aqua, Beautiful Soup, API, Swagger/ OpenAPI, ISTQB, X-Ray, JSON, XML, Robot Framework, Micro Focus, Opentext, Cucumber, BDD, Gherkin Syntax, Defect Management, Regressionstest, Postman, Keyword Driven Testing, Appium, Testkonzept, Aqua, Continuous Integration (CI), Continuous Delivery (CD), CI/CD, E2E Test, End-to- End Testing, Exploratory Testing, Unit Test, Komponententest, Regressionstest, Smoke Test, Akzeptanztest, Lasttest, Stresstest, Usability Test, Testmanagement, Testen neuer Features in allen Testumgebungen (bis Produktion), Bugfixing, Functional Testing, Erstellung und Pflege der Software Dokumentation, Erstellung von Testkonzepten, Testdatenmanagement, Anforderungsanalyse, Migration der vorhandenen Testfälle, Defect Analyse


Product Owner:

Product Backlog, User Stories, Sprint Planning, Planning Poker, Backlog Refinement, Release Planning, PI Planning, Entwicklung einer Product Vision und Roadmap, Verwalten des Produkt- Backlogs, Priorisieren der Anforderungen, Überwachung der Entwicklungsphasen, Kommunikation zwischen dem Fachbereich und der IT-Abteilung, PO, regelmäßige Kommunikation mit den Stakeholdern, Vereinbarung des Sprint- Ziels mit den Developern, Erstellung der Epics & User Storys, Jira, Confluence


Projektleitung | Projektmanagement:

Leitung mehrerer (agiler) Teams, Kontrolle von Teilprojekten, Soll/Ist-Analyse, Machbarkeitsstudien, Dokumentation der Meilensteine, Durchführung und Moderation von Workshops, Prince2, Jira, Confluence, Vorbereitung von Managementpräsentationen, Moderieren von Team Events, Pflege und Erweiterung von Fachkonzepten, PMO, Project Management Officer, Agiles Projektmanagement, Koordination der Teilprojekte, Schreiben von Dokumentationen, Überwachung und Berichterstattung (u.a. mit PowerBI), Projektplanung, Erstellung und kontinuierlicher Überwachung des Projektzeitplans (Gantt), Reporting, Erstellen von Releaseplanungen, Verfassen von Releasebeschreibungen, Entwicklung strategischer Ziele, Stakeholdermanagement


Cloud:

AWS(Amazon Web Services), Azure, Google Cloud, Oracle Cloud


Scrum | Scrum Master | Agile:

Scrum, Scrum Master, Kanban, Wasserfall, Jira, Confluence, Miro, Lucidchart, Mural, Sprint Review, Retrospektive, Sprint Planning, Agiles Manifest, Story Points, Less, Kanban, SAFe, Scaled Agile Framework, Sprint Planning,Sprint Retrospektive, Sprint Review, PI Planning, Planning Poker, Epics, User Stories, (Sub-)Tasks, Product Backlog, Sprint Backlog, Burndown Chart, Velocity, Einführung von Scrum in (IT) - Unternehmen, Coachen des Development-Team hin zu Selbstorganisation und funktionsübergreifender Teamarbeit, Unterstützen des Development-Teams, Beseitigen von Hindernissen/Impediements, Moderation von Team-Events, Vermitteln von Techniken für eine effektive Verwaltung des Product Backlogs, Schaffen eines Verständnisses für Produktplanung in einem empirischen Arbeitsumfeld, Vermitteln des richtigen Verständnisses von Agilität und ihrer Anwendung, SAFe, Agile Project Lead, Agile Proceesing


DevOps:

CI/CD Pipeline, Conitnuous Integration, Continuous Delivery, Docker, Container, Containisierung, Docker Compose, Docker Image, Dockerfile, Docker Hub, Orchestrierung von Containern, Jenkins, Bamboo, Git, Github, Gitlab CI/CD, Bamboo, Versionsverwaltung, Branching, Merging, Terraform, Infrastructure as Code


Data Science:

ETL, Extract Transform Load, ETL Jobs, SQL, PowerBI, Tableau, Spark, Python, Datenmigration, Talend, Data Processing, Data Warehouse, Data Lake, Relationale Datenbanken, Big Data, Apache Spark, Datenmodellierung, Datenmapping, UiPath, Robotic Process Automation (RPA), Amazon Redshift (AWS), AWS Glue, AWS Glue Studio, AWS Glue Data Brew, Azure Databricks, Mage, Apache Airflow, SAS/ SAS Studio


Python:

Django, Flask, FastAPI, requests, Selenium, BeautifulSoup, unittest, pytest, DevOps, API, Rest API, Restful API, Pycharm, VS Code, Cisual Studio Code, Atom, Jupyter Notebook, IntelliJ, Eclipse, Cloud, Google Collaboratory, Web Scraping, numpy, matplotlib, seaborn, statsmodels, pandas, spark, openpyxl, Poetry, Apache Spark


Monitoring | Dashboards | Visualisierungen:

Dashboard, Grafana, Prometheus, Matplotlib, Seaborn, Power BI, Tableau, IBM Cognos, ALM Octane, SAP BusinessObjects, SAS Business Analytics, SAP PowerDesigner, Miro, Mural


Sonstiges:

AML, Anti Money Laundering, Finanzkriminalität, Compliance, Modellierung von Transaktionsdaten


Branchenkenntnisse:

  • Banken (u.a. Wertpapierbank)
  • Versicherung
  • Mergers & Acquisitions (M&A)
  • Logistik
  • Payments/Zahlungsverkehr
  • öffentlicher Sektor (Behörde)
  • Gesundheitswesen (Healthcare)


AI/Artificial Intelligence:

Generative AI, Large Language Models (LLM), Prompt Engineering, RAG (Retrieval-Augmented Generation), AI Agents, Multimodal Models, Fine-Tuning, Transfer Learning, Foundational Models, Transformer Architecture, AI Governance, Model Hallucinations, Responsible AI, AI Ethics, AI Use Case Identification, Developing AI Strategy, Proof of Concept (PoC) for AI Solutions, Model Evaluation and Validation, Data Pipelines for AI, Business Process Optimization with AI, Neural Networks, Recurrent Neural Network (RNN), Convolutional Neural Network (CNN), NVIDIA Clara, PyTorch, Tensorflow, Hugging Face


AI Technologies and Concepts:

Vector Databases, Embeddings, Semantic Search, AI APIs (e.g., OpenAI, Azure AI, Deepseek, Gemini), Cloud AI Platforms (AWS SageMaker, Bedrock, Google Vertex AI, Azure Machine Learning, Oracle Cloud), LangChain, CrewAI, N8N, Langgraph, Langsmith, LlamaIndex, Automation (RPA) with AI


Business Analyse | Business Analyst:

Anforderungsanalyse, Requirements Engineering, Business Analyse im agilen Projektumfeld, Geschäftsprozessoptimierung, Reporting, Geschäftsprozessmodellierung, Anforderungsmanagement, Anforderungsanalyse, Prozessoptimierung, Datenmigration, Datenbankmanagement, SQL, User Stories, Miro-Board, Mural Fachkonzept, Change Management, Datenmapping, Atlassian, Jira, Confluence, V-Modell, Cloud Management, IT-Transformation, Conceptboard, Bitbucket, Talend Open Studio (Datenmigration), Machbarkeitsstudien, Requirement Documents, Kafka, Apache Kafka, ITIL, Innovator, Parquet, Elastic Search, Aufbau Sharepoint, Pseudonymisierung, BPMN, UML, Entity Relationship, CRM, Customer Relationship, Salesforce, Redshift, Collaboration Sharepoint, Scrum, Timelines in Gantts, Erstellung von Mock-Ups und Wireframes, PM, PMI, Slack, Teams, Microsoft Office, Excel, Word, Power Point, Moderation bankenweiter Schulungen, Sharepoint Erneuerung, Projektdokumentation, Bindeglied zwischen Fachbereich und Entwicklerteam, Schnittstelle zum Fachbereich, Business Engineering, JSON, XML, Begleitung von Arbeitsgruppen, SAP, Datenmapping, Datenmodellierung, UiPath, Robotic Process Automation (RPA), Stakeholdermanagement, Spezifikation der Anforderungen, Beschreibung API Schnittstellen, Einbindung diverser Anforderungen hinsichtlich eines POCs (Proof of Concept)

Programmiersprachen

Python
Java
SQL
Xpath
HTML
CSS

Datenbanken

PostgreSQL
pgAdmin
Oracle
Mongo DB
IBM DB2
MySQL
S3
MinIo (S3 Storage)
Azure Data Lake Storage Gen2
Redshift
Microsoft Access
DBeaver

Branchen

Branchen

  • Banken
  • Versicherung
  • Mergers & Acquisitions (M&A)
  • Logistik
  • Payments/Zahlungsverkehr
  • öffentlicher Sektor
  • Gesundheitswesen

Einsatzorte

Einsatzorte

Deutschland, Schweiz, Österreich
möglich

Projekte

Projekte

8 Monate
2025-04 - heute

Entwicklung einer KI-basierten Früherkennungs-App

AI Projektleiter & Koordinator Agile Projektmethodik (Scrum) CRISP-DM für Data Science MDR-Compliance-Prozesse ...
AI Projektleiter & Koordinator
Entwicklung einer KI-basierten Früherkennungs-App für neonatologische Lebererkrankungen

  • Konzeption und Entwicklung einer innovativen Früherkennungs-App für eine seltene Lebererkrankung bei Kleinkindern. Der Ansatz kombiniert ein neuronales Netz zur Analyse medizinischer Bilddaten mit einem Retrieval-Augmented Generation (RAG)-Modell, das patientenindividuelle Krankenhausdaten (Befunde, Laborwerte, Anamnese) integriert. Zur Überwindung der begrenzten Datenverfügbarkeit bei seltenen Erkrankungen kommt die Generierung synthetischer Daten mit GANs zum Einsatz
    • Technisch-wissenschaftliche Gesamtverantwortung für die Entwicklung der KI-basierten Diagnoseplattform
      • Steuerung des Projektteams und Abstimmung mit medizinischen Experten, Datenwissenschaftlern, Softwareentwicklern und Compliance-Stellen (Datenschutz)
      • Konzeption der KI-Systemarchitektur, die ein neuronales Netz (CNN) für die Bildanalyse mit einem RAG-Modell zur Anreicherung mit klinischen Patientendaten verbindet
      • Vektorbasierte Retrieval-Architektur mit LangChain für Echtzeit-Abruf ähnlicher neonataler Fälle aus Studien- und Literaturdaten (Clinical RAG-System)
      • Entwicklung und Training von Generative Adversarial Networks (GANs) zur Erzeugung synthetischer medizinischer Bild- und Patientendaten zur Datenaugmentierung bei begrenzter Fallzahl (Synthetische Datengenerierung)
      • Integration von Studienprozessen (Eltern-Einwilligung, Follow-ups, Arzt-Eskalation) in die KI-Pipeline mithilfe von N8N-Workflows
      • Entwicklung einer Pipeline zur Fusion von Stuhlbild-Analysen (CNN-basiert) mit klinischen Neonataldaten (u.a. Bilirubin-Werte, Anamnese) via RAG und LLMs (multimodale Datenintegration)
      • Orchestrierung von CrewAI Agenten für Krankheitsbildklassifikation, Risikobewertung und Elternkommunikation in kooperativen Workflows
      • Entwicklung und Optimierung präziser Prompt-Strategien zur Steuerung der RAG-Komponente für die Verbesserung der Diagnoserelevanz der abgerufenen Daten (Prompt Engineering)
      • Optimierung der CNN-Modelle für Echtzeit-Bildanalysen für die Erkennung der Erkrankung auf mobilen Endgeräten (Mobile AI Integration)
      • Sicherstellung der klinischen Validität, Robustheit und Erklärbarkeit der KI-Modelle in enger Zusammenarbeit mit Medizinern, einschließlich Validierung der synthetischen Daten
Python PyTorch/TensorFlow LangChain LangGraph CrewAI N8N RAG-Frameworks (z.B. LlamaIndex) Vector Databases FastAPI Docker Jira Confluence CursorAI PyTorch GAN/Zoo TensorFlow GAN NVIDIA Clara
Agile Projektmethodik (Scrum) CRISP-DM für Data Science MDR-Compliance-Prozesse Prompt Engineering Agent-Based Modeling Synthetic Data Generation MobileML Convolutional Neural Networks (CNNs) Vektordatenbanken Transformer-Modelle Retrieval-Augmented Generation (RAG) Generative Adversarial Networks (GANs) AI-Agenten-Orchestrierung Synthetic Data Validation LLM (u.a. Open AI/ Gemini)
Gesundheitswesen / Medizintechnik (AI in Healthcare)
5 Monate
2025-01 - 2025-05

Entwicklung einer KI-Agenten-gestützten M&A Suchplattform

AI Workflow Spezialist Agile Development Agent-Based Modeling Cloud Deployment ...
AI Workflow Spezialist

Entwicklung einer agentenbasierten KI-Plattform zur Automatisierung von M&A-Rechercheprozessen. Die Architektur kombiniert CrewAI für Multi-Agenten-Systeme mit LangGraph für komplexe Workflows, um manuelle Suchvorgänge durch intelligente Datenextraktion und Analyse zu ersetzen

  • Entwicklung spezialisierter Agenten für Unternehmensrecherche, Marktanalyse und Due-Diligence
  • Tool Anbindungen (Custom Tools mit Selenium, API-Integrationen und unternehmensinternen Datenbankanbindungen)
  • Stateful Workflows für mehrstufige Analyseprozesse per LangChain Workflow Orchestrierung
  • Implementierung eines RAG-Systems mit Hugging Face Embedding-Modellen, sodass Vektorbasierte Wissensdatenbanken für Unternehmensdaten präzisere LLM-Abfragen ermöglicht haben
  • Multi-LLM-Architektur im Kontext einer Kombination verschiedener Sprachmodelle (u.a. GPT-4, Claude etc.) für spezifische Analyseaufgaben
  • Azure Cloud Deployment auf Azure Kubernetes Service (AKS) mit Azure Container Instances
  • Prozessintegration mit N8N im Kontext der Reporting-Erstellung
  • Prompt Engineering für den spezifischen Arbeitskontext
Agile Development Agent-Based Modeling Cloud Deployment Prompt Engineering API-Integration
M&A / Unternehmensberatung
7 Monate
2024-10 - 2025-04

Digitale Vernetzung

Technischer Teilprojektleiter / Senior Anforderungsanalytiker / Testmanager Agile Scrum CI/CD ...
Technischer Teilprojektleiter / Senior Anforderungsanalytiker / Testmanager

Digitale Vernetzung der Bundesagentur für Arbeit mit Kranken-, Renten- und Unfallversicherungen

  • Umsetzung gesetzlich vorgegebener Anforderungen zum digitalen Datenaustausch der Bundesagentur für Arbeit mit anderen Behörden und Sozialversicherungsträgern und Schaffung einer effizienten, sicheren und skalierbaren Dateninfrastruktur zur automatisierten Verarbeitung und Übertragung relevanter Informationen
    • Steuerung des technischen Teams & Abstimmung mit Stakeholdern
    • Planung & Allokation von Entwicklungskapazitäten und Kostenmodellierung
    • Anforderungsanalyse, Anforderungserstellung und Design
    • Anforderungsmanagement, Klärung, Spezifikation & Priorisierung von gesetzlichen Vorgaben
    • Koordination zwischen Fachabteilungen, Entwicklern, Testern & Architekten
    • Vermittlung zwischen gesetzlichen Anforderungen & technischer Umsetzung
    • Spezifikation von User Stories, Use Cases, BPMN- & UML-Modellen
    • Erstellung von Datenmodellen, Datenflussdiagrammen & Schnittstellenspezifikationen
    • Technische Konzeption: Entwicklung der Architektur & Schnittstellen mit Microservices & Event- Driven Architektur
    • Datenintegration: Nutzung von Kafka, Camel & APIs für nahtlose Kommunikation zwischen Behörden
    • Testautomatisierung & Qualitätssicherung: CI/CD, BDD, Selenium, PACT Testing zur Sicherstellung der Stabilität
    • Monitoring und Fehleranalyse mithilfe des Grafana-Tools
    • Konzeption von Unit Tests, Integrationstests, Systemtests und End-to-End-Tests (E2E)
    • Behavior-Drive Development (BDD) mti Cucumber & Python
    • Testmanagement im Kontext von PACT-Testing/Contract Testing
    • Kombination aus BDD, Contract Testing (PACT) und Testautomatisierung (Selenium, Robot Framework)

AWS Kafka Apache Camel S3 Python Selenium Robot Framework Innovator Jira Confluence Grafana Oracle PostgreSQL
Agile Scrum CI/CD DevOps BDD PACT Tests JSON XML BPMN 2.0 UML
öffentlicher Sektor / Behördendigitalisierung
6 Monate
2024-05 - 2024-10

Implementierung und Wartung von Datenbanken und Datenintegrationsprozessen

DWH-Entwickler | Data Engineer | Software Engineer DWH Data Engineering Agile ...
DWH-Entwickler | Data Engineer | Software Engineer
Daten müssen aus verschiedenen Quellen extrahiert, transformiert und in ein zentrales Data Warehouse geladen werden (ETL-Prozess). Die Mengen an Daten kommen aus verschiedenen Systemen (wie Transaktionssysteme, CRM-Systeme, und Risikomanagement-Systeme,) und werden entsprechend konsolidiert.
  • Anforderungsanalyse, Anforderungserstellung und Design
  • ETL-Prozesse
  • Datenmodellierung
  • Kontinuierliche Integration und Deployment (CI/CD)
  • Erstellung von Python-Skripten für die Integration von Daten aus verschiedenen Quellen
  • Datenverarbeitung mit Python und den verschiedenen Bibliotheken
  • Erstellung von PL/SQL Skripten
  • Integration von API-Daten in das Data Warehouse (Schnittstellenintegration)
  • Aufbau eines komplett neuen Sharepoints in Bezug auf die fachliche und technische Bedienung von ALM Octane
  • Teilprojektleitung bei der Trennung von Dev und Ops im DWH-Kontext
  • Erstellung und Weiterentwicklung von Dokumentationskonzepten
Python SQL PL/SQL Postman Jira Confluence MID Innovator Bitbucket Smartgit SAP BO Power Designer Oracle Data Integrator (ODI) Toad pandas polars requests selenium Pycharm PandaSQL Oracle PostgreSQL
DWH Data Engineering Agile Scrum CI/CD DevOps
Banken
10 Monate
2022-04 - 2023-01

Einführung von ALM Octane als zentrales Testmanagement- und DevOps-Tool

Business Analyst | Data Engineer | Testmanager Data Engineering ETL Business Analyse ...
Business Analyst | Data Engineer | Testmanager
Bankenübergreifende Einführung und RollOut von ALM Octane (Anforderung der Bafin). Es mussten (Test)-Daten aus verschiedenen Quellen (u.a. Excel, SAP, HP ALM/QC) transformiert und nach ALM Octane zusammengeführt werden
  • ETL-Prozesse
  • Datenmigration und Datenmapping
  • Erstellung von Python-Skripten für die Datentransformation- und Datenmigration nach ALM Octane (RestAPI) unter der Nutzung verschiedener Bibliotheken (u.a. Pandas)
  • Unterstützung bei der Erstellung von Java Skripten
  • Bankenweite Schulung von Mitarbeitern für den Umgang ALM Octane
  • Aufbau eines komplett neuen Sharepoints in Bezug auf die fachliche und technische Bedienung von ALM Octane
  • Containerisierung von ALM Octane (Docker)
  • Erstellung und Durchführung von manuellen und automatisierten Tests, sowie anschließender Visualisierung der Testergebnisse/Bugs/Defects unter der Erstellung verschiedener Dashboards (DEV/TEST/PROD)
  • Einarbeitung neuer Tester und Überarbeitung der Testinfrastruktur
  • Integration von Elasticsearch
  • Erstellung und Durchführung automatisierter und manueller Tests
    • Oberflächentests mit Selenium (Python/Java)
    • ?API Tests mit requests (Python), REST Assured (Java) und Postman Anbindung einer CI/CD Pipeline (Jenkins) über die REST-Schnittstelle
  • Datenmanagement und Datenanalysen mit SAS
  • Erstellung und Weiterentwicklung von Testkonzepten
Python Java SQL Xpath Postman Jira Confluence HP ALM/QC MID Innovator Bitbucket Dynatrace Elasticsearch Docker Container SAS openpyxl pandas requests selenium Jupyter Notebook Eclipse Pycharm PandaSQL REST Assured SAP HANA IBM DB2 MinIO (S3 Storage)
Data Engineering ETL Business Analyse Testmanagement Testautomatisierung Business Intelligence Leitung von Schulungen Agile Scrum CI/CD DevOps
Banken
4 Monate
2022-01 - 2022-04

Digitalisierung von Wagenflotten

Testmanager |Testautomatisierer | Scrum Master Agile/Scrum
Testmanager |Testautomatisierer | Scrum Master

Entwicklung von Web ? und Mobile-Anwendungen zur Überprüfung des Wagenzustands nach Rückgabe und Überführung der Rich Client-Applikation in eine Web-App. Als Testmanager/Testautomatisierer und Scrum Master habe ich das Projekt wie folgt unterstützt:

  • Beschreibung, Durchführung und Dokumentation von Testskripten und Testfällen für die neue Web- Oberfläche und Mobile-App
    • Erstellung von Skripten mit Python und Selenium (GUI-Tests)
    • Einführung des Robot Frameworks und des Keyword Driven Testings (GUI/Mobile/API)
    • Erstellung von Testskripten für die neue Mobile-App mit Appium
    • Integrierung der Python Skripte in die CI/CD-Pipeline
  • Überarbeitung des Testkonzepts für die API-Tests
    • Automatisiertes Testen der API-Schnittstellen mit Python und Robot in Kombination mit dem manuellen Testen mit Postman
    • Schulung des Teams in Bezug auf die Testautomatisierung
  • Zusammenarbeit mit Java-Entwicklern für die Überführung der Python-Skripte nach Java
  • Leitung von 3 Scrum Teams
    • Einführung des Scrum-Frameworks
    • Moderation und Koordination der Scrum-Events (u.a. Sprint Planning, Sprint Review, Retrospektiven usw.)
    • Planung, Vorbereitung und Nachbereitung der Scrum Workshops
    • Coaching des Teams
    • Beseitigung sogenannter ?Impediments?
Python Java Bitbucket Bamboo CI/CD Gitlab Postman Jupyter Notebook VSCode Eclipse Cypress Robot (Python Framework) Appium Selenium requests PostgreSQL SAP HANA
Agile/Scrum
Logistik
7 Monate
2021-07 - 2022-01

Modernisierung der IT-Partnerdatenbank für einen Versicherungsverbund

Data Engineer | Business Analyst | Testmanager ETL-Prozesse Erstellung von Python-Skripten für API Tests Data Warehouse/ DWH ...
Data Engineer | Business Analyst | Testmanager

Das Partnersystem des Versicherungsverbunds wird modernisiert, sodass die Funktionalitäten in Java bereitgestellt werden müssen (vorher: COBOL). Als Data Engineer und Business Analyst fielen folgende Tätigkeiten in meinen Aufgabenbereich:

  • Anforderungsanalyse für das modernisierte IT-Partnersystem
  • Analyse vorhandener Datenstrukturen und der Entwurf/Erstellung neuer Datenmodelle für das modernisierte Partnersystem
  • Diverse Aufgaben zur Datenmigration und -transformationen/ ETL-Prozesse mit Talend:
    • Datenextraktion aus den alten COBOL-Systemen (IMS) mithilfe von Skripten (Talend Job)
    • Datenkonvertierungen aus dem COBOL-Format mit der anschließenden Überführung in relationale Datenbanken
  • Überführung relevanter Daten vorhandener CRM-Systeme in das neue Partnersystem/ IT-Partnerdatenbank
  • Erstellen unterschiedlicher Dashboards zur Messung und Reporting des Fortschritts (u.a. Power BI, Tableau)
  • Aufbau eines Data Warehouse (Redshift in AWS)
  • Erstellung von Python-Skripten für die für die gesamte Datenmigration
  • Daten Auslesen aus Datenbanken (Verbindungsaufbau)
  • Ausführung von SQL-Abfragen oder anderer Extraktionsmethoden
  • Datenverarbeitung und Datentransformationen
  • Laden der Daten in die Zieldatenbanken
  • Entwurf und Aufbau von ETL-Strecken (Airflow DAGs), inklusive Datentransformationen
  • Automatisierung der ETL-Pipelines, um den Prozess der Datenextraktion, -transformation und -laden zu automatisieren und zu beschleunigen.
  • Abstimmung, Entwicklung und Präsentation verschiedener Datenmodelle (Datenmodellierung)
  • Entwurf und Entwicklung automatisierter Tests für die ETL-Pipeline
  • Visuelle Darstellungen und Konfiguration der ETL-Flüsse mit SAS
  • Übernahme von Projektmanagementaufgaben im Bereich Test
  • Testen der neuen Web Services (Unit Tests)
  • Analyse der Anforderungen unterschiedlicher Web Services
  • Erstellung von Python Skripten für die API Tests (inkl. Reporting)
  • Testmanagement und Testfallerstellung mit dem Aqua-Tool
  • Unterstützung bei der Erstellung von Java-Skripten für das Testen der Web Services
  • Pflege und Erweiterung des Fachkonzepts
Python Java SQL ETL Talend Grafana Microsoft Visio Power BI Tableau Jira Confluence Guidewire Salesforce Salesforce Data Loader SQL Server Management Studio Pycharm Azure Databricks SAS Data Integration/ SAS Studio Aqua requests unittest pytest-html Oracle MySQL IBM DB2 IMS Redshift (AWS) S3 (AWS) DBeaver
ETL-Prozesse Erstellung von Python-Skripten für API Tests Data Warehouse/ DWH Agile/Scrum Entity Relationship Data Vault
Versicherung
1 Jahr 3 Monate
2020-05 - 2021-07

Modernisierung der neuen Anlagestrecken für Giro- und Kreditkarten

Lead Business Analyst für Data & Test | Testmanager | Projektleiter/Projektmanager Datenmigration - und Manipulation Testautomatisierung (GUI-Tests) ...
Lead Business Analyst für Data & Test | Testmanager | Projektleiter/Projektmanager

Modernisierung der neuen Anlagestrecken für Giro- und Kreditkarten und die Erstellung einer übergreifenden Datenplattform (Data Warehouse)

  • Eine der führenden Geschäftsbanken modernisierte die Anlagestrecken für Girokonten und Kreditkarten. Weiterhin wurde im Zuge des Projekts HP ALM/QC abgelöst durch ALM Octane, sodass eine Migration des gesamten Datenbestands notwendig gewesen ist, sodass die Daten vor dem Import bereinigt und transformiert werden müssen. Neben vorhandenen Testfällen aus dem alten System wurde auch häufig Excel für die Dokumentation der Testfälle genutzt. Neben den Testfällen müssen auch weitere Artefakte des alten Systems nach ALM Octane überführt werden (Anforderungen, Defects usw.)
    • Datenmigration von HP ALM/QC nach ALM Octane
      • Analyse der Anforderungen für das Datenmapping und Datenmigration
      • Bereuung und Koordination mehrerer Teams + Teilprojekte
      • Nutzung des Shift Tools (Migrationstool für ALM Octane)
      • Datenmapping zwischen ALM/QC und Octane
      • Entwicklung von Python-Skripten für die Datenbereinigung- und Transformation in Excel, bevor diese nach ALM Octane importiert werden (pandas und openpyxl-Bibliotheken)
    • Testen und Überwachung der neuen Anlagestrecken
      • Entwicklung von Python Skripts für die Automatisierung der GUI-Tests (neue Anlagestrecken) in Form von Unit Tests und Selenium
      • Erstellung, Weiterentwicklung von Testkonzepten
      • Fachbereichsübergreifende Schulungen zur Nutzung von ALM Octane
      • Mitwirkung an der Erstellung einer CI/CD-Pipeline, sodass eine automatische Ausführung der Selenium Tests ermöglicht wird
      • Durchführung manueller Tests für komplexe Testszenarien
      • Regelmäßiges Reporting der Defects und Log-Analyse
    • Entwicklung einer übergreifenden Datenplattform (Data Warehouse)
      • Migration von Datenmengen verschiedener Anwendungen und Datenbanken nach Redshift (AWS)
      • Konzeptionierung und Entwicklung von ETL (Extract-Transform-Load) Prozessen
      • Entwicklung mehrerer Datenmodelle (u.a. Entity-relationship, Star Schema/Sternschema)
      • Entwicklung unterschiedlicher ETL-Strecken mit Apache Airflow DAGs, inklusive der Datentransformationen und Datenmanipulationen
      • Erstellen von Unit Tests, Integrationstests und End-to-End (E2E)-Tests für das Testen der ETL- Pipeline (unterschiedliche Testframeworks)
      • Aufbau einer CI/CD Pipeline in Gitlab
Python SQL Xpath Jenkins XRay Shift Git Gitlab Pycharm VS Code Prometheus Grafana pandas openpyxl airflow spark PostgreSQL SAP S4/HANA Oracle Microsoft SQL Server Amazon Redshift (AWS)
Datenmigration - und Manipulation Testautomatisierung (GUI-Tests) ETL-Prozesse Data Warehouse/DWH CI/CD Leitung von Schulungen Agile/Scrum Agiles Projektmanagament
Banken
2 Monate
2020-04 - 2020-05

Anbindung unterschiedlicher Zahlungslösungen

Business Analyst Data | Requirements Engineer | Product Owner Agile/Scrum Wasserfall Entity-relationship
Business Analyst Data | Requirements Engineer | Product Owner
Anbindung unterschiedlicher Zahlungslösungen (Point of Sale) für Händler und Implementierung einer Datenintegrationslösung für die Verarbeitung von Transaktionsdaten
  • Für unterschiedliche Händler wurden individuelle Zahlungslösungen entwickelt und in deren Geschäftsprozesse integriert (u.a. Virtual Point of Sale-VPOS, Software Point of Sale-SoftPOS, Clover)
  • Weiterhin wurde eine Datenintegrationslösung für die Analyse der Transaktionsdaten entwickelt
    • Anforderungsanalyse: Abstimmung der Anforderungen mit Stakeholdern und Produktmanagern sowie die Dokumentation der Anforderung bzgl. der Datenintegration
    • Datenmodellierung: Entwurf und Abstimmung von unterschiedlichen Datenmodellen, Datenattributen und -beziehungen, die der Point of Sale-Anbindungen entsprechen
    • Datenanalyse: Die vorhandene Datenmenge wurde auf unterschiedliche Weise untersucht (bsp. Excel/CSV/JSON mit Python unter Verwendung der Pandas- und Spark Bibliotheken, XML Daten mit Xpath, relationale Datenbanken mit SQL)
    • Unterstützung bei der API Integration für den Austausch der Daten zwischen der Point of Sale (POS)- Lösung und anderen Systemen sowie der Analyse der API-Dokumentationen (Endpoints, Parameter Authentifizierungsmethoden usw.)
    • Enge Zusammenarbeit mit dem Entwicklungsteam für die Analyse der API-Spezifikation und die Durchführung unterschiedlicher API Tests mit Postman (Restful APIs) und SOAP UI
    • Erstellung von Testkonzepten
    • Unterstützung bei der Einführung von Monitoring-Tools (Grafana)
    • Erstellung unterschiedlicher Visualisierungsansätze für das Reporting gegenüber dem höheren Management
    • Analyse von Logs u.a. mit Kibana
    • Erstellung von Epics und User Stories, Visualisierung von Kennzahlen (Burndown Chart, Velocity, usw.) sowie die Priorisierung der Arbeitspakete
    • Pflege des Product- und Sprint Backlog
    • Definition of Done und Definition of Ready-Kriterien
Python SQL Xpath Kibana Xray Tableau PowerBI Postman SOAP UI SAP Power Designer Bitbucket Jira Confluence Tosca Pandas Spark Seaborn Numpy PostgreSQL Oracle
Agile/Scrum Wasserfall Entity-relationship
Zahlungsverkehr/Payments
9 Monate
2018-08 - 2019-04

Automatisierung von Datenbeschaffungsprozessen für eine M&A-Boutique

Data Engineer Mergers & Acquisitions (M&A) | Agile Coach/ Scrum Master ETL Scrum Agile ...
Data Engineer Mergers & Acquisitions (M&A) | Agile Coach/ Scrum Master
Automatisierung von Datenbeschaffungsprozessen für eine M&A-Boutique und Erstellung eines Data Lakes für die Errichtung eines Datenraums für Due-Diligence Prozesse

  • Das Projektziel bestand in der Entwicklung von automatisierten Datenbeschaffungsprozessen aus dem Web mithilfe von Scraping Tools
  • Somit sollte der manuelle Aufwand bei der Datenerhebung reduziert und die Effizienz der Prozesse gesteigert werden
  • Die Skripte wurden in Python geschrieben, sodass anschließend Bereinigungs- und Transformationsprozesse durchgeführt werden und die Daten in die Datenbanken oder in Excel-Sheets geladen werden konnten. Somit wurde ein Data Lake erstellt, sodass Daten aus unterschiedlichen Quellen zusammengetragen wurden
  • Es wurde eine Hybridlösung (on premise und AWS Cloud) genutzt
    • Folgende Frameworks wurden für das Web Scraping (Datenextraktion aus dem Web) verwendet:
      • Selenium: Erstellen von Selenium Skripten, vor allem für Webseiten mit JavaScript Elementen
      • Beautiful Soup (Python-Bibliothek für das Extrahieren der Daten aus dem HTML-Quellcode)
      • API Scraping: Einige Webseiten bieten den Zugriff auf API-Schnittstellen, sodass Daten direkt erfasst werden können, anstatt sie von der Webseite zu scrapen. Hierfür wurde die requests- Bibliothek verwendet
    • Erstellung von Skripten zur Bereinigung und Manipulation von Daten mit Pandas (Python-Bibliothek) und AWS Glue (DataBrew) (AWS-Cloud)
    • Automatisierung der Datenbeschaffungsprozesse unter der Erstellung einer CI/CD Pipeline (Jenkins) Entwicklung einer automatisierten Datenpipeline (DAG) zur Datenbeschaffung,- Bereinigung,- Analyse und -visualisierung unter Verwendung von Apache Airflow
    • Datenanalyse und Visualisierung mit Python unter der Verwendung von Matplotlib, Seaborn, Tableau, Power BI und Vorbereitung der Kundenpräsentationen
    • Abfragen mit Pandas SQL und Spark SQL
    • Unterstützung bei der Errichtung eines Data Lakes (Datenraum für Due Diligence Prozesse mit Azure Data Lake Solution Storage Gen 2)
    • Schulung eines ausgewählten Kreises von Mitarbeitern für die Erstellung von Web Scrapern Umstellung von Waterfall Modell zu Scrum (agile Transformation)
    • Moderation unterschiedlicher Scrum Events

AWS Azure Python SQL Xpath HTML CSS Git Bitbucket Confluence Jenkins CI/CD AWS Glue (DataBrew) AWS S3 Azure Data Lake Storage Gen2 Power BI Tableau Apache Airflow Azure Databricks Selenium BeautifulSoup requests Pandas pyspark Spark Matplotlib Seaborn psycopg2 sqlalchemy airflow PostgreSQL MySQL Orbis Markus SAP HANA (Procedures/Table Functions/Calculation Views/SQL Views)
ETL Scrum Agile Waterfall
Mergers & Acquisitions (M&A)
8 Monate
2018-01 - 2018-08

Bankenweite IT-Implementierung von zusätzlichen Liquiditätsüberwachungsmetriken

Product Owner (Product Owner Data) + Interim Agile Coach | Data Engineer Agile/Scrum Entity-Relationship Star Schema/Sternschema
Product Owner (Product Owner Data) + Interim Agile Coach | Data Engineer
Bankenweite IT-Implementierung von zusätzlichen Liquiditätsüberwachungsmetriken gemäß den Anforderungen der BaFin| Banken-Compliance

  • Konkret geht es in dem Projekt um die Umsetzung von zusätzlichen Parametern für die Liquiditätsüberwachung der Genossenschaftsbanken (Additional Monitoring Metrics for Liquidity Reporting ? AMM). Dabei werden die Anforderungen der BaFin und der EBA umgesetzt, um sicherzustellen, dass die Banken den regulatorischen Vorgaben entsprechen und ein effektives Liquiditätsrisikomanagement gewährleisten können. So muss gegenüber den Aufsichtsbehörden ein umfassenderes Bild in Bezug auf die Liquiditätsposition gemeldet werden.
  • Als Product Owner im Bereich Data war ich an der Schnittstelle zwischen den Fachverantwortlichen und dem Entwicklungsteam tätig:
    • Regelmäßige Abstimmung mit den Stakeholdern, um die regulatorischen Anforderungen in Bezug auf die Implementierung der Liquiditätskennzahlen aufzunehmen und in die Anforderungsdokumente sowie in EPICs und User Stories zu überführen
    • Analyse des technischen Datenblatts zur Umsetzung der Meldebögen und Dokumentation in Confluence (C 66.01, C 67.00, C 68.00, C 71.00,)
    • Identifizierung der relevanten Datenquellen, aus denen die Daten für die ALMM-Analyse benötigt werden (u.a. Kernbankensystem, Datenbanken usw.) sowie der anschließenden Erstellung von Extraktionsjobs, sodass die entsprechenden Daten extrahiert werden können
    • Erstellung von Datenmodellen, welche die entsprechenden Datenstrukturen- und Beziehungen der Liquiditätsmeldebögen abbilden. Hierbei wurden die Datenentitäten gemäß den Anforderungen des technischen Datenblatts identifiziert, sowie die entsprechenden Datenattribute und -beziehungen definiert.
    • Kommunikation mit den Entwicklerteam, welche die technische Implementierung auf Code-Ebene durchgeführt haben
    • Erstellung von geeigneten Testkonzepten und Test-Cases
    • Verwaltung, Planung und Ausführung von Testfällen sowie Defect Tracking mit Aqua
    • Schnittstelle zwischen dem Fachbereich und der IT
    • Abstimmung des Datenmodells mit den unternehmensinternen Datenarchitekten
    • Pflege und Erweiterung des Fachkonzepts sowie die Priorisierung der Arbeitspakete Modellierung der Geschäftsregeln/Geschäftsprozessmodellierung mit Visual Rules
    • Erstellung von Berichten inkl. Diverser Dashboards und Visualisierungen für die Abbildung der Liquiditätspositionen und das Reporting an das Management
    • Moderation von Scrum Events wie Dailys, Sprint Reviews, Sprint Plannings, Sprint Reviews oder Backlog Refinement Meetings
    • ?Erstellung von Priorisierung von User Stories im Backlog (Jira)

SQL Java Visual Rules (Bosch) Innovator Jira Confluence Lucidchart Apache Nifi SAP Data Services SAP Analytics Cloud Tableau Power BI agree21 (Kernbanksystem) FitNesse Aqua Oracle SAP S/4Hana
Agile/Scrum Entity-Relationship Star Schema/Sternschema
Banken
6 Monate
2017-08 - 2018-01

Aufbau und Ausbau eines Data Lakes für die Optimierung des KYC-Prozesses

Senior KYC-Analyst Compliance & Data + Projektleiter/Projektmanager | Data Engineering ETL Business Intelligence Data Warehouse ...
Senior KYC-Analyst Compliance & Data + Projektleiter/Projektmanager | Data Engineering

Aufbau und Ausbau eines Data Lakes für die Optimierung des KYC-Prozesses einer international führenden Bank

  • Aufgrund der Vorgaben der Bankenaufsicht muss eine international führende Bank ihre Prozesse in Bezug auf Geldwäscheverdachtsmeldungen (Know Your Customer -KYC und Anti Money Laundering -AML) verbessern
  • So ging es in dem Projekt darum, verdächtige Transaktionen zu analysieren und relevante Daten zu den entsprechenden Kunden zu sammeln, diese zu reinigen/manipulieren und zusammenzutragen
  • Ziel war die Entwicklung einer harmonisierten Datenbasis
    • Datensammlung/Datenextraktion: Sobald verdächtige Transaktionen stattgefunden haben, mussten Daten aus unterschiedlichen Quellen bezogen auf den Kunden gesammelt werden. Häufig stammen die Daten von den Kundenbetreuern oder aus der Datenbank der Bank selbst (PDF-Dokumente, Transaktionsauszüge, Excel/CSV-Dateien usw.). Mithilfe unterschiedlicher Verfahren wurden die Daten extrahiert:
      • Auslesen von Daten aus PDF Dateien mit Python-Bibliotheken (PyPDF2), UiPath (Robotic Process Automation) / Textract
      • Auslesen von gescannten Dateien mit Tesseract OCR
      • Sammlung von Daten direkt aus den Datenbanken, sowie LexisNexis
    • Transformationsarbeiten mit Pandas und Spark (Python-Bibliotheken)
      • Datenbereinigung und -manipulation
      • Aggregation und Zusammenfassung
      • Explorative Datenanalyse
      • Datenvisualisierung mit weiteren Bibliotheken (u.a. Matplotlib, Seaborn)
    • Zusammenführen der Daten nach S3 für weitere Bearbeitungsschritte, Analysen (u.a. mit AWS Athena usw.)
    • Automatisierung unterschiedlicher Excel-Jobs mithilfe von Python und Pandas/Openpyxl (Python- Bibliothek) für die Analyse und Extraktion relevanter Daten
    • Harmonisierung und Bereinigung von Kundeninformationen für die Erstellung von Kundenprofilen für die weitere Analysen (u.a. mit SAS)
    • Dokumentation der erstellten Python Skripte in Confluence
    • Wöchentliches Reporting und Ergebnisvorstellung vor einem breiten Publikum

AWS Python SQL UiPath (RPA) Tesseract Textract Jira Confluence AWS Athena Automic SAS/ SAS Studio Pandas Spark PyPDF2 Openpyxl Numpy Oracle LexisNexis SAP S4/Hana AWS S3
ETL Business Intelligence Data Warehouse Business Analyse OCR Agile Agiles Projektmanagement Data Vault
Banken
3 Monate
2017-06 - 2017-08

Entwicklung eines Testprozesses für die Umsetzung der IT-Strategien

Software Tester (Web/API) | Testmanager
Software Tester (Web/API) | Testmanager

Entwicklung eines Testprozesses für die Umsetzung der IT-Strategien für das Financial Reporting (FINREP)

  • Als Teil des regulatorischen Meldewesens müssen Banken die Finanzberichterstattung (Financial Reporting - FINREP) umsetzen
  • Als Teil der Umsetzung von FINREP gehört eine Teststrategie für die korrekte Berichterstattung. Test wurden manuell und automatisiert durchgeführt. So wurden unter anderem funktionale Tests, Integrationstests oder Regressionstests durchgeführt. Hierzu zählt auch das Reporting zu den Ergebnissen (inkl. Dokumentation von Bugs/Defects)
  • Weiterhin wurde mithilfe von Python unterschiedliche Excel-Jobs mit Openpyxl (Python Bibliothek) umgesetzt, da die Datenmenge historisch gewachsen und teilweise unübersichtlich ist
  • Bug/Defect-Tracking mit dem Aqua-Tool

OSPlus HP QC/ALM Postman Jira Confluence Tosca Cypress Aqua Python SQL Xpath Openpyxl PostgreSQL IBM DB2
Banken

Aus- und Weiterbildung

Aus- und Weiterbildung

10 Monate
2025-02 - heute

AI in Healthcare

Dr. rer. medic, Charité Universitätsmedizin Berlin
Dr. rer. medic
Charité Universitätsmedizin Berlin
3 Jahre 2 Monate
2021-08 - 2024-09

Business, Administrative Social Communications and Technologies

PhD/Dr., University of Library Studies and Information Technologies, Sofia (ANABIN H+)
PhD/Dr.
University of Library Studies and Information Technologies, Sofia (ANABIN H+)
2 Jahre 4 Monate
2017-09 - 2019-12

Banken & Finanzen

Master of Science (M.Sc.), FOM University of Applied Science
Master of Science (M.Sc.)
FOM University of Applied Science
  • Banking & Finance
  • Statistik
  • Computer Science
3 Jahre 9 Monate
2013-10 - 2017-06

Business Administration

Bachelor of Arts, Universität Hildesheim
Bachelor of Arts
Universität Hildesheim
  • IT

  • Computer Science

  • Business Administration

Position

Position

  • IT-Consultant
  • QA Engineer
  • Python Programmierer
  • Management Consultant Data & AI

Kompetenzen

Kompetenzen

Top-Skills

Scrum Master Product Owner Testautomatisierung Software Testing KYC AML agile ISTQB HP ALM JIRA Confluence Python Testautomatisierung Testautomatisierungstools Selenium Selenium WebDriver Appium testcafe Behavior Driven Development Cucumber robot framework

Produkte / Standards / Erfahrungen / Methoden

AGILE/Scrum
Experte
Hp Alm
Fortgeschritten
Python
Fortgeschritten
Selenium
Experte
TestCafe
Fortgeschritten
Robot Framework
Fortgeschritten
Appium
Fortgeschritten
Behavior Driven Development
Fortgeschritten
Postman
Fortgeschritten
JavaScript
SQL
HTML/ CSS

Erfahrungen als Programmier-Tutor:

Als Tutor auf der Weiterbildungsplattform "Udemy" (über 75.000 eingeschriebene Teilnehmer) und auf Youtube erstelle ich Python-Kurse u.a. für folgende Themengebiete (Englisch & Deutsch):

  • Web Scraping
  • Datenbereinigung
  • Datenanalyse und Überführung von Daten in Datenbanken
  • Programmieren eines Sprachassistenten (Alexa Klon) Automations-Projekte mit Selenium

Beruflicher Werdegang:

01/2022 - heute:

Rolle: Freiberuflicher Berater Data & AI

Aufgaben:
  • Data Engineering
  • AI
  • Python-Programmierung
  • Testautomatisierung und Requirements Engineering (Anforderungsanalyse) im Kontext der agilen Softwareentwicklung

03/2019 - 01/2022:
Einsatzort: Frankfurt am Main
Rolle: Senior IT-Consultant Data, Data Engineer, Lead Business Analyst für Data & Test, Business Analyst Data, Requirements Engineer, Product Owner
Kunde: Capgemini GmbH


Aufgaben:
  • Modernisierung einer IT-Partnerdatenbank für einen Versicherungskunden
  • Modernisierung der neuen Anlagestrecken für Giro- und Kreditkarten
  • Anbindung von Zahlungslösungen für Händler

08/2018 - 03/2019:
Einsatzort: Lampertheim
Rolle: Data Engineer M&A

Kunde: Emporion GmbH


Aufgaben:
Automatisierung von Datenbeschaffungsprozessen für eine M&A-Boutique und Erstellung eines Data Lakes für die Errichtung eines Datenraums für Due-Diligence Prozesse

06/2017 - 08/2018:
Einsatzort: Hamburg
Rolle: Associate IT Consultant, Data Analyst, KYC-Analyst Compliance & Data, Software Tester
Kunde: Sopra Steria GmbH


Aufgaben:
  • IT-seitige Umsetzung der Anforderungen zur Liquiditätsüberwachung/Banken-Compliance 
  • Aufbau eines Data Lakes für die Optimierung des KYC- Prozesses einer Großbank 
  • Entwicklung des Testprozesses für die Umsetzung der IT- Strategie im Financial Reporting 

Libraries/Frameworks:

  • Selenium
  • Beautiful Soup
  • Scrapy
  • Pandas - Numpy - Matplotlib
  • Requests SpeechRecognition

Tools/Platforms:

  • Jira/Confluence Wordpress
  • Elementor Git
  • Jenkins
  • Heroku

Software Testing Tools (Web + API + Mobile):

  • Selenium
  • Robot-Framework
  • Behavior Driven Development (Cucumber)
  • Postman
  • TestCafe
  • Appium HP ALM / UFT
  • X-Ray

Programmierprojekte:

  • Web Scraping (Selenium, Beautiful Soup, API Scraping, Scrapy)
  • Data Science ähnliche Projekte - Datensammlung - Datenbereinigung - Datenanalyse (Pandas, PostgreSQL)
  • Testautomation (Selenium)
  • Instagram Bot (Selenium)
  • Sprachassistent / Alexa Klon (Smalltalk, Kryptowährungen / Aktieninformationen, Übersetzer, Nachrichtenausgabe, Wetter-API, Wolfram Alpha API etc.)

5 Jahre Arbeits ? und Projekterfahrung in der IT:

Kunden im IT-Projektumfeld:

  • VTG AG (Digitalisierung der Transportwagen und Wagonvermietung) - Logistik
  • IVV (IT Dienstleister der VGH Versicherung) ? Insurance
  • Commerzbank ? Banking
  • Fiserv/ First Data ? Finanzdienstleister / Payments
  • Fiducia & GAD (IT Dienstleister für Volks- und Raiffeisenbanken) ? Banking
  • Deutsche Bank ? Banking
  • Finanz Informatik (IT Dienstleister der Sparkassen) - Banking

Software Tester:

  • Testen von IT- Strecken
  • Erstellung von Testfällen
  • Dokumentation von Bugs und Incidents
  • Reporting und Fehlerauswertung
  • Visualisierung der Testergebnisse
  • Selenium
  • Web Services/API
  • Keyword Driven Testing, Behavior Driven Testing
  • Cucumber
  • Gherkin Syntax
  • Robot Framework
  • Postman, Appium
  • HP Quality Center
  • MicroFocus

Business Analyse:

  • Business Analyse im agilen Projektumfeld & multinationalen Teams
  • BPMN
  • Anforderungsanalyse ? und Management
  • Geschäftsprozessoptimierung ? und Visualisierung
  • Reporting
  • Lastenheft
  • Pflichtenheft
  • Fachkonzept
  • Bindeglied zwischen dem Fachbereich und der IT
  • Requirements Engineering
  • Durchführung von Machbarkeitsstudien
  • Überführung von fachlichen Anforderungen nach Jira/Confluence
  • BPMN
  • Prozessmanagement
  • Datenmigration
  • Functional Requirements Document
  • Datenbankmanagement
  • SQ

Agile Entwicklung (allgemein):

  • Scrum
  • Less
  • Kanban
  • SAFe
  • Sprint Planning
  • Sprint Retrospektive
  • Sprint Review
  • PI Planning
  • Planning Poker
  • Epics
  • User Stories
  • (Sub-)Tasks
  • Product Backlog
  • Sprint Backlog
  • Burndown Chart
  • Velocity

Scrum Master:

  • Einführung von Scrum in (IT) - Unternehmen
  • Coachen des Development-Team hin zu Selbstorganisation und funktionsübergreifender Teamarbeit
  • Unterstützen des Development-Teams
  • Beseitigen von Hindernissen
  • Moderation von Team-Events
  • Vermitteln von Techniken für eine effektive Verwaltung des Product Backlogs
  • Schaffen eines Verständnisses für Produktplanung in einem empirischen Arbeitsumfeld
  • Vermitteln des richtigen Verständnisses von Agilität und ihrer Anwendung

Product Owner:

  • Entwicklung einer Product Vision und Roadmap
  • Verwalten des Produkt-Backlogs
  • Priorisieren der Anforderungen
  • Überwachung der Entwicklungsphasen
  • Kommunikation zwischen dem Fachbereich und der IT-Abteilung
  • regelmäßige Kommunikation mit den Stakeholdern
  • Vereinbarung des SprintZiels mit den Developern und die Klärung der Epics & User Storys

Projektschwerpunkte im IT-Kontext:

  • IT-Modernisierung
  • Tool-Evaluation
  • Digitalisierungsstrategie
  • Einführung von TestautomationsTools
  • RACI-Matrix
  • Re-Organisation der IT Struktur
  • Modernisierung von Partnersystemen (Insurance-Kontext)
  • Prozessoptimierung
  • Anbindung von Payment-Lösungen für Fach- und Onlinehändler
  • Überführung und Umsetzung von backregulatorischen Vorgaben in die IT
  • Festlegung der Prozessziele und KPIs


Profil:

  • Über 8 Jahre Erfahrung in IT-, Data- und AI-Kundenprojekten bei Großkonzernen
  • Nebenberufliche Promotion (2021?2024) zu Blockchain-Themen
  • seit 2025 zweite Promotion an der Charité Universitätsmedizin Berlin zu KI im Gesundheitswesen
  • Dozent auf Udemy für Python-Programmierung


Software Testing | Testmanagement:

Selenium, Appium, Testautomatisierung, Testautomation, manuelles Testen, ALM Octane, HP QC/ALM, Quality Center, Cypress, Tosca, Zypher, Aqua, Beautiful Soup, API, Swagger/ OpenAPI, ISTQB, X-Ray, JSON, XML, Robot Framework, Micro Focus, Opentext, Cucumber, BDD, Gherkin Syntax, Defect Management, Regressionstest, Postman, Keyword Driven Testing, Appium, Testkonzept, Aqua, Continuous Integration (CI), Continuous Delivery (CD), CI/CD, E2E Test, End-to- End Testing, Exploratory Testing, Unit Test, Komponententest, Regressionstest, Smoke Test, Akzeptanztest, Lasttest, Stresstest, Usability Test, Testmanagement, Testen neuer Features in allen Testumgebungen (bis Produktion), Bugfixing, Functional Testing, Erstellung und Pflege der Software Dokumentation, Erstellung von Testkonzepten, Testdatenmanagement, Anforderungsanalyse, Migration der vorhandenen Testfälle, Defect Analyse


Product Owner:

Product Backlog, User Stories, Sprint Planning, Planning Poker, Backlog Refinement, Release Planning, PI Planning, Entwicklung einer Product Vision und Roadmap, Verwalten des Produkt- Backlogs, Priorisieren der Anforderungen, Überwachung der Entwicklungsphasen, Kommunikation zwischen dem Fachbereich und der IT-Abteilung, PO, regelmäßige Kommunikation mit den Stakeholdern, Vereinbarung des Sprint- Ziels mit den Developern, Erstellung der Epics & User Storys, Jira, Confluence


Projektleitung | Projektmanagement:

Leitung mehrerer (agiler) Teams, Kontrolle von Teilprojekten, Soll/Ist-Analyse, Machbarkeitsstudien, Dokumentation der Meilensteine, Durchführung und Moderation von Workshops, Prince2, Jira, Confluence, Vorbereitung von Managementpräsentationen, Moderieren von Team Events, Pflege und Erweiterung von Fachkonzepten, PMO, Project Management Officer, Agiles Projektmanagement, Koordination der Teilprojekte, Schreiben von Dokumentationen, Überwachung und Berichterstattung (u.a. mit PowerBI), Projektplanung, Erstellung und kontinuierlicher Überwachung des Projektzeitplans (Gantt), Reporting, Erstellen von Releaseplanungen, Verfassen von Releasebeschreibungen, Entwicklung strategischer Ziele, Stakeholdermanagement


Cloud:

AWS(Amazon Web Services), Azure, Google Cloud, Oracle Cloud


Scrum | Scrum Master | Agile:

Scrum, Scrum Master, Kanban, Wasserfall, Jira, Confluence, Miro, Lucidchart, Mural, Sprint Review, Retrospektive, Sprint Planning, Agiles Manifest, Story Points, Less, Kanban, SAFe, Scaled Agile Framework, Sprint Planning,Sprint Retrospektive, Sprint Review, PI Planning, Planning Poker, Epics, User Stories, (Sub-)Tasks, Product Backlog, Sprint Backlog, Burndown Chart, Velocity, Einführung von Scrum in (IT) - Unternehmen, Coachen des Development-Team hin zu Selbstorganisation und funktionsübergreifender Teamarbeit, Unterstützen des Development-Teams, Beseitigen von Hindernissen/Impediements, Moderation von Team-Events, Vermitteln von Techniken für eine effektive Verwaltung des Product Backlogs, Schaffen eines Verständnisses für Produktplanung in einem empirischen Arbeitsumfeld, Vermitteln des richtigen Verständnisses von Agilität und ihrer Anwendung, SAFe, Agile Project Lead, Agile Proceesing


DevOps:

CI/CD Pipeline, Conitnuous Integration, Continuous Delivery, Docker, Container, Containisierung, Docker Compose, Docker Image, Dockerfile, Docker Hub, Orchestrierung von Containern, Jenkins, Bamboo, Git, Github, Gitlab CI/CD, Bamboo, Versionsverwaltung, Branching, Merging, Terraform, Infrastructure as Code


Data Science:

ETL, Extract Transform Load, ETL Jobs, SQL, PowerBI, Tableau, Spark, Python, Datenmigration, Talend, Data Processing, Data Warehouse, Data Lake, Relationale Datenbanken, Big Data, Apache Spark, Datenmodellierung, Datenmapping, UiPath, Robotic Process Automation (RPA), Amazon Redshift (AWS), AWS Glue, AWS Glue Studio, AWS Glue Data Brew, Azure Databricks, Mage, Apache Airflow, SAS/ SAS Studio


Python:

Django, Flask, FastAPI, requests, Selenium, BeautifulSoup, unittest, pytest, DevOps, API, Rest API, Restful API, Pycharm, VS Code, Cisual Studio Code, Atom, Jupyter Notebook, IntelliJ, Eclipse, Cloud, Google Collaboratory, Web Scraping, numpy, matplotlib, seaborn, statsmodels, pandas, spark, openpyxl, Poetry, Apache Spark


Monitoring | Dashboards | Visualisierungen:

Dashboard, Grafana, Prometheus, Matplotlib, Seaborn, Power BI, Tableau, IBM Cognos, ALM Octane, SAP BusinessObjects, SAS Business Analytics, SAP PowerDesigner, Miro, Mural


Sonstiges:

AML, Anti Money Laundering, Finanzkriminalität, Compliance, Modellierung von Transaktionsdaten


Branchenkenntnisse:

  • Banken (u.a. Wertpapierbank)
  • Versicherung
  • Mergers & Acquisitions (M&A)
  • Logistik
  • Payments/Zahlungsverkehr
  • öffentlicher Sektor (Behörde)
  • Gesundheitswesen (Healthcare)


AI/Artificial Intelligence:

Generative AI, Large Language Models (LLM), Prompt Engineering, RAG (Retrieval-Augmented Generation), AI Agents, Multimodal Models, Fine-Tuning, Transfer Learning, Foundational Models, Transformer Architecture, AI Governance, Model Hallucinations, Responsible AI, AI Ethics, AI Use Case Identification, Developing AI Strategy, Proof of Concept (PoC) for AI Solutions, Model Evaluation and Validation, Data Pipelines for AI, Business Process Optimization with AI, Neural Networks, Recurrent Neural Network (RNN), Convolutional Neural Network (CNN), NVIDIA Clara, PyTorch, Tensorflow, Hugging Face


AI Technologies and Concepts:

Vector Databases, Embeddings, Semantic Search, AI APIs (e.g., OpenAI, Azure AI, Deepseek, Gemini), Cloud AI Platforms (AWS SageMaker, Bedrock, Google Vertex AI, Azure Machine Learning, Oracle Cloud), LangChain, CrewAI, N8N, Langgraph, Langsmith, LlamaIndex, Automation (RPA) with AI


Business Analyse | Business Analyst:

Anforderungsanalyse, Requirements Engineering, Business Analyse im agilen Projektumfeld, Geschäftsprozessoptimierung, Reporting, Geschäftsprozessmodellierung, Anforderungsmanagement, Anforderungsanalyse, Prozessoptimierung, Datenmigration, Datenbankmanagement, SQL, User Stories, Miro-Board, Mural Fachkonzept, Change Management, Datenmapping, Atlassian, Jira, Confluence, V-Modell, Cloud Management, IT-Transformation, Conceptboard, Bitbucket, Talend Open Studio (Datenmigration), Machbarkeitsstudien, Requirement Documents, Kafka, Apache Kafka, ITIL, Innovator, Parquet, Elastic Search, Aufbau Sharepoint, Pseudonymisierung, BPMN, UML, Entity Relationship, CRM, Customer Relationship, Salesforce, Redshift, Collaboration Sharepoint, Scrum, Timelines in Gantts, Erstellung von Mock-Ups und Wireframes, PM, PMI, Slack, Teams, Microsoft Office, Excel, Word, Power Point, Moderation bankenweiter Schulungen, Sharepoint Erneuerung, Projektdokumentation, Bindeglied zwischen Fachbereich und Entwicklerteam, Schnittstelle zum Fachbereich, Business Engineering, JSON, XML, Begleitung von Arbeitsgruppen, SAP, Datenmapping, Datenmodellierung, UiPath, Robotic Process Automation (RPA), Stakeholdermanagement, Spezifikation der Anforderungen, Beschreibung API Schnittstellen, Einbindung diverser Anforderungen hinsichtlich eines POCs (Proof of Concept)

Programmiersprachen

Python
Java
SQL
Xpath
HTML
CSS

Datenbanken

PostgreSQL
pgAdmin
Oracle
Mongo DB
IBM DB2
MySQL
S3
MinIo (S3 Storage)
Azure Data Lake Storage Gen2
Redshift
Microsoft Access
DBeaver

Branchen

Branchen

  • Banken
  • Versicherung
  • Mergers & Acquisitions (M&A)
  • Logistik
  • Payments/Zahlungsverkehr
  • öffentlicher Sektor
  • Gesundheitswesen

Vertrauen Sie auf Randstad

Im Bereich Freelancing
Im Bereich Arbeitnehmerüberlassung / Personalvermittlung

Fragen?

Rufen Sie uns an +49 89 500316-300 oder schreiben Sie uns:

Das Freelancer-Portal

Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.