Projekt Management, Testing, BI/DWH, Informatica, Oracle ODI OBIEE, Banking, Cloud, AWS S3, AWS Glue Jobs, Lambda, Azure Databricks, Azure DataFactory
Aktualisiert am 08.09.2025
Profil
Freiberufler / Selbstständiger
Remote-Arbeit
Verfügbar ab: 08.09.2025
Verfügbar zu: 100%
davon vor Ort: 100%
agiles Testing
Datawarehousing
Business Intelligence and Reporting Tool
Oracle/SQL
Software Quality Assurance
Datawarehouse
Informatica PowerCenter
Data Lake
ISTQB Certified Manager
Microsoft Analysis Services
DWH
ODI
business intelligence and reporting
Französisch
Muttersprache
Deutsch
fließend
Englisch
fließend

Einsatzorte

Einsatzorte

möglich

Projekte

Projekte

6 Monate
2025-06 - heute

Digital Marketing

Data Cloud Engineer Google Cloud BigQuery Snowflake ...
Data Cloud Engineer

Als Data Cloud Engineer war ich maßgeblich am Design und der Entwicklung unterschiedlicher Datenpipelines in vielfältigen Anwendungsfällen beteiligt. Der Schwerpunkt des Projekts lag auf der Verarbeitung und Integration von Daten aus verschiedenen Kanälen ? einschließlich Echtzeitdaten über Apache Kafka Topics ? zur Unterstützung marketingrelevanter Use Cases wie Kundensegmentierung.

  • Konzeption, Design und Entwicklung von skalierbaren Data Pipelines im GCP-Umfeld mit Fokus auf Wiederverwendbarkeit, Logging und Fehlertoleranz
  • Durchführung komplexer Datenanalysen mit BigQuery, einschließlich dynamischer SQL-Generierung und Python-basierter Vorverarbeitung (Pandas, SQLAlchemy)
  • Entwicklung und Optimierung von Cloud Functions & Dataflow-Jobs in Python, inkl.:
    • Einsatz von Apache Beam SDK for Python (streaming & batch)
    • Nutzung von Type Hints, Custom Logging mit structlog, Retry-Logik
    • Erstellung von unit & integration tests mit pytest
  • Erstellung eines internen Python-Modul-Frameworks für wiederverwendbare Komponenten
  • Nutzung von asynchroner Programmierung (asyncio, aiohttp) zur Optimierung von HTTP-APIs in Pythongestützten Pipelines
  • Analyse und Behebung von Performance-Engpässen mit cProfile, memray, und memory_profiler bei großvolumigen Dataflow-Jobs (10M+ Records)
  • Entwicklung von Infrastructure-as-Code mit Terraform, inkl. automatisierter Erstellung von Service Accounts, Secrets, IAM-Rollen und Pub/Sub-Subscriptions
  • Aufbau von CI/CD-Pipelines für Python-Projekte mit Cloud Build & GitHub Actions (Linting, Tests, Artifactory-Deployments)
  • Orchestrierung von Workflows via Apache Airflow (Composer) mit dynamischer DAG-Generierung in Python und Nutzung von TaskRetries und SLA-Monitoring
  • Design und Umsetzung von Schnittstellen zwischen Snowflake und GCP, inkl. Python-Skripten zur Datenextraktion, Pseudonymisierung und API-Kommunikation


Persönliche Erfolge:

Handlung JSON-Dateien // Data pipelines Snowflake <-> GCP // Python/ PySpark / PyTest / Panda

Google Cloud BigQuery Snowflake Cloud Build Cloud Functions DataFlows/Apache Kafka Topics Memory Analyse mit Memray/Grafana Labs Terraform MS Office Produkte GitHub Jira/Confluence/SharePoint (Dokumentation)
2 Jahre 5 Monate
2022-08 - 2024-12

RandA Projekt

DWH Lead Architekt / DevOps Oracle DB PostgreSQL Azure DF ...
DWH Lead Architekt / DevOps

Als DWH Lead Architekt war ich hauptverantwortlich für die gesamte Datenarchitektur des Data Warehouses. Zu meinen Kernaufgaben zählten die operative Leitung sowie die strategische Gestaltung der Architektur. Ich traf entscheidende Design- und Architekturentscheidungen, um die Effizienz und Skalierbarkeit des DWH sicherzustellen. Darüber hinaus implementierte ich gezielte Maßnahmen zur Performanceoptimierung, um den reibungslosen Betrieb und die optimale Leistung des gesamten Systems zu gewährleisten.

  • Konzeption, Design und Umsetzung des Übergangs von Full-Load- zu Delta-Load-Prozessen, einschließlich Implementierung von Change Data Capture (CDC)-Strategien und Vergleichslogik auf Basis von Timestamps und Hashing in Python
  • Analyse von operativen Logs und Events über Kibana, unterstützt durch Python-basierte Log-Parsers zur Mustererkennung und Alert-Vorbereitung
  • Entwicklung und Pflege von ETL-Strecken über mehrere Schichten (Staging, Cleansing, Mart), unter Verwendung von Azure Data Factory, Databricks Notebooks (PySpark) und REST-APIs
  • Entwicklung von modularen PySpark-Jobs in Azure Databricks, mit Fokus auf:
    • Performanceoptimierung durch Caching, Partitioning, Broadcast Joins
    • Einsatz von Delta Lake für ACID-konforme Inkrementallogik
    • Automatisiertes Testing mit pytest und assert_df_equality()
  • Aufbau eines internen Python Utility Frameworks (Secret Management, ID-Konvertierung), inklusive Integration in Notebooks und Pipeline
  • Konfiguration und Automatisierung von Deployments mit Azure DevOps inkl.:
    • Build & Deploy von Python-Paketen (Whl/Zip) für Databricks
    • Unit Tests, Coverage-Checks, statische Codeanalyse (Pylint)
  • Umsetzung von System-Performance-Analysen:
    • Identifikation von Engpässen in Spark Jobs mittels Spark UI, Databricks Ganglia, und custom Python Logging
    • Tuning von Cluster-Parametern, Partition Sizes, Memory Allocation
  • Steuerung und Koordination eines DWH-Teams (3 Entwickler) in einem agilen Setup (Kanban/Scrum), inkl. Code Reviews, Sprintplanung und Dokumentationsrichtlinien
  • Infrastrukturaufbau und -automatisierung in Azure mit Terraform zur Bereitstellung und Verwaltung von Ressourcen wie Azure Data Factory, Databricks Workspaces, Key Vaults und Storage Accounts
  • Erstellung und Pflege von Azure Resource Manager (ARM) Templates und Bicep-Skripten zur deklarativen Definition von Cloud-Infrastrukturen gemäß Unternehmensrichtlinien
  • Implementierung von netzwerkspezifischen Konfigurationen (NSGs, Private Endpoints, VNet-Peerings) für abgesicherte Datenflüsse zwischen DWH-Komponenten
  • Aufbau und Pflege von Azure DevOps Pipelines (YAML-basiert) für Infrastrukturdeployments, Notebook- Bereitstellung, Environment-Provisioning und KeyVault-Integration
  • Zusammenarbeit mit dem Cloud-Security-Team zur Umsetzung von Role-Based Access Control (RBAC) und Identity & Access Management (IAM) Policies in Terraform
  • Erarbeitung von Deployment-Strategien für Multi-Environment-Setups (Dev/Stage/Prod) inkl. automatisierter Parametrisierung und State-Management in Remote Backends (Azure Blob Storage)


Persönliche Erfolge:

  • Handlung JSON/Parquet-Dateien
  • Datalake / Azure DevOps
  • Python/ PySpark
  • REST API

Oracle DB PostgreSQL Azure DF Azure DevOps Azure functions in PySpark Databricks Kibana DBeaver MS Office Produkte Putty/Sourcetree / GIT Jira Confluence Sharepoint (Dokumentation)
Remote
1 Jahr 10 Monate
2022-03 - 2023-12

Data Projekt

BI Developer Oracle Database (12c/19c) PL/SQL Performance Tuning ...
BI Developer

In meiner Rolle als BI Developer unterstützte ich die Implementierung und Optimierung von Datenpipelines mit Snowflake und Talend. Dies umfasste die Entwicklung effizienter ETL-Prozesse, die Integration verschiedener Datenquellen und die Sicherstellung einer zuverlässigen und performanten Datenverarbeitung. Zudem war ich für die kontinuierliche Optimierung der Datenflüsse verantwortlich, um eine nahtlose Datenübertragung zwischen den Systemen zu gewährleisten.

  • Entwicklung und Optimierung von Prozeduren, Packages und Abfragen in Oracle PL/SQL sowie Snowflake SQL
  • Performance-Analysen und Tuning von SQL-Statements in komplexen ETL-Pipelines
  • Fehleranalyse von Datenbankjobs, inkl. Troubleshooting von Transaktionslogs und Deadlocks
  • Erstellung von Ad-hoc-Abfragen für Fachbereiche und Projektleitung
  • Nutzung von Oracle Advanced Features (z. B. Scheduling, Queueing, Text Search) zur Automatisierung und Verarbeitung großer Datenmengen
  • Anforderungsanalyse im Hinblick auf Kompatibilität mit bestehenden DB-Systemen und Schnittstellen
  • Modellierung und Optimierung von Datenstrukturen für analytische Zwecke
  • Erstellung von Monitoring-Dashboards und Statistiken (Splunk, Oracle Views) zur Überwachung von Ladeprozessen und Datenqualität
  • Umsetzung von Datenanonymisierungs- und Sicherheitsstrategien (Masking, Hashing) in PL/SQL und Python


Persönliche Erfolge:

  • Erfolgreiche Optimierung kritischer PL/SQL-Abfragen ? deutliche Performance-Steigerung bei Datenbankjobs
  • Nachweisbare Erfahrung im öffentlichen / regulierten Umfeld durch DSGVO-konforme Datenverarbeitung
  • Kontinuierliche Automatisierung und Optimierung der Datenprozesse mit Oracle- und Snowflake-Technologien
Oracle Database (12c/19c) PL/SQL Performance Tuning Snowflake PostgreSQL dbt Python Troubleshooting/Fehleranalyse Ad-hoc-Abfragen Splunk (SIEM)
GROUPE ACCOR France
1 Jahr 6 Monate
2022-01 - 2023-06

Cloud Projekt

Consultant BI (Google Cloud) Oracle DB Exasol Python/Apache Spark/PySpark ...
Consultant BI (Google Cloud)

In meiner Rolle als Consultant BI für GCP war ich maßgeblich an der Umsetzung verschiedener Cloud-Anforderungen beteiligt. Dies umfasste unter anderem den Aufbau eines umfassenden Data Lakes für den Kunden im Versandbereich, um große Datenmengen effizient zu speichern, zu verarbeiten und für Analysen zugänglich zu machen.

  • Planung und Definition von Arbeitspaketen für die erfolgreiche Umsetzung der Projektziele
  • Entwicklung von BigQuery-Abfragen zur Bereitstellung von Rohdaten für das Reporting
  • Integration von BigQuery-Datenquellen in Power BI zur Erstellung dynamischer Dashboards
  • Durchführung eines Proof of Concept für eine Monitoring-Lösung auf Basis von Prometheus und Grafana
  • Arbeit im RUN- und CHANGE-Modus zur kontinuierlichen Verbesserung und Wartung der Systeme
  • Programmierung von Cloud Functions mit Python und PySpark zur Automatisierung von Prozessen
  • Planung und Durchführung von Deployments zur Gewährleistung eines reibungslosen Betriebs
  • Entwicklung und Implementierung eines Security-Access-Konzepts (Row-Level-Security, Authorized Views)
  • Umsetzung und Optimierung von Ladeprozessen auf Exasol


Persönliche Erfolge:

  • Einführung Projektstruktur
  • Cloud/Google (GCP)
  • Big Query / Reporting
  • Python/ Apache Spark / PySpark / PyTest / Panda

Oracle DB Exasol Python/Apache Spark/PySpark Google Cloud (Cloud Functions PubSub DataFlows BigQuery) Monitoring (Prometheus Grafana Stackdriver) Terraform Kubernetes MS Office Produkte PowerBI (Erstellung Basic Reports) GitHub Jira/Confluence/SharePoint (Dokumentation) GitLab
Remote
1 Jahr
2022-01 - 2022-12

Betrieb Support DWH

Betrieb Support Oracle DB Informatica Powercenter AWS ...
Betrieb Support

In diesem Projekt bestand meine Hauptaufgabe darin, den Kunden beim Betrieb und der Optimierung eines Data Warehouse- und Data Lake-Systems umfassend zu unterstützen.

  • Begleitung bei New Features
  • Tägliche Prüfung der Ladestrecken
  • Debugging
  • Error Fix


Persönliche Erfolge:

  • Handlung JSON-Dateien
  • Datalake
  • AWS

Oracle DB Informatica Powercenter AWS AWS Redshift Glue Jobs/Glue Studio Lambda functions MS Office Produkte Oracle Data Modeler Putty Sourcetree/GitLab Pipelines Jira/Confluence/Sharepoint (Dokumentation)
Remote
10 Monate
2021-08 - 2022-05

Cloud Strategy 2025

AWS Expert Oracle DB MSSQL DB2 (Quellen) ...
AWS Expert

Als AWS-Experte unterstützte ich meinen Kunden bei der Umsetzung seiner Cloud-Strategie 2025, die den vollständigen Umbau und die Migration der gesamten IT-Landschaft umfasste. Ziel war es, sämtliche Infrastrukturen, Anwendungen und IT-Lösungen vollständig in die Cloud zu migrieren, um eine zukunftssichere und skalierbare Umgebung zu schaffen.

  • Planung und Definition von Projektaufgaben und -phasen
  • Entwicklung, Implementierung und Testing von ETL-Ladestrecken mit AWS-Tools
  • Unterstützung bei der Festlegung von KPIs zur Bewertung der Datenqualität
  • Implementierung von Infrastructure-as-Code-Lösungen mit Pulumi und Terraform
  • Definition und Durchführung von Tests sowohl im Entwicklungs- als auch im Fachbereich
  • Enge Zusammenarbeit mit Fachabteilungen und der IT zur Sicherstellung von Projekterfolgen
  • Programmierung mit Python und PySpark zur Automatisierung und Optimierung von Prozessen
  • Nutzung und Verwaltung von AWS-Services für die Datenverarbeitung
  • Operative Aufgaben im Rahmen des DataStage-Betriebs
  • Konzeption und Optimierung der DWH-Architektur


Persönliche Erfolge:

  • Einführung Projektstruktur
  • Cloud/AWS // Reporting / Dashboard // Parquet/AVRO Format

Oracle DB MSSQL DB2 (Quellen) Python/PySpark Programmierung IBM Datastage Docker Datadog (Monitoring) Terraform/Pulumi MS Office Produkte DB-Visualizer Amazon AWS (S3 EC2 Lambda functions Redshift Glue Jobs) GitHub Pulumi Jira Confluence Sharepoint (Dokumentation)
Remote
1 Jahr 2 Monate
2020-11 - 2021-12

Support ODI//OBIEE 12c

Oracle Data Integrator Support Oracle DB Data Vault Modellierung Oracle Data Integrator 12c ...
Oracle Data Integrator Support

Der Schwerpunkt dieses Projekts lag auf der Datenaufbereitung (ETL) mit Oracle Data Integrator sowie der Erweiterung von Berichten unter Verwendung von OBIEE in der Version 12c.

  • Funktionales Testing
  • Management der Umgebungen
  • Unterstützung bei der Erweiterung einer bestehenden DWH-Lösung (ETL mit ODI)
  • Erweiterung des Datenmodells
  • Definition von Schnittstellen zu anderen Systemen und Analyse der Datenquellen
  • Datenanalyse großer Datenbestände
  • Betrieb und Anpassung von Fachbereichsberichten mit OBIEE 12c
  • Definition und Durchführung von Tests
  • Enge Zusammenarbeit mit Fachbereichen und der IT
  • Data-Warehouse-Architektur


Persönliche Erfolge:

  • Auffrischung ODI Know How
  • Cloud/AWS
  • ISO27001
  • Data Vault Modellierung
  • Reporting mit OBIEE 12c

Oracle DB Data Vault Modellierung Oracle Data Integrator 12c OBIEE 12c Oracle Analytics Server Oracle APEX Oracle BI-Suite EE MS Office Produkte Oracle Data Modeler Sourcetree/GIT/Putty Jira Confluence Sharepoint (Dokumentation)
Remote
1 Jahr 5 Monate
2020-02 - 2021-06

BI@AWS

Senior Data Engineer & Test Koordination Oracle DB DataLake/BigData/Spark Azure Databricks (Streaming/Delta Lake table) ...
Senior Data Engineer & Test Koordination

Im Rahmen der Innovationsbestrebungen und zur Erfüllung aktueller sowie zukünftiger Anforderungen plante mein Kunde den Aufbau einer neuen Business Intelligence- und Analytics-Plattform (BIA-Plattform). Das Projekt sollte nach dem ?Greenfield?-Ansatz unter Nutzung moderner Cloud-Technologien auf Basis von Amazon AWS umgesetzt werden.

  • Mitarbeit am Aufbau eines Cloud-basierten Enterprise Data Warehouses (EDW)
  • Definition und Entwicklung eines geeigneten Datenmodells
  • Festlegung der Schnittstellen zu anderen Systemen
  • Systematische Analyse umfangreicher Datenbestände
  • Proof of Concept (PoC) für Amazon Redshift und Snowflake
  • Unterstützung bei der Definition von KPIs zur Bewertung der Datenqualität
  • Betrieb und Anpassung von Fachbereichsberichten mit MicroStrategy
  • Definition und Durchführung von Tests sowie Übernahme von Testmanagement-Aufgaben
  • Enge Zusammenarbeit mit Fachbereichen und IT
  • Programmierung mit Python und PySpark
  • Arbeit mit Data Lake, Big Data, Spark und BiGENIUS
  • Nutzung von Amazon AWS (S3 Buckets, Redshift, Terraform)
  • Koordination eines Teams von 4 Mitgliedern
  • Gestaltung der Data-Warehouse-Architektur
  • Verarbeitung unstrukturierter Daten


Persönliche Erfolge:

  • Vertiefung im Bereich Cloud/AWS
  • Data Vault Modellierung
  • Python / PySpark / Pandas
  • Reporting / Databricks
Oracle DB DataLake/BigData/Spark Azure Databricks (Streaming/Delta Lake table) Data Vault Modellierung Informatica 10.1.1 (Designer/Workflow Manager/Workflow Monitor/Repository Manager) Informatica 10.4 (Designer/Workflow Manager/Workflow Monitor/Repository Manager) MS Office Produkte MicroStrategy Snowflake Amazon AWS (S3/EC2/Lambda function/Redshift/Glue Jobs) Putty Erstellung und kontinuierliche Pflege der technischen Dokumentation (GIT/Jira/Confluence) Sharepoint (Dokumentation)
DEVK GmbH
Köln
2 Jahre 9 Monate
2017-05 - 2020-01

AnaCredit & SPOT (Single Point of Truth)

Senior Consultant (Allrounder) Testumgebung Management Testdaten Management Release Management ...
Senior Consultant (Allrounder)

Als Test Lead und BI-Architekt im Business-Team bin ich verantwortlich für die BI-Architektur und das Testing. Das Projekt Anacredit zielt darauf ab, ein Datenverwaltungssystem zu entwickeln, das detaillierte und harmonisierte Informationen zu einzelnen Bankkrediten im Euroraum (allen Mitgliedstaaten) bereitstellt. Dieses System dient als Datenbasis für die Bereiche Risiko und Finanzen.

  • Durchführung von funktionalen Tests und Definition von Testfällen zur Validierung regulatorischer Anforderungen im Bankenumfeld (AnaCredit, Risikoreporting)
  • Verantwortlich für das Testumgebungsmanagement: Planung, Aufbau und Pflege mehrstufiger Testlandschaften (Systemtest, Integration, Abnahme)
  • Entwicklung und Umsetzung eines Testdatenmanagement-Konzepts inklusive Datenanonymisierung, Versionsverwaltung und automatisierter Bereitstellung
  • Unterstützung im Release-Management, inkl. Übergabeprozesse, Deployment-Koordination und Qualitätssicherung vor Produktivsetzung
  • Einsatz von HP Quality Center (QC) zur Dokumentation von Testfällen, Defects und Testberichten
  • Analyse und Konzeption eines integrierten Datenmodells zur Abdeckung von Risiko- und Finanzkennzahlen unter Berücksichtigung der AnaCredit-Vorgaben
  • Datenanalyse großer Datenmengen (Big Data) und strukturierte Auswertung über SAS 9.2 sowie eigenständige Skripterstellung zur automatisierten Datenaufbereitung
  • ETL-Entwicklung mit Oracle Data Integrator (ODI) und Integration in bestehende DWH-Architektur
  • Anpassung und Erweiterung von OBIEE 12c Dashboards und Reports (Oracle BI Suite EE, Oracle Analytics Server, Oracle APEX)
  • Modellierung nach Data Vault 2.0, insbesondere zur Integration neuer regulatorischer Meldepflichten
  • Definition und Messung von KPIs zur Bewertung der Datenqualität, in enger Abstimmung mit den Fachbereichen
  • Bewertung und Anbindung von Quellsystemen (u.a. Oracle DB, Drittbanksysteme) sowie Konzeption von Schnittstellen
  • Projektarbeit im Kontext von NIS2-konformer Infrastrukturplanung mit Fokus auf Datenverfügbarkeit und Zugriffssicherheit
  • Unterstützung bei der Cloud-Migration (AWS, DataLake) und Aufbau strukturierter Datenbereitstellungen für Analysezwecke
  • Koordination eines dreiköpfigen Teams im Rahmen von Facharchitektur, Testdesign und operativer Umsetzung


Persönliche Erfolge:

  • Internationales Projektumfeld
  • Team Management
  • Data Vault 2.0 / Oracle Data Integrator / OBIEE

Testumgebung Management Testdaten Management Release Management HP QC (Design & Reporting) Oracle DB ODI/OBIEE 12c Oracle Analytics Server Oracle APEX Oracle BI-Suite EE AWS (Lambda/Monitoring/Step functions etc.) DataLake/BigData Data Vault Modellierung SAS 9.2 NIS2 Standardisierung MS Office Produkte
SANTANDER BANK GmbH
10 Monate
2016-07 - 2017-04

Workbench Applications

Senior Consultant Projects ? BI/Testing SQL Developer SAS 9.2 Produkte von MS Office ...
Senior Consultant Projects ? BI/Testing

Merger-Projekt in der Telekommunikationsbranche, Übernahme von E+ (Pre- und Postpaid Kunden) ins O2 Netz. Im Rahmen der Übernahme von E+ durch O2 erfolgt die Migration der Kunden, Prozesse und Anwendungen (einschließlich der Auswirkungen auf das Data Warehouse) in die neue Ziellandschaft. Dies erfordert einen erheblichen Aufwand sowohl bei der Koordination und Abstimmung zwischen den verschiedenen Teams als auch bei der Entwicklung der unterschiedlichen Arbeitspakete.

  • Koordination Datenbankenentwicklung und Integrationstests
  • Migration und Anpassungen in OBIEE
  • Konzept für Übernahme der DWH/BI Anwendungen
  • Defekt Management
  • Support in der ETL-Entwicklung (PL/SQL, Oracle Dataintegrator)


Persönliche Erfolge:

  • Vertiefung der Kenntnisse im Oracle Umfeld

SQL Developer SAS 9.2 Produkte von MS Office Oracle Databases Oracle Data Integrator Oracle OBIEE PL SQL
O2 (Provider)
6 Monate
2016-01 - 2016-06

Data Cleansing & Reporting

Manager Projects ? BI/Testing SQL-Server Reporting Services Microsoft BI Software Solutions Report Builder ...
Manager Projects ? BI/Testing

Datenmigration in einer neuen IT-Systemlandschaft bei Kantar Wordpanel (Frankreich). Für die neue IT-Systemlandschaft, die auf Microsoft-Anwendungen und -Datenbanken basiert, wurden Daten aus der alten Umgebung in das neue System migriert. Zudem wurden Prozesse für statistische Berechnungen aktualisiert und neu entwickelt.

  • Koordination der Offshore Teams in Indien
  • Schnittstelle zwischen Kunde & interne Organisation
  • Prozessermittlung und Definition
  • Ermittlung von KPIs
  • Reporting-Anforderungen der Fachabteilungen mit MS Reporting Services umsetzen
  • Dokumentation und Training 


Persönliche Erfolge:

  • Internationales Projekt in einem multi-kulturellen Umfeld
  • MS SQL-Server / Power BI
SQL-Server Reporting Services Microsoft BI Software Solutions Report Builder Produkte von MS Office
Kantaworld Panel (Frankreich)
1 Jahr 3 Monate
2014-10 - 2015-12

Cluster BI

Manager Projects BI Testing / Testlead HP QC (Design & Reporting) Teradata Oracle DB
Manager Projects BI Testing / Testlead

Implementierung einer BI/DWH Lösung mit Testing von verschiedenen Applikationsdomänen (inkl. das DWH) Testmanagement und Entwicklungsaufgaben im Bereich Data Warehouse (DWH) und ETL mit Oracle- und PowerCenter Lösungen.

  • Teilprojektleitung im Bereich Testumgebungsmanagement: Aufbau, Pflege und Koordination mehrerer paralleler Testumgebungen f?ºr verschiedene Projektphasen
  • Entwicklung und Umsetzung eines Konzepts zur Bereitstellung konsistenter und realistischer Testdaten, inkl. Anonymisierung und automatisierter Datenbereitstellung
  • Enge Zusammenarbeit mit den Entwicklungsteams zur ETL-Validierung auf Basis von Informatica PowerCenter 9.6.1, insbesondere im Hinblick auf Datenkonsistenz, Ladeverhalten und Performance
  • Datenbankmigration von Teradata zu Oracle: Mitwirkung bei Test- und Validierungsmaßnahmen, Vergleich von Datenmodellen und Optimierung von SQL-Abfragen
  • Durchführung strukturierter Datenbanktests auf Teradata und Oracle DB, inkl. Analyse komplexer SQLLogiken und Validierung großer Datenmengen
  • Erstellung automatisierter Reports zur Testabdeckung und Ergebnisvisualisierung f?ºr Fachbereiche und Management
  • Anwendung agiler Methoden im Projektumfeld: Sprint-Reviews, Daily Stand-ups, Backlog-Refinement im Rahmen des agilen Test- und Projektmanagements


Persönliche Erfolge:

  • Koordinationstätigkeit
  • Präsentation und Reporting Skills
  • Prozesssteuerung
  • Hohe Verantwortung im gesamten Testprozess

HP QC (Design & Reporting) Teradata Oracle DB
Deutsche Telekom GmbH
6 Monate
2014-03 - 2014-08

Redesign des gesamten Geschäftskunden Kreditprozesses

Diverse Rollen HP QC (Design & Reporting) QTP 12 MySQL DB ...
Diverse Rollen

Der Geschäftskunden Kreditprozess geht von der Kontaktaufnahme durch den GK Kunden bis zur finalen Entscheidung über die Vergabe des Kredits und verlief bis jetzt teilweise abgebrochen. Ziel war, diesen Prozess zu automatisiert durch den Einsatz von der IBM Lösung BPM (Business Process Manager).  Es wurden umfassende Systeme und Schnittstellen der gesamten Bank durch den Redesign betroffen.

  • Teilprojektleitung Testumgebungsmanagement
  • Koordination zum Aufbau Gesamtintegrativen
  • Testumgebungen (Systemtest, End2End/Abnahme Tests, Schulung)
  • Konzept zur Bereitstellung konsistente Testdaten
  • Reporting
  • Agiles Testen
  • Agile Projektmanagement

Rollen:

  • Senior Consultant ? im Overall Test Management verantwortlich für Testumgebungsmanagement
  • Testdaten Management
  • Release Management
  • Defekt Management
  • Last und Performance Tests


Persönliche Erfolge:

  • Koordinationstätigkeit
  • Präsentation und Reporting Skills
  • Prozesssteuerung
  • Hoher Abstimmungsbedarf zwischen verschiedene Teams und Fachabteilungen

HP QC (Design & Reporting) QTP 12 MySQL DB Mainframe Einsatz von IBM BPM
Commerzbank Deutschland
1 Jahr 6 Monate
2013-03 - 2014-08

IT-Integration Projekt

Senior Consultant ? Test Management (functional Tests) HP QC (Design & Reporting) MySQL DB Mainframe
Senior Consultant ? Test Management (functional Tests)

Integration/Migration Projekt im Bereich Versicherung: Allianz Business System (ABS). Ziel des Projekts war es, das alte Verwaltungssystem durch ein neues System (ABS) zu ersetzen. Das neue System, das auf modernen Technologien basiert, sollte mit länderbezogenen Spezifikationen in Frankreich eingeführt werden. Im ersten Schritt lag der Fokus auf ?Claims? (Schäden). Eine besondere Herausforderung bestand in den kulturellen Unterschieden zwischen den Stakeholdern aus verschiedenen Ländern.

  • Functional Testing
  • Definition von Testobjekten
  • Teilprojektleitung Testumgebungsmanagement
  • Koordination zum Aufbau Gesamtintegrativen Testumgebungen (Systemtest, End2End/Abnahme Tests, Schulung)
  • Konzept zur Bereitstellung konsistente Testdaten
  • Reporting
  • Agiles Testen
  • Agile Projektmanagement
  • Design und Implementierung von Testszenarien
  • Gesamt Defekt Management


Persönliche Erfolge:

  • Team Leader Position
  • Koordination von Offshore Teams (Ägypten, Indien)
  • Unterstützung bei der Angebotserstellung / Sales Aktivitäten
  • Präsentation und Reporting Skills
  • Hohe Verantwortung im gesamten Testprozess
    HP QC (Design & Reporting) MySQL DB Mainframe
    Allianz Frankreich
    5 Monate
    2012-10 - 2013-02

    IT Integration Projekt

    Senior Consultant, Test Environment Manager MS Project
    Senior Consultant, Test Environment Manager

    Migration-Projekt in der Dienstleistungsbranche.

    Scope:

    Ziel war das alte IT Systemlandschaft der DHL durch eine komplett neue Landschaft basierend unter anderem auf SAP Systeme und Anwendungen mit neuen Technologien. Die Herausforderung bestand darin, eine vollständige Ziel Testsystemlandschaft aufzubauen in Abstimmung mit in der Welt verteilten Teams.

    Aufgabenstellung:

    • Entwicklung und Implementierung von Test Environment Konzepte

    Persönlich Erfolge:

    • Team Leader Position
    • Koordinationstätigkeit mit verteilten Teams in der Welt (USA, Indien, Asien, England)
    • Präsentation und Reporting Skills
    • Hohe Verantwortung im gesamten Test Prozess
    MS Project
    DHL Germany AG
    6 Monate
    2012-05 - 2012-10

    IT Merge Projekt

    Senior Consultant, Test Environment Manager Oracle 10g MySQL DB Mainframe
    Senior Consultant, Test Environment Manager

    Merge Projekt im Bank Geschäftsfeld.

    Scope:

    Im Züge der Übernahme der Postbank durch die Deutsche Bank musste unter anderem eine „Testbank“ aufgebaut werden. Es mussten Entscheidungen getroffen werden welche Systeme der Postbank übernommen werden oder nicht.

    Aufgabenstellung:

    • Entwicklung und Implementierung von Test Environment Konzepte
    • Entwicklung und Implementierung von Test Data Konzepte
    • Qualitätssicherung der Datenmigration
    • Bewertung der Datenqualität

    Persönliche Erfolge:

    • Team Leader Position
    • Koordinationstätigkeiten
    • Präsentation Skills
    • Hohe Verantwortung im gesamten Test Prozess
    Oracle 10g MySQL DB Mainframe
    Deutsche Bank AG
    2 Jahre
    2010-05 - 2012-04

    Rainbow IT Projekt

    Teilprojektleiter Testdaten-, Testumgebungsmanagement Oracle MySQL SAP ...
    Teilprojektleiter Testdaten-, Testumgebungsmanagement

    In der Telekommunikationsbranche Europaweit das größte Merge-Projekt.

    Scope:

    Nach der Fusion von insgesamt 5 Brands in der Telekommunikationsbranche musste die IT Systemlandschaft der zukünftigen Einheit konsolidiert werden. Anwendungen, Prozesse und Daten mussten angepasst werden.

    Aufgabenstellung:

    • Aufbau, Betrieb einer gesamt Integrativen Testumgebung
    • Konzeptionierung Testdaten Management
    • Entwurf und Implementierung einer Lösung zur Bereitstellung von Testdaten im gesamten Projektverlauf
    • Datenmigration
    • Walkthrough: Review Prozesse inkl. Definition von Datenkonserven

    Persönliche Erfolge:

    • IT Projektmanagement
    • Reporting
    • Koordination
    Oracle MySQL SAP Software Qualitätssicherung
    Mobilcom-Debitel GmbH

    Aus- und Weiterbildung

    Aus- und Weiterbildung

    8 Monate
    2009-09 - 2010-04

    Oracle Zertifizierungen

    Oracle Zertifizierungen, IBB Berlin, IFM (Institut für Management)
    Oracle Zertifizierungen
    IBB Berlin, IFM (Institut für Management)

    Position

    Position

    Senior Consultant 

    Kompetenzen

    Kompetenzen

    Top-Skills

    agiles Testing Datawarehousing Business Intelligence and Reporting Tool Oracle/SQL Software Quality Assurance Datawarehouse Informatica PowerCenter Data Lake ISTQB Certified Manager Microsoft Analysis Services DWH ODI business intelligence and reporting

    Aufgabenbereiche

    TestUmgebungen

    Produkte / Standards / Erfahrungen / Methoden

    10.4; Oracle DB
    Altlassian Jira
    AWS
    AWS S3
    BigData
    Cloud
    Data Vault Modellierung
    DataLake
    EC2
    Eclipse 3.2
    Exchange
    GIT
    Hadoop
    HP ALM
    HP QC (Design & Reporting)
    HP Quality Center
    Informatica 10.1
    Informatica Data Explorer
    Informatica Data Qualitiy
    Informatica PowerCenter
    Metadata Integrator
    MS Office Produkte
    MS Project 2007/2010
    MS SQL Server Tools 2017
    OBIEE
    Oracle Data Integrator
    Oracle Warehouse Builder 10g
    PLSQL Developer
    Putty
    Redshit
    SAS 9.2
    SAS ETL Studio
    Spark
    SQL Developer
    SQL Server 2005
    Subversion 1.6.x
    Talend
    TestLink
    TestManagement
    Toad v9.7.2.5

    Profil

    • Test Management
    • Testdaten Management
    • Testumgebungsmanagement
    • Software Qualitätssicherung
    • IT-Projektmanagement
    • Business Intelligence
    • Datawarehousing
    • ETL
    • Agiles Softwareentwicklung
    • Data Science
    • DataLake
    • BigData
    • Hadoop


    Fachkompetenzen:

    • Business Intelligence
    • Datawarehousing
    • Data Engineering
    • Cloud(AWS)
    • Azure DevOps
    • Google Cloud(GCP)
    • DataLake
    • BigData
    • ETL
    • IT-Projektmanagement
    • Agile Software Entwicklung
    • DWH Architektur und Konzepte
    • Software Qualitätssicherung
    • Test Management
    • Testdaten Management
    • Testumgebungsmanagement


    Software und Tools:

    • HP Quality Center / Testlink
    • SourceTree / GIT / Confluence / JIRA
    • Snowflake
    • IBM Datastage
    • SAS 9.2 // SAS ETL Studio
    • Microsoft - MS Project 2007/2010
    • Microsoft ? MS SQL
    • SQL Developer, Toad v9.7.2.5, DBeaver
    • DataLake, BigData, Hadoop
    • PLSQL Developer
    • Informatica PowerCenter 10.1 / 10.2 / 10.4
    • Infrastructure as Code: Pulumi / Terraform
    • Oracle Data Integrator 12c // Oracle Warehouse builder
    • Suse Linux
    • Oracle Analytics Server
    • Oracle APEX
    • Oracle BI-Suite EE
    • Micro Strategy
    • Metadata Integrator
    • Splunk Cloud
    • Kubernetes
    • MS Teams
    • DevOps / Docker / Jetkins
    • Amazon Cloud (AWS) ? Lambda, Glue Jobs, Step functions, Cloudwatch, Redshift
    • Google Cloud (GCP: Dataflows, Bigquery, Cloud functions, Airflow, etc...)
    • Azure DataFactory, Azure DevOps, Databricks


    Methoden:

    • Ralph Kimball Methodologie
    • Data Vault 2.0
    • Informatica Velocity Logic
    • ITIL
    • E/R Modellierung


    Berufserfahrung

    05/2017 - heute

    Rolle: (Selbstständig - Freiberufler) Project Management, BI / DWH / Cloud / Testing


    Aufgaben:

    • Teilprojektverantwortung / Koordination IT Projekte in Business Intelligence, DWH und Testing
    • Koordination Teams OnSite/Offshore (bis zu 9 Personen)
    • Software Qualitätssicherung
    • Data Engineering / DevOps
    • ETL Entwicklung (Informatica PowerCenter, ODI, DataStage)
    • Programmierung (Python, PySpark)
    • Data Lake
    • Amazon (AWS)
    • GCP


    Erworbene Fähigkeiten:

    • Projektverantwortung
    • Fachliche Teamverantwortung
    • Koordinationstätigkeiten
    • PySpark/Python Programmierung
    • Informatica 


    Fachliche Schwerpunkte:

    • Data Vault 2.0
    • Projektmanagement
    • Cloud Computing
    • Test Management
    • Testumgebung Management
    • Testdaten Management
    • Release Management
    • PL/SQL Entwicklung
    • ETL Entwicklung (OWB, ODI 12c, Informatica, DataStage, Ab Initio)
    • OBIEE 12c, Qlik View
    • Architektur
    • BI/DWH Consulting
    • SIEM Tools: Splunk
    • AWS(Lambda, Glue Jobs, Step functions, CloudWatch, VPC, etc...)
    • Google Cloud (GCP: Dataflows, Bigquery, Cloud functions, Airflow, etc...)
    • SAS Programmierung
    • Snowflake
    • Databricks
    • Kubernetes
    • Docker / Jetkins


    Persönliche Erfolge:

    • Cloud Computing (Amazon AWS/GCP / ETL /BI)
    • Infrastructure as Code: Terraform / Pulumi
    • Data Vault 2.0
    • BI/DWH Kenntnisse
    • BI Testing
    • Oracle DB / Oracle BI-Suite EE


    10/2014 - 01/2020

    Rolle: Manager Projects

    Kunde: Cognizant Technology Solutions 


    Aufgaben:

    • Manager IT Projects Business Intelligence
    • Teilprojektleitung im Bereich BI Testing
    • Koordination Teams OnSite/Offshore (bis zu 9 Mitglieder)
    • Software Qualitätssicherung


    Erworbene Fähigkeiten:

    • Projektverantwortung
    • Fachliche Teamverantwortung
    • Koordinationstätigkeiten


    Fachliche Schwerpunkte:

    • Projektmanagement
    • Cloud Computing
    • Test Management
    • Test Umgebung Management
    • Test Daten Management
    • Release Management
    • PL/SQL Entwicklung
    • ETL Entwicklung (OWB, ODI, Informatica)
    • Architektur
    • BI/DWH Consulting
    • BI Testing 


    Persönliche Erfolge:

    • Koordination Offshore Teams (Indien) / BI+DWH Kenntnisse / BI Testing


    05/2010 - 08/2014

    Rolle: Senior Consultant

    Kunde: SQS AG, Software Quality Systems


    Aufgaben:

    • Senior Consultant
    • Teilprojektleitung im Bereich Testing
    • Testdaten Management
    • Testumgebungsmanagement
    • Release Management
    • Defekt Management
    • Agiles Testen
    • Agile Projektmanagement
    • Sales Aktivitäten
    • Koordination Team OnSite/Offshore
    • Software Qualitätssicherung


    Erworbene Fähigkeiten:

    • Projektverantwortung in Integrationsprojekten
    • Teamführung (Max. 7 Personen)
    • Koordination


    Fachliche Schwerpunkte:

    • Projektmanagement
    • Test Umgebungsmanagement
    • Test Datamanagement
    • Release Management
    • Konfigurationsmanagement
    • Defekt Management


    Persönliche Erfolge:

    • Vertiefung in IT Projektmanagement
    • Koordination Offshore Teams
    • Vertiefung im IT Bereich: Software Qualitätssicherung
    • Projekt Lead
    • MS Project


    05/2008 - 08/2009

    Rolle: Consultant, BI/DWH

    Kunde: ALTRAN GmbH & Co KG ? Business Line ALTRAN CIS


    Aufgaben:

    • Mitwirkung in BI und DWH Projekten
    • verantwortlich für DWH/ETL


    Erworbene Fähigkeiten:

    • Teilprojektverantwortung in DWH/ETL
    • E/R Modellierung
    • DWH Architektur und Konzepte
    • OLAP, ROLAP, Drill-Down, Roll-up
    • Slice-and-Dice, Drill-through
    • Teamführung


    Fachliche Schwerpunkte:

    • OWB/Informatica Tools / SAS 9.2
    • Oracle 10g / SAP ERP


    Persönliche Erfolge:

    • Vertiefung in ETL und BI
    • Enterprise Data Warehousing
    • Data Migration und Konsolidation
    • Datenbankmodellierung


    09/2007 - 02/2008

    Rolle: IT Consultant

    Kunde: eC4u Expert Consulting AG, Karlsruhe


    Aufgaben:

    • Mitwirkung in verschiedenen IT-Projekten
    • Schwerpunkt im DWH/ETL


    Erworbene Fähigkeiten:

    • Teilprojektverantwortung in DWH/ETL


    Fachliche Schwerpunkte:

    • OWB/Informatica Tools
    • Programmierung PL/SQL
    • E/R Modellierung
    • DWH Architektur und Konzepte
    • OLAP, ROLAP, Drill-Down, Roll-up
    • Slice-and-Dice, Drill-through
    • DB Tuning


    Persönliche Erfolge:

    • Vertiefung in ETL und BI
    • Enterprise Data Warehousing
    • Coaching


    10/2005 - 08/2007

    Rolle: Technical Specialist

    Kunde: eBay.fr (Französische Business Unit)


    Aufgaben:

    • Mitwirkung in verschiedenen IT-Projekten


    Erworbene Fähigkeiten:

    • Datenbank Entwicklung/Design (Entwurf, Programmierung)
    • Datawarehousing/ETL (Oracle Warehouse Builder / Informatica PowerCenter)
    • Programmierung (Java, C#, PL/SQL)
    • E/R Modellierung
    • DWH Architektur und Konzepte
    • OLAP, ROLAP, Drill-Down, Roll-up
    • Slice-and-Dice, Drill-through
    • Erwerb von Kenntnisse in Customer Satisfaction & Insight Analyse (SPSS, SAS)
    • Integration von salesforce.com Werkzeuge (Basics)
    • Database Performance Tuning


    Fachliche Schwerpunkte:

    • Mitarbeit bei Projekten innerhalb CS Technology Team
    • Statistische Analyse (Korrelation-, Regression)
    • Overflow Aufbau
    • Datenbankaufbau
    • Umsetzung von Programmiervorgaben
    • Technical Support


    Persönliche Erfolge:

    • Erlernen von neuen Statistischen Werkzeuge
    • Erweitern Programmierkenntnisse
    • Erweitern Datenbank Know-How (Big Data)

    Betriebssysteme

    Linux
    Windows
    7, XP
    Windows Server
    2003

    Programmiersprachen

    Terraform

    Datenbanken

    MS SQL Server Tools 2017
    Oracle DB

    Branchen

    Branchen

    • eCommerce
    • Banken
    • Automobile
    • Consulting
    • Versicherung
    • Telekommunikation
    • Dienstleistungen

    Einsatzorte

    Einsatzorte

    möglich

    Projekte

    Projekte

    6 Monate
    2025-06 - heute

    Digital Marketing

    Data Cloud Engineer Google Cloud BigQuery Snowflake ...
    Data Cloud Engineer

    Als Data Cloud Engineer war ich maßgeblich am Design und der Entwicklung unterschiedlicher Datenpipelines in vielfältigen Anwendungsfällen beteiligt. Der Schwerpunkt des Projekts lag auf der Verarbeitung und Integration von Daten aus verschiedenen Kanälen ? einschließlich Echtzeitdaten über Apache Kafka Topics ? zur Unterstützung marketingrelevanter Use Cases wie Kundensegmentierung.

    • Konzeption, Design und Entwicklung von skalierbaren Data Pipelines im GCP-Umfeld mit Fokus auf Wiederverwendbarkeit, Logging und Fehlertoleranz
    • Durchführung komplexer Datenanalysen mit BigQuery, einschließlich dynamischer SQL-Generierung und Python-basierter Vorverarbeitung (Pandas, SQLAlchemy)
    • Entwicklung und Optimierung von Cloud Functions & Dataflow-Jobs in Python, inkl.:
      • Einsatz von Apache Beam SDK for Python (streaming & batch)
      • Nutzung von Type Hints, Custom Logging mit structlog, Retry-Logik
      • Erstellung von unit & integration tests mit pytest
    • Erstellung eines internen Python-Modul-Frameworks für wiederverwendbare Komponenten
    • Nutzung von asynchroner Programmierung (asyncio, aiohttp) zur Optimierung von HTTP-APIs in Pythongestützten Pipelines
    • Analyse und Behebung von Performance-Engpässen mit cProfile, memray, und memory_profiler bei großvolumigen Dataflow-Jobs (10M+ Records)
    • Entwicklung von Infrastructure-as-Code mit Terraform, inkl. automatisierter Erstellung von Service Accounts, Secrets, IAM-Rollen und Pub/Sub-Subscriptions
    • Aufbau von CI/CD-Pipelines für Python-Projekte mit Cloud Build & GitHub Actions (Linting, Tests, Artifactory-Deployments)
    • Orchestrierung von Workflows via Apache Airflow (Composer) mit dynamischer DAG-Generierung in Python und Nutzung von TaskRetries und SLA-Monitoring
    • Design und Umsetzung von Schnittstellen zwischen Snowflake und GCP, inkl. Python-Skripten zur Datenextraktion, Pseudonymisierung und API-Kommunikation


    Persönliche Erfolge:

    Handlung JSON-Dateien // Data pipelines Snowflake <-> GCP // Python/ PySpark / PyTest / Panda

    Google Cloud BigQuery Snowflake Cloud Build Cloud Functions DataFlows/Apache Kafka Topics Memory Analyse mit Memray/Grafana Labs Terraform MS Office Produkte GitHub Jira/Confluence/SharePoint (Dokumentation)
    2 Jahre 5 Monate
    2022-08 - 2024-12

    RandA Projekt

    DWH Lead Architekt / DevOps Oracle DB PostgreSQL Azure DF ...
    DWH Lead Architekt / DevOps

    Als DWH Lead Architekt war ich hauptverantwortlich für die gesamte Datenarchitektur des Data Warehouses. Zu meinen Kernaufgaben zählten die operative Leitung sowie die strategische Gestaltung der Architektur. Ich traf entscheidende Design- und Architekturentscheidungen, um die Effizienz und Skalierbarkeit des DWH sicherzustellen. Darüber hinaus implementierte ich gezielte Maßnahmen zur Performanceoptimierung, um den reibungslosen Betrieb und die optimale Leistung des gesamten Systems zu gewährleisten.

    • Konzeption, Design und Umsetzung des Übergangs von Full-Load- zu Delta-Load-Prozessen, einschließlich Implementierung von Change Data Capture (CDC)-Strategien und Vergleichslogik auf Basis von Timestamps und Hashing in Python
    • Analyse von operativen Logs und Events über Kibana, unterstützt durch Python-basierte Log-Parsers zur Mustererkennung und Alert-Vorbereitung
    • Entwicklung und Pflege von ETL-Strecken über mehrere Schichten (Staging, Cleansing, Mart), unter Verwendung von Azure Data Factory, Databricks Notebooks (PySpark) und REST-APIs
    • Entwicklung von modularen PySpark-Jobs in Azure Databricks, mit Fokus auf:
      • Performanceoptimierung durch Caching, Partitioning, Broadcast Joins
      • Einsatz von Delta Lake für ACID-konforme Inkrementallogik
      • Automatisiertes Testing mit pytest und assert_df_equality()
    • Aufbau eines internen Python Utility Frameworks (Secret Management, ID-Konvertierung), inklusive Integration in Notebooks und Pipeline
    • Konfiguration und Automatisierung von Deployments mit Azure DevOps inkl.:
      • Build & Deploy von Python-Paketen (Whl/Zip) für Databricks
      • Unit Tests, Coverage-Checks, statische Codeanalyse (Pylint)
    • Umsetzung von System-Performance-Analysen:
      • Identifikation von Engpässen in Spark Jobs mittels Spark UI, Databricks Ganglia, und custom Python Logging
      • Tuning von Cluster-Parametern, Partition Sizes, Memory Allocation
    • Steuerung und Koordination eines DWH-Teams (3 Entwickler) in einem agilen Setup (Kanban/Scrum), inkl. Code Reviews, Sprintplanung und Dokumentationsrichtlinien
    • Infrastrukturaufbau und -automatisierung in Azure mit Terraform zur Bereitstellung und Verwaltung von Ressourcen wie Azure Data Factory, Databricks Workspaces, Key Vaults und Storage Accounts
    • Erstellung und Pflege von Azure Resource Manager (ARM) Templates und Bicep-Skripten zur deklarativen Definition von Cloud-Infrastrukturen gemäß Unternehmensrichtlinien
    • Implementierung von netzwerkspezifischen Konfigurationen (NSGs, Private Endpoints, VNet-Peerings) für abgesicherte Datenflüsse zwischen DWH-Komponenten
    • Aufbau und Pflege von Azure DevOps Pipelines (YAML-basiert) für Infrastrukturdeployments, Notebook- Bereitstellung, Environment-Provisioning und KeyVault-Integration
    • Zusammenarbeit mit dem Cloud-Security-Team zur Umsetzung von Role-Based Access Control (RBAC) und Identity & Access Management (IAM) Policies in Terraform
    • Erarbeitung von Deployment-Strategien für Multi-Environment-Setups (Dev/Stage/Prod) inkl. automatisierter Parametrisierung und State-Management in Remote Backends (Azure Blob Storage)


    Persönliche Erfolge:

    • Handlung JSON/Parquet-Dateien
    • Datalake / Azure DevOps
    • Python/ PySpark
    • REST API

    Oracle DB PostgreSQL Azure DF Azure DevOps Azure functions in PySpark Databricks Kibana DBeaver MS Office Produkte Putty/Sourcetree / GIT Jira Confluence Sharepoint (Dokumentation)
    Remote
    1 Jahr 10 Monate
    2022-03 - 2023-12

    Data Projekt

    BI Developer Oracle Database (12c/19c) PL/SQL Performance Tuning ...
    BI Developer

    In meiner Rolle als BI Developer unterstützte ich die Implementierung und Optimierung von Datenpipelines mit Snowflake und Talend. Dies umfasste die Entwicklung effizienter ETL-Prozesse, die Integration verschiedener Datenquellen und die Sicherstellung einer zuverlässigen und performanten Datenverarbeitung. Zudem war ich für die kontinuierliche Optimierung der Datenflüsse verantwortlich, um eine nahtlose Datenübertragung zwischen den Systemen zu gewährleisten.

    • Entwicklung und Optimierung von Prozeduren, Packages und Abfragen in Oracle PL/SQL sowie Snowflake SQL
    • Performance-Analysen und Tuning von SQL-Statements in komplexen ETL-Pipelines
    • Fehleranalyse von Datenbankjobs, inkl. Troubleshooting von Transaktionslogs und Deadlocks
    • Erstellung von Ad-hoc-Abfragen für Fachbereiche und Projektleitung
    • Nutzung von Oracle Advanced Features (z. B. Scheduling, Queueing, Text Search) zur Automatisierung und Verarbeitung großer Datenmengen
    • Anforderungsanalyse im Hinblick auf Kompatibilität mit bestehenden DB-Systemen und Schnittstellen
    • Modellierung und Optimierung von Datenstrukturen für analytische Zwecke
    • Erstellung von Monitoring-Dashboards und Statistiken (Splunk, Oracle Views) zur Überwachung von Ladeprozessen und Datenqualität
    • Umsetzung von Datenanonymisierungs- und Sicherheitsstrategien (Masking, Hashing) in PL/SQL und Python


    Persönliche Erfolge:

    • Erfolgreiche Optimierung kritischer PL/SQL-Abfragen ? deutliche Performance-Steigerung bei Datenbankjobs
    • Nachweisbare Erfahrung im öffentlichen / regulierten Umfeld durch DSGVO-konforme Datenverarbeitung
    • Kontinuierliche Automatisierung und Optimierung der Datenprozesse mit Oracle- und Snowflake-Technologien
    Oracle Database (12c/19c) PL/SQL Performance Tuning Snowflake PostgreSQL dbt Python Troubleshooting/Fehleranalyse Ad-hoc-Abfragen Splunk (SIEM)
    GROUPE ACCOR France
    1 Jahr 6 Monate
    2022-01 - 2023-06

    Cloud Projekt

    Consultant BI (Google Cloud) Oracle DB Exasol Python/Apache Spark/PySpark ...
    Consultant BI (Google Cloud)

    In meiner Rolle als Consultant BI für GCP war ich maßgeblich an der Umsetzung verschiedener Cloud-Anforderungen beteiligt. Dies umfasste unter anderem den Aufbau eines umfassenden Data Lakes für den Kunden im Versandbereich, um große Datenmengen effizient zu speichern, zu verarbeiten und für Analysen zugänglich zu machen.

    • Planung und Definition von Arbeitspaketen für die erfolgreiche Umsetzung der Projektziele
    • Entwicklung von BigQuery-Abfragen zur Bereitstellung von Rohdaten für das Reporting
    • Integration von BigQuery-Datenquellen in Power BI zur Erstellung dynamischer Dashboards
    • Durchführung eines Proof of Concept für eine Monitoring-Lösung auf Basis von Prometheus und Grafana
    • Arbeit im RUN- und CHANGE-Modus zur kontinuierlichen Verbesserung und Wartung der Systeme
    • Programmierung von Cloud Functions mit Python und PySpark zur Automatisierung von Prozessen
    • Planung und Durchführung von Deployments zur Gewährleistung eines reibungslosen Betriebs
    • Entwicklung und Implementierung eines Security-Access-Konzepts (Row-Level-Security, Authorized Views)
    • Umsetzung und Optimierung von Ladeprozessen auf Exasol


    Persönliche Erfolge:

    • Einführung Projektstruktur
    • Cloud/Google (GCP)
    • Big Query / Reporting
    • Python/ Apache Spark / PySpark / PyTest / Panda

    Oracle DB Exasol Python/Apache Spark/PySpark Google Cloud (Cloud Functions PubSub DataFlows BigQuery) Monitoring (Prometheus Grafana Stackdriver) Terraform Kubernetes MS Office Produkte PowerBI (Erstellung Basic Reports) GitHub Jira/Confluence/SharePoint (Dokumentation) GitLab
    Remote
    1 Jahr
    2022-01 - 2022-12

    Betrieb Support DWH

    Betrieb Support Oracle DB Informatica Powercenter AWS ...
    Betrieb Support

    In diesem Projekt bestand meine Hauptaufgabe darin, den Kunden beim Betrieb und der Optimierung eines Data Warehouse- und Data Lake-Systems umfassend zu unterstützen.

    • Begleitung bei New Features
    • Tägliche Prüfung der Ladestrecken
    • Debugging
    • Error Fix


    Persönliche Erfolge:

    • Handlung JSON-Dateien
    • Datalake
    • AWS

    Oracle DB Informatica Powercenter AWS AWS Redshift Glue Jobs/Glue Studio Lambda functions MS Office Produkte Oracle Data Modeler Putty Sourcetree/GitLab Pipelines Jira/Confluence/Sharepoint (Dokumentation)
    Remote
    10 Monate
    2021-08 - 2022-05

    Cloud Strategy 2025

    AWS Expert Oracle DB MSSQL DB2 (Quellen) ...
    AWS Expert

    Als AWS-Experte unterstützte ich meinen Kunden bei der Umsetzung seiner Cloud-Strategie 2025, die den vollständigen Umbau und die Migration der gesamten IT-Landschaft umfasste. Ziel war es, sämtliche Infrastrukturen, Anwendungen und IT-Lösungen vollständig in die Cloud zu migrieren, um eine zukunftssichere und skalierbare Umgebung zu schaffen.

    • Planung und Definition von Projektaufgaben und -phasen
    • Entwicklung, Implementierung und Testing von ETL-Ladestrecken mit AWS-Tools
    • Unterstützung bei der Festlegung von KPIs zur Bewertung der Datenqualität
    • Implementierung von Infrastructure-as-Code-Lösungen mit Pulumi und Terraform
    • Definition und Durchführung von Tests sowohl im Entwicklungs- als auch im Fachbereich
    • Enge Zusammenarbeit mit Fachabteilungen und der IT zur Sicherstellung von Projekterfolgen
    • Programmierung mit Python und PySpark zur Automatisierung und Optimierung von Prozessen
    • Nutzung und Verwaltung von AWS-Services für die Datenverarbeitung
    • Operative Aufgaben im Rahmen des DataStage-Betriebs
    • Konzeption und Optimierung der DWH-Architektur


    Persönliche Erfolge:

    • Einführung Projektstruktur
    • Cloud/AWS // Reporting / Dashboard // Parquet/AVRO Format

    Oracle DB MSSQL DB2 (Quellen) Python/PySpark Programmierung IBM Datastage Docker Datadog (Monitoring) Terraform/Pulumi MS Office Produkte DB-Visualizer Amazon AWS (S3 EC2 Lambda functions Redshift Glue Jobs) GitHub Pulumi Jira Confluence Sharepoint (Dokumentation)
    Remote
    1 Jahr 2 Monate
    2020-11 - 2021-12

    Support ODI//OBIEE 12c

    Oracle Data Integrator Support Oracle DB Data Vault Modellierung Oracle Data Integrator 12c ...
    Oracle Data Integrator Support

    Der Schwerpunkt dieses Projekts lag auf der Datenaufbereitung (ETL) mit Oracle Data Integrator sowie der Erweiterung von Berichten unter Verwendung von OBIEE in der Version 12c.

    • Funktionales Testing
    • Management der Umgebungen
    • Unterstützung bei der Erweiterung einer bestehenden DWH-Lösung (ETL mit ODI)
    • Erweiterung des Datenmodells
    • Definition von Schnittstellen zu anderen Systemen und Analyse der Datenquellen
    • Datenanalyse großer Datenbestände
    • Betrieb und Anpassung von Fachbereichsberichten mit OBIEE 12c
    • Definition und Durchführung von Tests
    • Enge Zusammenarbeit mit Fachbereichen und der IT
    • Data-Warehouse-Architektur


    Persönliche Erfolge:

    • Auffrischung ODI Know How
    • Cloud/AWS
    • ISO27001
    • Data Vault Modellierung
    • Reporting mit OBIEE 12c

    Oracle DB Data Vault Modellierung Oracle Data Integrator 12c OBIEE 12c Oracle Analytics Server Oracle APEX Oracle BI-Suite EE MS Office Produkte Oracle Data Modeler Sourcetree/GIT/Putty Jira Confluence Sharepoint (Dokumentation)
    Remote
    1 Jahr 5 Monate
    2020-02 - 2021-06

    BI@AWS

    Senior Data Engineer & Test Koordination Oracle DB DataLake/BigData/Spark Azure Databricks (Streaming/Delta Lake table) ...
    Senior Data Engineer & Test Koordination

    Im Rahmen der Innovationsbestrebungen und zur Erfüllung aktueller sowie zukünftiger Anforderungen plante mein Kunde den Aufbau einer neuen Business Intelligence- und Analytics-Plattform (BIA-Plattform). Das Projekt sollte nach dem ?Greenfield?-Ansatz unter Nutzung moderner Cloud-Technologien auf Basis von Amazon AWS umgesetzt werden.

    • Mitarbeit am Aufbau eines Cloud-basierten Enterprise Data Warehouses (EDW)
    • Definition und Entwicklung eines geeigneten Datenmodells
    • Festlegung der Schnittstellen zu anderen Systemen
    • Systematische Analyse umfangreicher Datenbestände
    • Proof of Concept (PoC) für Amazon Redshift und Snowflake
    • Unterstützung bei der Definition von KPIs zur Bewertung der Datenqualität
    • Betrieb und Anpassung von Fachbereichsberichten mit MicroStrategy
    • Definition und Durchführung von Tests sowie Übernahme von Testmanagement-Aufgaben
    • Enge Zusammenarbeit mit Fachbereichen und IT
    • Programmierung mit Python und PySpark
    • Arbeit mit Data Lake, Big Data, Spark und BiGENIUS
    • Nutzung von Amazon AWS (S3 Buckets, Redshift, Terraform)
    • Koordination eines Teams von 4 Mitgliedern
    • Gestaltung der Data-Warehouse-Architektur
    • Verarbeitung unstrukturierter Daten


    Persönliche Erfolge:

    • Vertiefung im Bereich Cloud/AWS
    • Data Vault Modellierung
    • Python / PySpark / Pandas
    • Reporting / Databricks
    Oracle DB DataLake/BigData/Spark Azure Databricks (Streaming/Delta Lake table) Data Vault Modellierung Informatica 10.1.1 (Designer/Workflow Manager/Workflow Monitor/Repository Manager) Informatica 10.4 (Designer/Workflow Manager/Workflow Monitor/Repository Manager) MS Office Produkte MicroStrategy Snowflake Amazon AWS (S3/EC2/Lambda function/Redshift/Glue Jobs) Putty Erstellung und kontinuierliche Pflege der technischen Dokumentation (GIT/Jira/Confluence) Sharepoint (Dokumentation)
    DEVK GmbH
    Köln
    2 Jahre 9 Monate
    2017-05 - 2020-01

    AnaCredit & SPOT (Single Point of Truth)

    Senior Consultant (Allrounder) Testumgebung Management Testdaten Management Release Management ...
    Senior Consultant (Allrounder)

    Als Test Lead und BI-Architekt im Business-Team bin ich verantwortlich für die BI-Architektur und das Testing. Das Projekt Anacredit zielt darauf ab, ein Datenverwaltungssystem zu entwickeln, das detaillierte und harmonisierte Informationen zu einzelnen Bankkrediten im Euroraum (allen Mitgliedstaaten) bereitstellt. Dieses System dient als Datenbasis für die Bereiche Risiko und Finanzen.

    • Durchführung von funktionalen Tests und Definition von Testfällen zur Validierung regulatorischer Anforderungen im Bankenumfeld (AnaCredit, Risikoreporting)
    • Verantwortlich für das Testumgebungsmanagement: Planung, Aufbau und Pflege mehrstufiger Testlandschaften (Systemtest, Integration, Abnahme)
    • Entwicklung und Umsetzung eines Testdatenmanagement-Konzepts inklusive Datenanonymisierung, Versionsverwaltung und automatisierter Bereitstellung
    • Unterstützung im Release-Management, inkl. Übergabeprozesse, Deployment-Koordination und Qualitätssicherung vor Produktivsetzung
    • Einsatz von HP Quality Center (QC) zur Dokumentation von Testfällen, Defects und Testberichten
    • Analyse und Konzeption eines integrierten Datenmodells zur Abdeckung von Risiko- und Finanzkennzahlen unter Berücksichtigung der AnaCredit-Vorgaben
    • Datenanalyse großer Datenmengen (Big Data) und strukturierte Auswertung über SAS 9.2 sowie eigenständige Skripterstellung zur automatisierten Datenaufbereitung
    • ETL-Entwicklung mit Oracle Data Integrator (ODI) und Integration in bestehende DWH-Architektur
    • Anpassung und Erweiterung von OBIEE 12c Dashboards und Reports (Oracle BI Suite EE, Oracle Analytics Server, Oracle APEX)
    • Modellierung nach Data Vault 2.0, insbesondere zur Integration neuer regulatorischer Meldepflichten
    • Definition und Messung von KPIs zur Bewertung der Datenqualität, in enger Abstimmung mit den Fachbereichen
    • Bewertung und Anbindung von Quellsystemen (u.a. Oracle DB, Drittbanksysteme) sowie Konzeption von Schnittstellen
    • Projektarbeit im Kontext von NIS2-konformer Infrastrukturplanung mit Fokus auf Datenverfügbarkeit und Zugriffssicherheit
    • Unterstützung bei der Cloud-Migration (AWS, DataLake) und Aufbau strukturierter Datenbereitstellungen für Analysezwecke
    • Koordination eines dreiköpfigen Teams im Rahmen von Facharchitektur, Testdesign und operativer Umsetzung


    Persönliche Erfolge:

    • Internationales Projektumfeld
    • Team Management
    • Data Vault 2.0 / Oracle Data Integrator / OBIEE

    Testumgebung Management Testdaten Management Release Management HP QC (Design & Reporting) Oracle DB ODI/OBIEE 12c Oracle Analytics Server Oracle APEX Oracle BI-Suite EE AWS (Lambda/Monitoring/Step functions etc.) DataLake/BigData Data Vault Modellierung SAS 9.2 NIS2 Standardisierung MS Office Produkte
    SANTANDER BANK GmbH
    10 Monate
    2016-07 - 2017-04

    Workbench Applications

    Senior Consultant Projects ? BI/Testing SQL Developer SAS 9.2 Produkte von MS Office ...
    Senior Consultant Projects ? BI/Testing

    Merger-Projekt in der Telekommunikationsbranche, Übernahme von E+ (Pre- und Postpaid Kunden) ins O2 Netz. Im Rahmen der Übernahme von E+ durch O2 erfolgt die Migration der Kunden, Prozesse und Anwendungen (einschließlich der Auswirkungen auf das Data Warehouse) in die neue Ziellandschaft. Dies erfordert einen erheblichen Aufwand sowohl bei der Koordination und Abstimmung zwischen den verschiedenen Teams als auch bei der Entwicklung der unterschiedlichen Arbeitspakete.

    • Koordination Datenbankenentwicklung und Integrationstests
    • Migration und Anpassungen in OBIEE
    • Konzept für Übernahme der DWH/BI Anwendungen
    • Defekt Management
    • Support in der ETL-Entwicklung (PL/SQL, Oracle Dataintegrator)


    Persönliche Erfolge:

    • Vertiefung der Kenntnisse im Oracle Umfeld

    SQL Developer SAS 9.2 Produkte von MS Office Oracle Databases Oracle Data Integrator Oracle OBIEE PL SQL
    O2 (Provider)
    6 Monate
    2016-01 - 2016-06

    Data Cleansing & Reporting

    Manager Projects ? BI/Testing SQL-Server Reporting Services Microsoft BI Software Solutions Report Builder ...
    Manager Projects ? BI/Testing

    Datenmigration in einer neuen IT-Systemlandschaft bei Kantar Wordpanel (Frankreich). Für die neue IT-Systemlandschaft, die auf Microsoft-Anwendungen und -Datenbanken basiert, wurden Daten aus der alten Umgebung in das neue System migriert. Zudem wurden Prozesse für statistische Berechnungen aktualisiert und neu entwickelt.

    • Koordination der Offshore Teams in Indien
    • Schnittstelle zwischen Kunde & interne Organisation
    • Prozessermittlung und Definition
    • Ermittlung von KPIs
    • Reporting-Anforderungen der Fachabteilungen mit MS Reporting Services umsetzen
    • Dokumentation und Training 


    Persönliche Erfolge:

    • Internationales Projekt in einem multi-kulturellen Umfeld
    • MS SQL-Server / Power BI
    SQL-Server Reporting Services Microsoft BI Software Solutions Report Builder Produkte von MS Office
    Kantaworld Panel (Frankreich)
    1 Jahr 3 Monate
    2014-10 - 2015-12

    Cluster BI

    Manager Projects BI Testing / Testlead HP QC (Design & Reporting) Teradata Oracle DB
    Manager Projects BI Testing / Testlead

    Implementierung einer BI/DWH Lösung mit Testing von verschiedenen Applikationsdomänen (inkl. das DWH) Testmanagement und Entwicklungsaufgaben im Bereich Data Warehouse (DWH) und ETL mit Oracle- und PowerCenter Lösungen.

    • Teilprojektleitung im Bereich Testumgebungsmanagement: Aufbau, Pflege und Koordination mehrerer paralleler Testumgebungen f?ºr verschiedene Projektphasen
    • Entwicklung und Umsetzung eines Konzepts zur Bereitstellung konsistenter und realistischer Testdaten, inkl. Anonymisierung und automatisierter Datenbereitstellung
    • Enge Zusammenarbeit mit den Entwicklungsteams zur ETL-Validierung auf Basis von Informatica PowerCenter 9.6.1, insbesondere im Hinblick auf Datenkonsistenz, Ladeverhalten und Performance
    • Datenbankmigration von Teradata zu Oracle: Mitwirkung bei Test- und Validierungsmaßnahmen, Vergleich von Datenmodellen und Optimierung von SQL-Abfragen
    • Durchführung strukturierter Datenbanktests auf Teradata und Oracle DB, inkl. Analyse komplexer SQLLogiken und Validierung großer Datenmengen
    • Erstellung automatisierter Reports zur Testabdeckung und Ergebnisvisualisierung f?ºr Fachbereiche und Management
    • Anwendung agiler Methoden im Projektumfeld: Sprint-Reviews, Daily Stand-ups, Backlog-Refinement im Rahmen des agilen Test- und Projektmanagements


    Persönliche Erfolge:

    • Koordinationstätigkeit
    • Präsentation und Reporting Skills
    • Prozesssteuerung
    • Hohe Verantwortung im gesamten Testprozess

    HP QC (Design & Reporting) Teradata Oracle DB
    Deutsche Telekom GmbH
    6 Monate
    2014-03 - 2014-08

    Redesign des gesamten Geschäftskunden Kreditprozesses

    Diverse Rollen HP QC (Design & Reporting) QTP 12 MySQL DB ...
    Diverse Rollen

    Der Geschäftskunden Kreditprozess geht von der Kontaktaufnahme durch den GK Kunden bis zur finalen Entscheidung über die Vergabe des Kredits und verlief bis jetzt teilweise abgebrochen. Ziel war, diesen Prozess zu automatisiert durch den Einsatz von der IBM Lösung BPM (Business Process Manager).  Es wurden umfassende Systeme und Schnittstellen der gesamten Bank durch den Redesign betroffen.

    • Teilprojektleitung Testumgebungsmanagement
    • Koordination zum Aufbau Gesamtintegrativen
    • Testumgebungen (Systemtest, End2End/Abnahme Tests, Schulung)
    • Konzept zur Bereitstellung konsistente Testdaten
    • Reporting
    • Agiles Testen
    • Agile Projektmanagement

    Rollen:

    • Senior Consultant ? im Overall Test Management verantwortlich für Testumgebungsmanagement
    • Testdaten Management
    • Release Management
    • Defekt Management
    • Last und Performance Tests


    Persönliche Erfolge:

    • Koordinationstätigkeit
    • Präsentation und Reporting Skills
    • Prozesssteuerung
    • Hoher Abstimmungsbedarf zwischen verschiedene Teams und Fachabteilungen

    HP QC (Design & Reporting) QTP 12 MySQL DB Mainframe Einsatz von IBM BPM
    Commerzbank Deutschland
    1 Jahr 6 Monate
    2013-03 - 2014-08

    IT-Integration Projekt

    Senior Consultant ? Test Management (functional Tests) HP QC (Design & Reporting) MySQL DB Mainframe
    Senior Consultant ? Test Management (functional Tests)

    Integration/Migration Projekt im Bereich Versicherung: Allianz Business System (ABS). Ziel des Projekts war es, das alte Verwaltungssystem durch ein neues System (ABS) zu ersetzen. Das neue System, das auf modernen Technologien basiert, sollte mit länderbezogenen Spezifikationen in Frankreich eingeführt werden. Im ersten Schritt lag der Fokus auf ?Claims? (Schäden). Eine besondere Herausforderung bestand in den kulturellen Unterschieden zwischen den Stakeholdern aus verschiedenen Ländern.

    • Functional Testing
    • Definition von Testobjekten
    • Teilprojektleitung Testumgebungsmanagement
    • Koordination zum Aufbau Gesamtintegrativen Testumgebungen (Systemtest, End2End/Abnahme Tests, Schulung)
    • Konzept zur Bereitstellung konsistente Testdaten
    • Reporting
    • Agiles Testen
    • Agile Projektmanagement
    • Design und Implementierung von Testszenarien
    • Gesamt Defekt Management


    Persönliche Erfolge:

    • Team Leader Position
    • Koordination von Offshore Teams (Ägypten, Indien)
    • Unterstützung bei der Angebotserstellung / Sales Aktivitäten
    • Präsentation und Reporting Skills
    • Hohe Verantwortung im gesamten Testprozess
      HP QC (Design & Reporting) MySQL DB Mainframe
      Allianz Frankreich
      5 Monate
      2012-10 - 2013-02

      IT Integration Projekt

      Senior Consultant, Test Environment Manager MS Project
      Senior Consultant, Test Environment Manager

      Migration-Projekt in der Dienstleistungsbranche.

      Scope:

      Ziel war das alte IT Systemlandschaft der DHL durch eine komplett neue Landschaft basierend unter anderem auf SAP Systeme und Anwendungen mit neuen Technologien. Die Herausforderung bestand darin, eine vollständige Ziel Testsystemlandschaft aufzubauen in Abstimmung mit in der Welt verteilten Teams.

      Aufgabenstellung:

      • Entwicklung und Implementierung von Test Environment Konzepte

      Persönlich Erfolge:

      • Team Leader Position
      • Koordinationstätigkeit mit verteilten Teams in der Welt (USA, Indien, Asien, England)
      • Präsentation und Reporting Skills
      • Hohe Verantwortung im gesamten Test Prozess
      MS Project
      DHL Germany AG
      6 Monate
      2012-05 - 2012-10

      IT Merge Projekt

      Senior Consultant, Test Environment Manager Oracle 10g MySQL DB Mainframe
      Senior Consultant, Test Environment Manager

      Merge Projekt im Bank Geschäftsfeld.

      Scope:

      Im Züge der Übernahme der Postbank durch die Deutsche Bank musste unter anderem eine „Testbank“ aufgebaut werden. Es mussten Entscheidungen getroffen werden welche Systeme der Postbank übernommen werden oder nicht.

      Aufgabenstellung:

      • Entwicklung und Implementierung von Test Environment Konzepte
      • Entwicklung und Implementierung von Test Data Konzepte
      • Qualitätssicherung der Datenmigration
      • Bewertung der Datenqualität

      Persönliche Erfolge:

      • Team Leader Position
      • Koordinationstätigkeiten
      • Präsentation Skills
      • Hohe Verantwortung im gesamten Test Prozess
      Oracle 10g MySQL DB Mainframe
      Deutsche Bank AG
      2 Jahre
      2010-05 - 2012-04

      Rainbow IT Projekt

      Teilprojektleiter Testdaten-, Testumgebungsmanagement Oracle MySQL SAP ...
      Teilprojektleiter Testdaten-, Testumgebungsmanagement

      In der Telekommunikationsbranche Europaweit das größte Merge-Projekt.

      Scope:

      Nach der Fusion von insgesamt 5 Brands in der Telekommunikationsbranche musste die IT Systemlandschaft der zukünftigen Einheit konsolidiert werden. Anwendungen, Prozesse und Daten mussten angepasst werden.

      Aufgabenstellung:

      • Aufbau, Betrieb einer gesamt Integrativen Testumgebung
      • Konzeptionierung Testdaten Management
      • Entwurf und Implementierung einer Lösung zur Bereitstellung von Testdaten im gesamten Projektverlauf
      • Datenmigration
      • Walkthrough: Review Prozesse inkl. Definition von Datenkonserven

      Persönliche Erfolge:

      • IT Projektmanagement
      • Reporting
      • Koordination
      Oracle MySQL SAP Software Qualitätssicherung
      Mobilcom-Debitel GmbH

      Aus- und Weiterbildung

      Aus- und Weiterbildung

      8 Monate
      2009-09 - 2010-04

      Oracle Zertifizierungen

      Oracle Zertifizierungen, IBB Berlin, IFM (Institut für Management)
      Oracle Zertifizierungen
      IBB Berlin, IFM (Institut für Management)

      Position

      Position

      Senior Consultant 

      Kompetenzen

      Kompetenzen

      Top-Skills

      agiles Testing Datawarehousing Business Intelligence and Reporting Tool Oracle/SQL Software Quality Assurance Datawarehouse Informatica PowerCenter Data Lake ISTQB Certified Manager Microsoft Analysis Services DWH ODI business intelligence and reporting

      Aufgabenbereiche

      TestUmgebungen

      Produkte / Standards / Erfahrungen / Methoden

      10.4; Oracle DB
      Altlassian Jira
      AWS
      AWS S3
      BigData
      Cloud
      Data Vault Modellierung
      DataLake
      EC2
      Eclipse 3.2
      Exchange
      GIT
      Hadoop
      HP ALM
      HP QC (Design & Reporting)
      HP Quality Center
      Informatica 10.1
      Informatica Data Explorer
      Informatica Data Qualitiy
      Informatica PowerCenter
      Metadata Integrator
      MS Office Produkte
      MS Project 2007/2010
      MS SQL Server Tools 2017
      OBIEE
      Oracle Data Integrator
      Oracle Warehouse Builder 10g
      PLSQL Developer
      Putty
      Redshit
      SAS 9.2
      SAS ETL Studio
      Spark
      SQL Developer
      SQL Server 2005
      Subversion 1.6.x
      Talend
      TestLink
      TestManagement
      Toad v9.7.2.5

      Profil

      • Test Management
      • Testdaten Management
      • Testumgebungsmanagement
      • Software Qualitätssicherung
      • IT-Projektmanagement
      • Business Intelligence
      • Datawarehousing
      • ETL
      • Agiles Softwareentwicklung
      • Data Science
      • DataLake
      • BigData
      • Hadoop


      Fachkompetenzen:

      • Business Intelligence
      • Datawarehousing
      • Data Engineering
      • Cloud(AWS)
      • Azure DevOps
      • Google Cloud(GCP)
      • DataLake
      • BigData
      • ETL
      • IT-Projektmanagement
      • Agile Software Entwicklung
      • DWH Architektur und Konzepte
      • Software Qualitätssicherung
      • Test Management
      • Testdaten Management
      • Testumgebungsmanagement


      Software und Tools:

      • HP Quality Center / Testlink
      • SourceTree / GIT / Confluence / JIRA
      • Snowflake
      • IBM Datastage
      • SAS 9.2 // SAS ETL Studio
      • Microsoft - MS Project 2007/2010
      • Microsoft ? MS SQL
      • SQL Developer, Toad v9.7.2.5, DBeaver
      • DataLake, BigData, Hadoop
      • PLSQL Developer
      • Informatica PowerCenter 10.1 / 10.2 / 10.4
      • Infrastructure as Code: Pulumi / Terraform
      • Oracle Data Integrator 12c // Oracle Warehouse builder
      • Suse Linux
      • Oracle Analytics Server
      • Oracle APEX
      • Oracle BI-Suite EE
      • Micro Strategy
      • Metadata Integrator
      • Splunk Cloud
      • Kubernetes
      • MS Teams
      • DevOps / Docker / Jetkins
      • Amazon Cloud (AWS) ? Lambda, Glue Jobs, Step functions, Cloudwatch, Redshift
      • Google Cloud (GCP: Dataflows, Bigquery, Cloud functions, Airflow, etc...)
      • Azure DataFactory, Azure DevOps, Databricks


      Methoden:

      • Ralph Kimball Methodologie
      • Data Vault 2.0
      • Informatica Velocity Logic
      • ITIL
      • E/R Modellierung


      Berufserfahrung

      05/2017 - heute

      Rolle: (Selbstständig - Freiberufler) Project Management, BI / DWH / Cloud / Testing


      Aufgaben:

      • Teilprojektverantwortung / Koordination IT Projekte in Business Intelligence, DWH und Testing
      • Koordination Teams OnSite/Offshore (bis zu 9 Personen)
      • Software Qualitätssicherung
      • Data Engineering / DevOps
      • ETL Entwicklung (Informatica PowerCenter, ODI, DataStage)
      • Programmierung (Python, PySpark)
      • Data Lake
      • Amazon (AWS)
      • GCP


      Erworbene Fähigkeiten:

      • Projektverantwortung
      • Fachliche Teamverantwortung
      • Koordinationstätigkeiten
      • PySpark/Python Programmierung
      • Informatica 


      Fachliche Schwerpunkte:

      • Data Vault 2.0
      • Projektmanagement
      • Cloud Computing
      • Test Management
      • Testumgebung Management
      • Testdaten Management
      • Release Management
      • PL/SQL Entwicklung
      • ETL Entwicklung (OWB, ODI 12c, Informatica, DataStage, Ab Initio)
      • OBIEE 12c, Qlik View
      • Architektur
      • BI/DWH Consulting
      • SIEM Tools: Splunk
      • AWS(Lambda, Glue Jobs, Step functions, CloudWatch, VPC, etc...)
      • Google Cloud (GCP: Dataflows, Bigquery, Cloud functions, Airflow, etc...)
      • SAS Programmierung
      • Snowflake
      • Databricks
      • Kubernetes
      • Docker / Jetkins


      Persönliche Erfolge:

      • Cloud Computing (Amazon AWS/GCP / ETL /BI)
      • Infrastructure as Code: Terraform / Pulumi
      • Data Vault 2.0
      • BI/DWH Kenntnisse
      • BI Testing
      • Oracle DB / Oracle BI-Suite EE


      10/2014 - 01/2020

      Rolle: Manager Projects

      Kunde: Cognizant Technology Solutions 


      Aufgaben:

      • Manager IT Projects Business Intelligence
      • Teilprojektleitung im Bereich BI Testing
      • Koordination Teams OnSite/Offshore (bis zu 9 Mitglieder)
      • Software Qualitätssicherung


      Erworbene Fähigkeiten:

      • Projektverantwortung
      • Fachliche Teamverantwortung
      • Koordinationstätigkeiten


      Fachliche Schwerpunkte:

      • Projektmanagement
      • Cloud Computing
      • Test Management
      • Test Umgebung Management
      • Test Daten Management
      • Release Management
      • PL/SQL Entwicklung
      • ETL Entwicklung (OWB, ODI, Informatica)
      • Architektur
      • BI/DWH Consulting
      • BI Testing 


      Persönliche Erfolge:

      • Koordination Offshore Teams (Indien) / BI+DWH Kenntnisse / BI Testing


      05/2010 - 08/2014

      Rolle: Senior Consultant

      Kunde: SQS AG, Software Quality Systems


      Aufgaben:

      • Senior Consultant
      • Teilprojektleitung im Bereich Testing
      • Testdaten Management
      • Testumgebungsmanagement
      • Release Management
      • Defekt Management
      • Agiles Testen
      • Agile Projektmanagement
      • Sales Aktivitäten
      • Koordination Team OnSite/Offshore
      • Software Qualitätssicherung


      Erworbene Fähigkeiten:

      • Projektverantwortung in Integrationsprojekten
      • Teamführung (Max. 7 Personen)
      • Koordination


      Fachliche Schwerpunkte:

      • Projektmanagement
      • Test Umgebungsmanagement
      • Test Datamanagement
      • Release Management
      • Konfigurationsmanagement
      • Defekt Management


      Persönliche Erfolge:

      • Vertiefung in IT Projektmanagement
      • Koordination Offshore Teams
      • Vertiefung im IT Bereich: Software Qualitätssicherung
      • Projekt Lead
      • MS Project


      05/2008 - 08/2009

      Rolle: Consultant, BI/DWH

      Kunde: ALTRAN GmbH & Co KG ? Business Line ALTRAN CIS


      Aufgaben:

      • Mitwirkung in BI und DWH Projekten
      • verantwortlich für DWH/ETL


      Erworbene Fähigkeiten:

      • Teilprojektverantwortung in DWH/ETL
      • E/R Modellierung
      • DWH Architektur und Konzepte
      • OLAP, ROLAP, Drill-Down, Roll-up
      • Slice-and-Dice, Drill-through
      • Teamführung


      Fachliche Schwerpunkte:

      • OWB/Informatica Tools / SAS 9.2
      • Oracle 10g / SAP ERP


      Persönliche Erfolge:

      • Vertiefung in ETL und BI
      • Enterprise Data Warehousing
      • Data Migration und Konsolidation
      • Datenbankmodellierung


      09/2007 - 02/2008

      Rolle: IT Consultant

      Kunde: eC4u Expert Consulting AG, Karlsruhe


      Aufgaben:

      • Mitwirkung in verschiedenen IT-Projekten
      • Schwerpunkt im DWH/ETL


      Erworbene Fähigkeiten:

      • Teilprojektverantwortung in DWH/ETL


      Fachliche Schwerpunkte:

      • OWB/Informatica Tools
      • Programmierung PL/SQL
      • E/R Modellierung
      • DWH Architektur und Konzepte
      • OLAP, ROLAP, Drill-Down, Roll-up
      • Slice-and-Dice, Drill-through
      • DB Tuning


      Persönliche Erfolge:

      • Vertiefung in ETL und BI
      • Enterprise Data Warehousing
      • Coaching


      10/2005 - 08/2007

      Rolle: Technical Specialist

      Kunde: eBay.fr (Französische Business Unit)


      Aufgaben:

      • Mitwirkung in verschiedenen IT-Projekten


      Erworbene Fähigkeiten:

      • Datenbank Entwicklung/Design (Entwurf, Programmierung)
      • Datawarehousing/ETL (Oracle Warehouse Builder / Informatica PowerCenter)
      • Programmierung (Java, C#, PL/SQL)
      • E/R Modellierung
      • DWH Architektur und Konzepte
      • OLAP, ROLAP, Drill-Down, Roll-up
      • Slice-and-Dice, Drill-through
      • Erwerb von Kenntnisse in Customer Satisfaction & Insight Analyse (SPSS, SAS)
      • Integration von salesforce.com Werkzeuge (Basics)
      • Database Performance Tuning


      Fachliche Schwerpunkte:

      • Mitarbeit bei Projekten innerhalb CS Technology Team
      • Statistische Analyse (Korrelation-, Regression)
      • Overflow Aufbau
      • Datenbankaufbau
      • Umsetzung von Programmiervorgaben
      • Technical Support


      Persönliche Erfolge:

      • Erlernen von neuen Statistischen Werkzeuge
      • Erweitern Programmierkenntnisse
      • Erweitern Datenbank Know-How (Big Data)

      Betriebssysteme

      Linux
      Windows
      7, XP
      Windows Server
      2003

      Programmiersprachen

      Terraform

      Datenbanken

      MS SQL Server Tools 2017
      Oracle DB

      Branchen

      Branchen

      • eCommerce
      • Banken
      • Automobile
      • Consulting
      • Versicherung
      • Telekommunikation
      • Dienstleistungen

      Vertrauen Sie auf Randstad

      Im Bereich Freelancing
      Im Bereich Arbeitnehmerüberlassung / Personalvermittlung

      Fragen?

      Rufen Sie uns an +49 89 500316-300 oder schreiben Sie uns:

      Das Freelancer-Portal

      Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.