Projekt Manager, Data Engineer, Data Migration Engineer und Business Systems Analyst
Aktualisiert am 07.03.2026
Profil
Freiberufler / Selbstständiger
Remote-Arbeit
Verfügbar ab: 01.04.2026
Verfügbar zu: 100%
davon vor Ort: 100%
Data Engineer
Datenmigration
Datenanalyse
Data Modeling
Programmiersprachen
IBM InfoSphere DataStage
Informatica PowerCenter
MS SQL Server Integration Services
SQL
Python
Linux
Oracle
Data Vault
Scriptsprachen
Java
ETL
C/C++
DB/2
Deutsch
Muttersprache
Englisch
fließend
Französisch
Grundkenntnisse

Einsatzorte

Einsatzorte

Köln (+500km) München (+500km) Berlin (+500km) Hamburg (+500km) Remote (+50km)
Deutschland, Österreich, Schweiz
möglich

Projekte

Projekte

2025 - 2026: Entwicklung und Analyse

Rolle: Data Warehouse Berater
Kunde: Atruvia AG, Karlsruhe, Deutschland

Aufgaben:

  • Entwicklung und Erweiterung von ETL-Datenbeladungsjobs mit IBM DataStage und SQL Optimierung in einer IBM DB2 Umgebung im Rahmen der Agree21 Datenmigration
  • Analyse der Datenqualität und Entwicklung von Testprozeduren
  • Erstellung von Skripten in MS Powershell und Dokumentation vom GIT-Deploymentprozessen

Kenntnisse:
RedHat Linux, IBM DB2 mit DB Visualizer, IBM InfoSphere DataStage 11.7, JIRA, TortoiseGIT, TortoiseSVN, Powershell Skripts


2022 - 2025: Entwicklung und Analyse

Rolle: Data Warehouse Berater
Kunde: Mobiliar Versicherung, Bern (Schweiz)

Aufgaben:

  • Entwicklung und Datenmodellierung eines neuen Data Warehouse Kerns nach Absprache mit Fachabteilung
  • Adhoc Auswertungen und Risikoanalyse auf Basis DWH-Kern für Fachseite
  • Unterstützung beim Aufbau eines Business Layers basierend auf den DWH Kern
  • Definition und Review von Daten Mapppings
  • Entwicklung und Erweiterung von ETL-Datenbeladungsjobs mit IBM DataStage und PL/SQL in einer Oracle IBM DB2 (mit IDAA) und MS SQL Umgebung
  • Analyse der Datenqualität und Entwicklung von Testprozeduren
  • Prototyping von QuerySurge Routinen und Integration in IBM DataStage
  • Einführung einer neuen Datenkomprimierung Funktionalität ins Data Warehouse
  • Anbindung von Daten aus dem IBM CDC und dem Kafka/Avro, Schema Registry und Kafka Connect Framework mit IBM DataStage und der Java Integration Stage
  • Eingebunden in Bereiche: Vertrag, Partner, Objekt, Produkt, Lokation, Schaden
  • Aktualisierung SAP BO Reports, Universen und List-of-Values
  • Test und Aktualisierung von InfoBurst Konfigurationen
  • Reverse Engineering von historischen ETL Strecken und Fehlerbehebung
  • Überwachung der täglichen Datenverarbeitung und Behebung von Beladungsproblemen

Kenntnisse:
RedHat Linux, IBM DB2 und Oracle 19c (JSON SQL), AQT/TOAD/SQL-Developer, IBM InfoSphere DataStage 11.7, IBM CDC 11.4, Kafka/Avro Framework, Schema-Registry, QuerySurge, Enterprise Architect, JIRA, TortoiseGIT, SAP BO


2020 - 2023: Data Warehouse Beratung

Rolle: Data Warehouse Berater
Kunde: Deutsche Bundesbank, Frankfurt (Deutschland)

Aufgaben:
  • Datenmodellierung Core Datawarehouse (Data Vault 2.0) für internationale Bankdaten
  • Entwicklung von ETL-Datenbeladungsjobs mit IBM DataStage und Unix Bash Scripting
  • Prototyping DataStage mit Unix-Steuerung und Generischer ETL-Datenbeladung
  • Erstellung und Beladung von Fehlerprotokolltabellen und Views
  • Erstellung von Mapping Spezifikationen
  • Erstellung von XML-SQL Abfragen, Views und Extraktionen
  • Analyse der Datenqualität und Test der Konsistenz
  • Target2 Anbindung von Stammdaten CRDM und Transaktionsdaten RTGS/CLM

Kenntnisse:
IBM DB2, DB-Visualizer 10.0, IBM InfoSphere DataStage 11.7, SAP PowerDesigner, JIRA, TortoiseSVN

2021: Entwicklung und Analyse

Rolle: Data Warehouse Berater
Kunde: PostFinance Bank, Bern (Schweiz)

Aufgaben:
  • Analyse der Datenqualität und Test der Konsistenz
  • Erstellung und Laufzeitoptimierung von AdHoc SQL-Abfragen (mit Indexoptimierung)
  • Prototyping Partition und Tablespace Verteilung für große Tabellen
  • Entwicklung von ETL-Datenbeladungsjobs in Python in einer IntelliJ Umgebung
  • Optimierung Datenabfragegeschwindigkeit in der Oracle DB durch Indexe, Pragmas und Partitionierung

Kenntnisse:
Oracle 19c, TOAD / SQLDeveloper, IntelliJ mit Python, JIRA, TortoiseGIT


2016 - 2020: Data Warehouse Beratung

Rolle: Data Warehouse Berater
Kunde: Mobiliar Versicherung, Bern (Schweiz)

Aufgaben:
  • Entwicklung und Datenmodellierung eines neuen Data Warehouse Kerns nach Absprache mit Fachabteilung
  • Adhoc Auswertungen und Risikoanalyse auf Basis DWH-Kern für Fachseite
  • Unterstützung beim Aufbau eines Business Layers basierend auf den DWH Kern
  • Definition und Review von Daten Mapppings
  • Entwicklung und Erweiterung von ETL-Datenbeladungsjobs mit IBM DataStage und PL/SQL in einer Oracle IBM DB2 (mit IDAA) und MS SQL Umgebung
  • Analyse der Datenqualität und Entwicklung von Testprozeduren
  • Prototyping von QuerySurge Routinen und Integration in IBM DataStage
  • Einführung einer neuen Datenkomprimierung Funktionalität ins Data Warehouse
  • Anbindung von Daten aus dem IBM CDC und dem Kafka/Avro, Schema Registry und Kafka Connect Framework mit IBM DataStage und der Java Integration Stage
  • Eingebunden in Bereiche: Vertrag, Partner, Objekt, Produkt, Lokation, Schaden
  • Aktualisierung SAP BO Reports, Universen und List-of-Values
  • Test und Aktualisierung von InfoBurst Konfigurationen
  • Reverse Engineering von historischen ETL Strecken und Fehlerbehebung
  • Überwachung der täglichen Datenverarbeitung und Behebung von Beladungsproblemen

Kenntnisse:
Linux, IBM DB2 und Oracle 19c (JSON SQL), AQT/TOAD/SQL-Developer, IBM InfoSphere DataStage 11.7, IBM CDC 11.4, Kafka/Avro Framework, Schema-Registry, QuerySurge, Enterprise Architect, JIRA, TortoiseSVN/GIT, SAP BO

2014 - 2016: Migration vom MS Project Daten in eine Tableau Anwendung

Rolle: Manager und Solutions Architect
Kunde: Ernst & Young, Auckland (Neuseeland)

Aufgaben:
  • Einführung eines neuen Versicherungsdatenmodells basierend auf IBM IAA (Partner, Vertrag, Provision, Schaden, Produkt Geschäftssystem) mit entsprechender Data Warehouse Architektur
  • Anbindung von OpenData Quellen mit MS-SSIS ETL-Werkzeug (WebServices/REST) für Banken
  • Migration vom MS Project Daten in eine Tableau Anwendung
  • Whitepaper zu BigData Architekturen basierend auf Hadoop und zugehörigen Distributionen

Kenntnisse:
IBM IAA, MS-SQL Server (SSIS/SSRS), SAP PowerDesigner, BigData (Hadoop), Tableau

2014: Datenmigration von externen Quellsystemen in ein neues SAP FS-CD System

Rolle: Team Leitung und Data Migrations Experte
Kunde: SOKA-Bau Versorgungskasse, Wiesbaden

Aufgaben:
  • Team Leitung, Ansprechpartner bei der Auflösung von technisch/fachlichen Problemen
  • Datenqualitätsanalyse von Vertrags und Exkasso/Inkasso Daten in einer Staging DB und in der SAP GUI
  • Datenmigration von externen Quellsystemen in ein neues SAP FS-CD System
  • Ist-Analyse, Erstellung Datenmappings und Datenanalyse in Zusammenarbeit mit dem Fachbereich

Kenntnisse:
DB2 10.5, UNIX, SAP GUI, SQL Analytic Queries and VBS Scripts

2012 - 2013: Entwurf und Realisierung Datenextraktion nach Fachvorgaben für Provision-Schaden Auswertung

Rolle: Data Warehouse Berater
Kunde: Janitos, Heidelberg

Aufgaben:
  • Technische Leitung bei der Entwicklung eines Neutralen Versicherungs-Datenmodells in ETL mit Informatica, Befüllung Data Marts (Star-Schema und das neue Data Warehouse entspricht der Hub-Spoke-Architektur)
  • AD-Hoc Queries für das Management Information System in PL/SQL und Optimierung mit Explain + Parallelisierung
  • Entwurf und Realisierung Datenextraktion nach Fachvorgaben für Provision-Schaden Auswertung
  • Optimierung von Datenextraktions-SQL für große Datenmengen in Struktur und Laufzeit, Versionierung mit SVN

Kenntnisse:
Oracle 11g (PL/SQL), Oracle Data Modeler, SVN, SAP BO, DataStage 8.7, Talend

2012: Entwurf und Realisierung von ETL Jobs zur Datenextraktion

Rolle: IBM Websphere DataStage Spezialist
Kunde: SAP, Walldorf

Aufgaben:
  • Unterstützung bei Fehlerbehebung und Funktionserweiterung von ETL-Jobs eines CRM Systems
  • Funktionales Testen der SOAP Komponenten und Unterstützung bei Softwareerweiterung
  • Entwurf und Realisierung von ETL Jobs zur Datenextraktion
  • Erstellung von Entwicklungs- und Testdokumentation für DataStage
  • Optimierung von Datenextraktions-SQL für große Datenmengen im CRM System
  • Einbindung von DataStage Webservices in SAP NetWeaver

Kenntnisse:
Windows Server 2003/2008, SAPGUI, DataStage 7.52, DB2, SoapUI, SAP NetWeaver

2008 - 2012: Versionierung mit Jenkins und einem hauseigenen Werkzeug

Rolle: ETL-Experte Datenintegration
Kunde: Talanx-HDI-Gerling Versicherung, Köln

Aufgaben:
  • Erstellung von technischen Fachkonzepte und von Spezifikationen zur Migration vom Daten aus externen Quellen in ein dispositives Datenbanksystem mit Stammdatenhaltung (MDM)
  • Datenmodellierung, Datenbankdesign, inklusive Optimierung von SQLs und Erstellung von Vorgaben für den Datenbankadministrator (Dispositives DWH als Hub-Spoke-Architektur)
  • Versionierung mit Jenkins und einem hauseigenen Werkzeug
  • Entwurf und Realisierung von SQL-Skripten und ETL Jobs zur Datenanalyse und Datenextraktion. Migration von Daten aus Fremdsystemen und Integration ins Datenmodell durch SQL-Loader Skripte in UNIX.
  • Erweiterung von ETL Mappings, Dokumentation und Realisierung entsprechend Fachvorgaben
  • Durchführung von Unit Tests (TAT/UAT) und Testdokumentation
  • Design und Realisierung eines webbasierten Überwachungstools zur Fehleranalyse der täglichen Datenverarbeitung mit JAVA-Anwendung (JSP) und Webserverintegration. Java API für Datenzugriffe entworfen.
  • Entwurf, Realisierung und Erweiterung von Steuerskripten (ksh) für ETL und Datenextraktion und Einbindung in das JobScheduling
  • Wartung und Erweiterung eines Frontend-Werkzeuges für die Stammdaten-Darstellung im Webformat für die Fachseite

Kenntnisse:
AIX, DB2, Oracle 10, DataStage 7.52, SQL/XML, Tomcat, JAVA, Shell, Eclipse, Jenkins

2008: Realisierung, Dokumentation und Unit Tests von ETL Mappings

Rolle: Informatica-ETL DWH Berater
Kunde: EuroHypo, Frankfurt

Aufgaben:
  • Realisierung, Dokumentation und Unit Tests von ETL Mappings
  • Konfiguration und Durchführung von Unit Tests
  • Erweiterung von bestehenden ETL Mappings entsprechend den Businessanforderungen
  • Impact Analysis und Dokumentation von ETL Mapping Erweiterungen für SAP Systeme
  • Programmierung von PL/SQL Stored Procedures
  • GUI Programmierung von Diagnosewerkzeugen für DB Schnittstellen mit C# (Visual Studio .Net

Kenntnisse:
AIX 6.1, Oracle 10, Informatica 7.1.3, TOAD 9.5, PL/SQL, Stored Procedures

weitere Projekte auf Anfrage

Aus- und Weiterbildung

Aus- und Weiterbildung

03/1998
Studium - Informatik/ NF: Physik
Rheinische Friedrich-Wilhelms-Universität, Bonn
Abschluss: Diplom

1988
Allgemeine Hochschulreife (Abitur)
Kollegschule, Kerpen-Horrem

Berufsabschluss: "Staatlich geprüfter Technischer Assistent Elektrotechnik"

Zertifikate

  • Prince 2 Projektmanagement

Position

Position

  • Projekt Manager
  • Data Migration Engineer
  • Data Engineer
  • Business Systems Analyst
  • Beratung und Consulting
  • Software-Entwicklung / Programmierung

Kompetenzen

Kompetenzen

Top-Skills

Data Engineer Datenmigration Datenanalyse Data Modeling Programmiersprachen IBM InfoSphere DataStage Informatica PowerCenter MS SQL Server Integration Services SQL Python Linux Oracle Data Vault Scriptsprachen Java ETL C/C++ DB/2

Schwerpunkte

Big Data
Business Intelligence
Data Warehouse
Programmierung

IT Schwerpunkte
  • Data Warehouse Design und Architektur
  • Datenmigration und Datenintegration
  • Big Data Anwendungen
  • Metadaten Management
  • Programmierung
  • Qualitätssicherung von Daten und Prozesse
Fachliche Schwerpunkte
  • Kranken-/ Lebens-/ Auto-/ Sachversicherung
  • Stammdaten und CRM
  • Basel II / Target 2

Produkte / Standards / Erfahrungen / Methoden

Virtualisierung
VMWARE,VirtualPC

Methoden

  • Projektmanagement
  • Anforderungsmanagement
  • Datenmodellierung
  • Softwareengineering und SDLC
  • Systemanalyse und Systemintegration
  • Qualitätsmanagement, Release- und Change
  • Schulungen und Anwendercoaching


ETL Werkzeuge

  • IBM DataStage
  • Informatica Powercenter
  • Pentaho / Talend Data Integration
  • Mircrosoft SSIS


Big Data

  • Kafka Framework mit Connect
  • Avro Serialisierung
  • Schema Registry (JSON)


Reportingwerkzeuge

  • Tableau
  • SAP Business Objects (+DS)
  • Cognos


Datenmodellierung

  • Oracle SQL Developer Data Modeler
  • SAP/ Sybase Powerdesigner
  • CA Erwin Data Modeler


Programmierwerkzeuge

  • Eclipse Umgebung mit entsprechenden PlugIns
  • MS Visual Studio
  • Make / ANT / Maven


Datenbankwerkzeuge

  • AQT, TOAD 9.5
  • DB-Visualizer
  • Squirrel
  • SQL Developer
  • SQL Skripte
  • RapidSQL
  • phpMyAdmin
  • OO-Programmierung mit Embedded SQL User Defined Functions/ Stored Procedures (PL/SQL, Transact SQL)
  • QuerySurge


Software

  • Samba
  • Version Control (Subversion/ CVS/ PVCS/ GIT)
  • Tortoise
  • Apache/Tomcat Webserver
  • GNU Toolchain
  • Directory Server (LDAP)


Office Anwendungen
  • MS Word
  • MS Excel
  • MS Access
  • MS PowerPoint
  • MS Visio
  • MS Project

Protokolle
  • HTTP
  • TCP/IP
  • PPP 
  • Client/Server mit Socket Programmierung

Betriebssysteme

  • Virtualisierung (VMWARE, VirtualPC)
  • Windows
  • Linux/UNIX
  • OS/2
  • MVS/OS390

Programmiersprachen

  • C
  • C++
  • C# 
  • STL
  • MFC
  • Generic Programming/Templates
  • Java
  • JSP
  • Servlets
  • Applets
  • J2EE
  • Struts/Hibernate)
  • Swing/AWT
  • Python

Skriptsprachen
  • PHP
  • JavaScript 
  • VBScript
  • Shell (ksh, bash, csh, PowerShell)

Markupsprachen
  • XML/XSLT
  • HTML
  • VRML

Datenbanken

  • IBM/DB2 (SQL/XML+XPATH/XQUERY)
  • IBM CDC 11.4
  • Oracle (SQL, PL/SQL)
  • MySQL
  • Sybase
  • MS SQL Server
  • Teradata
  • FireBird

Datenkommunikation

Bus
Fibre-Channel und PCI-Bus
Ethernet
Internet, Intranet
ISO/OSI
LAN, LAN Manager
parallele Schnittstelle
RFC
Router
RS232
SMTP
TCP/IP
Winsock

Hardware

Amiga
Atari
Bus
KVB, MVV, MTA, ÖBB, ..
CD-Writer / Brenner
Datapumps
Digitale Signalprozessoren
ARM/XSCALE, Z80; AD Frio, Risc-V
Drucker
embedded Systeme
Emulatoren
Cross Compiler, PC Emulatoren, VM Ware / Virtual PC
Hardware entwickelt
Dynamische FPGA Rekonfiguration, Schnittstellenkarten und Speichererweiterungen
HP
IBM Großrechner
IBM RS6000
Messgeräte
Alles was man für Computerreparatur/-Wartung benötigt
Mikrocontroller
Modem
Motorola
NEC
PC
Kann ich zusammenbauen, reparieren und konfigurieren
PLD, FPGA
Arbeit an einer Promotion in neue Technologien, u.a. mit VHDL
Proprietäre HW
Scanner
Soundkarten
Steuer und Regelsysteme
z.B.: Neuronale Systeme
SUN
Texas Instruments
Vektor-/Parallelrechner
Zuse
Habe ich im Museum berührt

Branchen

Branchen

  • Versicherung
  • Bank
  • Logistik
  • Chemie
  • Regierung
  • Softwarehersteller

Einsatzorte

Einsatzorte

Köln (+500km) München (+500km) Berlin (+500km) Hamburg (+500km) Remote (+50km)
Deutschland, Österreich, Schweiz
möglich

Projekte

Projekte

2025 - 2026: Entwicklung und Analyse

Rolle: Data Warehouse Berater
Kunde: Atruvia AG, Karlsruhe, Deutschland

Aufgaben:

  • Entwicklung und Erweiterung von ETL-Datenbeladungsjobs mit IBM DataStage und SQL Optimierung in einer IBM DB2 Umgebung im Rahmen der Agree21 Datenmigration
  • Analyse der Datenqualität und Entwicklung von Testprozeduren
  • Erstellung von Skripten in MS Powershell und Dokumentation vom GIT-Deploymentprozessen

Kenntnisse:
RedHat Linux, IBM DB2 mit DB Visualizer, IBM InfoSphere DataStage 11.7, JIRA, TortoiseGIT, TortoiseSVN, Powershell Skripts


2022 - 2025: Entwicklung und Analyse

Rolle: Data Warehouse Berater
Kunde: Mobiliar Versicherung, Bern (Schweiz)

Aufgaben:

  • Entwicklung und Datenmodellierung eines neuen Data Warehouse Kerns nach Absprache mit Fachabteilung
  • Adhoc Auswertungen und Risikoanalyse auf Basis DWH-Kern für Fachseite
  • Unterstützung beim Aufbau eines Business Layers basierend auf den DWH Kern
  • Definition und Review von Daten Mapppings
  • Entwicklung und Erweiterung von ETL-Datenbeladungsjobs mit IBM DataStage und PL/SQL in einer Oracle IBM DB2 (mit IDAA) und MS SQL Umgebung
  • Analyse der Datenqualität und Entwicklung von Testprozeduren
  • Prototyping von QuerySurge Routinen und Integration in IBM DataStage
  • Einführung einer neuen Datenkomprimierung Funktionalität ins Data Warehouse
  • Anbindung von Daten aus dem IBM CDC und dem Kafka/Avro, Schema Registry und Kafka Connect Framework mit IBM DataStage und der Java Integration Stage
  • Eingebunden in Bereiche: Vertrag, Partner, Objekt, Produkt, Lokation, Schaden
  • Aktualisierung SAP BO Reports, Universen und List-of-Values
  • Test und Aktualisierung von InfoBurst Konfigurationen
  • Reverse Engineering von historischen ETL Strecken und Fehlerbehebung
  • Überwachung der täglichen Datenverarbeitung und Behebung von Beladungsproblemen

Kenntnisse:
RedHat Linux, IBM DB2 und Oracle 19c (JSON SQL), AQT/TOAD/SQL-Developer, IBM InfoSphere DataStage 11.7, IBM CDC 11.4, Kafka/Avro Framework, Schema-Registry, QuerySurge, Enterprise Architect, JIRA, TortoiseGIT, SAP BO


2020 - 2023: Data Warehouse Beratung

Rolle: Data Warehouse Berater
Kunde: Deutsche Bundesbank, Frankfurt (Deutschland)

Aufgaben:
  • Datenmodellierung Core Datawarehouse (Data Vault 2.0) für internationale Bankdaten
  • Entwicklung von ETL-Datenbeladungsjobs mit IBM DataStage und Unix Bash Scripting
  • Prototyping DataStage mit Unix-Steuerung und Generischer ETL-Datenbeladung
  • Erstellung und Beladung von Fehlerprotokolltabellen und Views
  • Erstellung von Mapping Spezifikationen
  • Erstellung von XML-SQL Abfragen, Views und Extraktionen
  • Analyse der Datenqualität und Test der Konsistenz
  • Target2 Anbindung von Stammdaten CRDM und Transaktionsdaten RTGS/CLM

Kenntnisse:
IBM DB2, DB-Visualizer 10.0, IBM InfoSphere DataStage 11.7, SAP PowerDesigner, JIRA, TortoiseSVN

2021: Entwicklung und Analyse

Rolle: Data Warehouse Berater
Kunde: PostFinance Bank, Bern (Schweiz)

Aufgaben:
  • Analyse der Datenqualität und Test der Konsistenz
  • Erstellung und Laufzeitoptimierung von AdHoc SQL-Abfragen (mit Indexoptimierung)
  • Prototyping Partition und Tablespace Verteilung für große Tabellen
  • Entwicklung von ETL-Datenbeladungsjobs in Python in einer IntelliJ Umgebung
  • Optimierung Datenabfragegeschwindigkeit in der Oracle DB durch Indexe, Pragmas und Partitionierung

Kenntnisse:
Oracle 19c, TOAD / SQLDeveloper, IntelliJ mit Python, JIRA, TortoiseGIT


2016 - 2020: Data Warehouse Beratung

Rolle: Data Warehouse Berater
Kunde: Mobiliar Versicherung, Bern (Schweiz)

Aufgaben:
  • Entwicklung und Datenmodellierung eines neuen Data Warehouse Kerns nach Absprache mit Fachabteilung
  • Adhoc Auswertungen und Risikoanalyse auf Basis DWH-Kern für Fachseite
  • Unterstützung beim Aufbau eines Business Layers basierend auf den DWH Kern
  • Definition und Review von Daten Mapppings
  • Entwicklung und Erweiterung von ETL-Datenbeladungsjobs mit IBM DataStage und PL/SQL in einer Oracle IBM DB2 (mit IDAA) und MS SQL Umgebung
  • Analyse der Datenqualität und Entwicklung von Testprozeduren
  • Prototyping von QuerySurge Routinen und Integration in IBM DataStage
  • Einführung einer neuen Datenkomprimierung Funktionalität ins Data Warehouse
  • Anbindung von Daten aus dem IBM CDC und dem Kafka/Avro, Schema Registry und Kafka Connect Framework mit IBM DataStage und der Java Integration Stage
  • Eingebunden in Bereiche: Vertrag, Partner, Objekt, Produkt, Lokation, Schaden
  • Aktualisierung SAP BO Reports, Universen und List-of-Values
  • Test und Aktualisierung von InfoBurst Konfigurationen
  • Reverse Engineering von historischen ETL Strecken und Fehlerbehebung
  • Überwachung der täglichen Datenverarbeitung und Behebung von Beladungsproblemen

Kenntnisse:
Linux, IBM DB2 und Oracle 19c (JSON SQL), AQT/TOAD/SQL-Developer, IBM InfoSphere DataStage 11.7, IBM CDC 11.4, Kafka/Avro Framework, Schema-Registry, QuerySurge, Enterprise Architect, JIRA, TortoiseSVN/GIT, SAP BO

2014 - 2016: Migration vom MS Project Daten in eine Tableau Anwendung

Rolle: Manager und Solutions Architect
Kunde: Ernst & Young, Auckland (Neuseeland)

Aufgaben:
  • Einführung eines neuen Versicherungsdatenmodells basierend auf IBM IAA (Partner, Vertrag, Provision, Schaden, Produkt Geschäftssystem) mit entsprechender Data Warehouse Architektur
  • Anbindung von OpenData Quellen mit MS-SSIS ETL-Werkzeug (WebServices/REST) für Banken
  • Migration vom MS Project Daten in eine Tableau Anwendung
  • Whitepaper zu BigData Architekturen basierend auf Hadoop und zugehörigen Distributionen

Kenntnisse:
IBM IAA, MS-SQL Server (SSIS/SSRS), SAP PowerDesigner, BigData (Hadoop), Tableau

2014: Datenmigration von externen Quellsystemen in ein neues SAP FS-CD System

Rolle: Team Leitung und Data Migrations Experte
Kunde: SOKA-Bau Versorgungskasse, Wiesbaden

Aufgaben:
  • Team Leitung, Ansprechpartner bei der Auflösung von technisch/fachlichen Problemen
  • Datenqualitätsanalyse von Vertrags und Exkasso/Inkasso Daten in einer Staging DB und in der SAP GUI
  • Datenmigration von externen Quellsystemen in ein neues SAP FS-CD System
  • Ist-Analyse, Erstellung Datenmappings und Datenanalyse in Zusammenarbeit mit dem Fachbereich

Kenntnisse:
DB2 10.5, UNIX, SAP GUI, SQL Analytic Queries and VBS Scripts

2012 - 2013: Entwurf und Realisierung Datenextraktion nach Fachvorgaben für Provision-Schaden Auswertung

Rolle: Data Warehouse Berater
Kunde: Janitos, Heidelberg

Aufgaben:
  • Technische Leitung bei der Entwicklung eines Neutralen Versicherungs-Datenmodells in ETL mit Informatica, Befüllung Data Marts (Star-Schema und das neue Data Warehouse entspricht der Hub-Spoke-Architektur)
  • AD-Hoc Queries für das Management Information System in PL/SQL und Optimierung mit Explain + Parallelisierung
  • Entwurf und Realisierung Datenextraktion nach Fachvorgaben für Provision-Schaden Auswertung
  • Optimierung von Datenextraktions-SQL für große Datenmengen in Struktur und Laufzeit, Versionierung mit SVN

Kenntnisse:
Oracle 11g (PL/SQL), Oracle Data Modeler, SVN, SAP BO, DataStage 8.7, Talend

2012: Entwurf und Realisierung von ETL Jobs zur Datenextraktion

Rolle: IBM Websphere DataStage Spezialist
Kunde: SAP, Walldorf

Aufgaben:
  • Unterstützung bei Fehlerbehebung und Funktionserweiterung von ETL-Jobs eines CRM Systems
  • Funktionales Testen der SOAP Komponenten und Unterstützung bei Softwareerweiterung
  • Entwurf und Realisierung von ETL Jobs zur Datenextraktion
  • Erstellung von Entwicklungs- und Testdokumentation für DataStage
  • Optimierung von Datenextraktions-SQL für große Datenmengen im CRM System
  • Einbindung von DataStage Webservices in SAP NetWeaver

Kenntnisse:
Windows Server 2003/2008, SAPGUI, DataStage 7.52, DB2, SoapUI, SAP NetWeaver

2008 - 2012: Versionierung mit Jenkins und einem hauseigenen Werkzeug

Rolle: ETL-Experte Datenintegration
Kunde: Talanx-HDI-Gerling Versicherung, Köln

Aufgaben:
  • Erstellung von technischen Fachkonzepte und von Spezifikationen zur Migration vom Daten aus externen Quellen in ein dispositives Datenbanksystem mit Stammdatenhaltung (MDM)
  • Datenmodellierung, Datenbankdesign, inklusive Optimierung von SQLs und Erstellung von Vorgaben für den Datenbankadministrator (Dispositives DWH als Hub-Spoke-Architektur)
  • Versionierung mit Jenkins und einem hauseigenen Werkzeug
  • Entwurf und Realisierung von SQL-Skripten und ETL Jobs zur Datenanalyse und Datenextraktion. Migration von Daten aus Fremdsystemen und Integration ins Datenmodell durch SQL-Loader Skripte in UNIX.
  • Erweiterung von ETL Mappings, Dokumentation und Realisierung entsprechend Fachvorgaben
  • Durchführung von Unit Tests (TAT/UAT) und Testdokumentation
  • Design und Realisierung eines webbasierten Überwachungstools zur Fehleranalyse der täglichen Datenverarbeitung mit JAVA-Anwendung (JSP) und Webserverintegration. Java API für Datenzugriffe entworfen.
  • Entwurf, Realisierung und Erweiterung von Steuerskripten (ksh) für ETL und Datenextraktion und Einbindung in das JobScheduling
  • Wartung und Erweiterung eines Frontend-Werkzeuges für die Stammdaten-Darstellung im Webformat für die Fachseite

Kenntnisse:
AIX, DB2, Oracle 10, DataStage 7.52, SQL/XML, Tomcat, JAVA, Shell, Eclipse, Jenkins

2008: Realisierung, Dokumentation und Unit Tests von ETL Mappings

Rolle: Informatica-ETL DWH Berater
Kunde: EuroHypo, Frankfurt

Aufgaben:
  • Realisierung, Dokumentation und Unit Tests von ETL Mappings
  • Konfiguration und Durchführung von Unit Tests
  • Erweiterung von bestehenden ETL Mappings entsprechend den Businessanforderungen
  • Impact Analysis und Dokumentation von ETL Mapping Erweiterungen für SAP Systeme
  • Programmierung von PL/SQL Stored Procedures
  • GUI Programmierung von Diagnosewerkzeugen für DB Schnittstellen mit C# (Visual Studio .Net

Kenntnisse:
AIX 6.1, Oracle 10, Informatica 7.1.3, TOAD 9.5, PL/SQL, Stored Procedures

weitere Projekte auf Anfrage

Aus- und Weiterbildung

Aus- und Weiterbildung

03/1998
Studium - Informatik/ NF: Physik
Rheinische Friedrich-Wilhelms-Universität, Bonn
Abschluss: Diplom

1988
Allgemeine Hochschulreife (Abitur)
Kollegschule, Kerpen-Horrem

Berufsabschluss: "Staatlich geprüfter Technischer Assistent Elektrotechnik"

Zertifikate

  • Prince 2 Projektmanagement

Position

Position

  • Projekt Manager
  • Data Migration Engineer
  • Data Engineer
  • Business Systems Analyst
  • Beratung und Consulting
  • Software-Entwicklung / Programmierung

Kompetenzen

Kompetenzen

Top-Skills

Data Engineer Datenmigration Datenanalyse Data Modeling Programmiersprachen IBM InfoSphere DataStage Informatica PowerCenter MS SQL Server Integration Services SQL Python Linux Oracle Data Vault Scriptsprachen Java ETL C/C++ DB/2

Schwerpunkte

Big Data
Business Intelligence
Data Warehouse
Programmierung

IT Schwerpunkte
  • Data Warehouse Design und Architektur
  • Datenmigration und Datenintegration
  • Big Data Anwendungen
  • Metadaten Management
  • Programmierung
  • Qualitätssicherung von Daten und Prozesse
Fachliche Schwerpunkte
  • Kranken-/ Lebens-/ Auto-/ Sachversicherung
  • Stammdaten und CRM
  • Basel II / Target 2

Produkte / Standards / Erfahrungen / Methoden

Virtualisierung
VMWARE,VirtualPC

Methoden

  • Projektmanagement
  • Anforderungsmanagement
  • Datenmodellierung
  • Softwareengineering und SDLC
  • Systemanalyse und Systemintegration
  • Qualitätsmanagement, Release- und Change
  • Schulungen und Anwendercoaching


ETL Werkzeuge

  • IBM DataStage
  • Informatica Powercenter
  • Pentaho / Talend Data Integration
  • Mircrosoft SSIS


Big Data

  • Kafka Framework mit Connect
  • Avro Serialisierung
  • Schema Registry (JSON)


Reportingwerkzeuge

  • Tableau
  • SAP Business Objects (+DS)
  • Cognos


Datenmodellierung

  • Oracle SQL Developer Data Modeler
  • SAP/ Sybase Powerdesigner
  • CA Erwin Data Modeler


Programmierwerkzeuge

  • Eclipse Umgebung mit entsprechenden PlugIns
  • MS Visual Studio
  • Make / ANT / Maven


Datenbankwerkzeuge

  • AQT, TOAD 9.5
  • DB-Visualizer
  • Squirrel
  • SQL Developer
  • SQL Skripte
  • RapidSQL
  • phpMyAdmin
  • OO-Programmierung mit Embedded SQL User Defined Functions/ Stored Procedures (PL/SQL, Transact SQL)
  • QuerySurge


Software

  • Samba
  • Version Control (Subversion/ CVS/ PVCS/ GIT)
  • Tortoise
  • Apache/Tomcat Webserver
  • GNU Toolchain
  • Directory Server (LDAP)


Office Anwendungen
  • MS Word
  • MS Excel
  • MS Access
  • MS PowerPoint
  • MS Visio
  • MS Project

Protokolle
  • HTTP
  • TCP/IP
  • PPP 
  • Client/Server mit Socket Programmierung

Betriebssysteme

  • Virtualisierung (VMWARE, VirtualPC)
  • Windows
  • Linux/UNIX
  • OS/2
  • MVS/OS390

Programmiersprachen

  • C
  • C++
  • C# 
  • STL
  • MFC
  • Generic Programming/Templates
  • Java
  • JSP
  • Servlets
  • Applets
  • J2EE
  • Struts/Hibernate)
  • Swing/AWT
  • Python

Skriptsprachen
  • PHP
  • JavaScript 
  • VBScript
  • Shell (ksh, bash, csh, PowerShell)

Markupsprachen
  • XML/XSLT
  • HTML
  • VRML

Datenbanken

  • IBM/DB2 (SQL/XML+XPATH/XQUERY)
  • IBM CDC 11.4
  • Oracle (SQL, PL/SQL)
  • MySQL
  • Sybase
  • MS SQL Server
  • Teradata
  • FireBird

Datenkommunikation

Bus
Fibre-Channel und PCI-Bus
Ethernet
Internet, Intranet
ISO/OSI
LAN, LAN Manager
parallele Schnittstelle
RFC
Router
RS232
SMTP
TCP/IP
Winsock

Hardware

Amiga
Atari
Bus
KVB, MVV, MTA, ÖBB, ..
CD-Writer / Brenner
Datapumps
Digitale Signalprozessoren
ARM/XSCALE, Z80; AD Frio, Risc-V
Drucker
embedded Systeme
Emulatoren
Cross Compiler, PC Emulatoren, VM Ware / Virtual PC
Hardware entwickelt
Dynamische FPGA Rekonfiguration, Schnittstellenkarten und Speichererweiterungen
HP
IBM Großrechner
IBM RS6000
Messgeräte
Alles was man für Computerreparatur/-Wartung benötigt
Mikrocontroller
Modem
Motorola
NEC
PC
Kann ich zusammenbauen, reparieren und konfigurieren
PLD, FPGA
Arbeit an einer Promotion in neue Technologien, u.a. mit VHDL
Proprietäre HW
Scanner
Soundkarten
Steuer und Regelsysteme
z.B.: Neuronale Systeme
SUN
Texas Instruments
Vektor-/Parallelrechner
Zuse
Habe ich im Museum berührt

Branchen

Branchen

  • Versicherung
  • Bank
  • Logistik
  • Chemie
  • Regierung
  • Softwarehersteller

Vertrauen Sie auf Randstad

Im Bereich Freelancing
Im Bereich Arbeitnehmerüberlassung / Personalvermittlung

Fragen?

Rufen Sie uns an +49 89 500316-300 oder schreiben Sie uns:

Das Freelancer-Portal

Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.