Projekt Management und Business Systems Analyst
Aktualisiert am 06.01.2025
Profil
Freiberufler / Selbstständiger
Remote-Arbeit
Verfügbar ab: 01.07.2025
Verfügbar zu: 100%
davon vor Ort: 0%
Data Modeling
ETL
Datenanalyse
Programmiersprachen
IBM InfoSphere DataStage
Informatica PowerCenter
MS SQL Server Integration Services
SQL
Python
Linux
Oracle
Data Vault
Scriptsprachen
Java
C/C++
DB/2
Deutsch
Muttersprache
Englisch
Fließend
Französisch
Grundkenntnisse

Einsatzorte

Einsatzorte

Deutschland, Österreich, Schweiz
möglich

Projekte

Projekte

2022 - heute: Entwicklung und Analyse


Einsatzort: Bern, Schweiz

Rolle: Data Warehouse Berater

Kunde: Mobiliar Versicherung


Aufgaben:

  • Entwicklung und Datenmodellierung eines neuen Data Warehouse Kerns nach Absprache mit Fachabteilung
  • Adhoc Auswertungen und Risikoanalyse auf Basis DWH-Kern für Fachseite
  • Unterstützung beim Aufbau eines Business Layers basierend auf den DWH Kern
  • Definition und Review von Daten Mapppings
  • Entwicklung und Erweiterung von ETL-Datenbeladungsjobs mit IBM DataStage und PL/SQL in einer Oracle IBM DB2 (mit IDAA) und MS SQL Umgebung
  • Analyse der Datenqualität und Entwicklung von Testprozeduren
  • Prototyping von QuerySurge Routinen und Integration in IBM DataStage
  • Einführung einer neuen Datenkomprimierung Funktionalität ins Data Warehouse
  • Anbindung von Daten aus dem IBM CDC und dem Kafka/Avro, Schema Registry und Kafka Connect Framework mit IBM DataStage und der Java Integration Stage
  • Eingebunden in Bereiche: Vertrag, Partner, Objekt, Produkt, Lokation, Schaden
  • Aktualisierung SAP BO Reports, Universen und List-of-Values
  • Test und Aktualisierung von InfoBurst Konfigurationen
  • Reverse Engineering von historischen ETL Strecken und Fehlerbehebung
  • Überwachung der täglichen Datenverarbeitung und Behebung von Beladungsproblemen


Kenntnisse:

RedHat Linux, IBM DB2 und Oracle 19c (JSON SQL), AQT/TOAD/SQL-Developer, IBM InfoSphere DataStage 11.7, IBM CDC 11.4, Kafka/Avro Framework, Schema-Registry, QuerySurge, Enterprise Architect, JIRA, TortoiseGIT, SAP BO


2020 - 2023: Data Warehouse Beratung


Einsatzort: Frankfurt, Deutschland

Rolle: Data Warehouse Berater

Kunde: Deutsche Bundesbank


Aufgaben:

  • Datenmodellierung Core Datawarehouse (Data Vault 2.0) für internationale Bankdaten
  • Entwicklung von ETL-Datenbeladungsjobs mit IBM DataStage und Unix Bash Scripting
  • Prototyping DataStage mit Unix-Steuerung und Generischer ETL-Datenbeladung
  • Erstellung und Beladung von Fehlerprotokolltabellen und Views
  • Erstellung von Mapping Spezifikationen
  • Erstellung von XML-SQL Abfragen, Views und Extraktionen
  • Analyse der Datenqualität und Test der Konsistenz
  • Target2 Anbindung von Stammdaten CRDM und Transaktionsdaten RTGS/CLM


Kenntnisse:

IBM DB2, DB-Visualizer 10.0, IBM InfoSphere DataStage 11.7, SAP PowerDesigner, JIRA, TortoiseSVN


2021 - 2021: Datenmodellierung Datawarehouse


Einsatzort: Bern, Schweiz

Rolle: Data Warehouse Berater

Kunde: PostFinance Bank


Aufgaben:

  • Analyse der Datenqualität und Test der Konsistenz
  • Erstellung und Laufzeitoptimierung von AdHoc SQL-Abfragen (mit Indexoptimierung)
  • Prototyping Partition und Tablespace Verteilung für große Tabellen
  • Entwicklung von ETL-Datenbeladungsjobs in Python in einer IntelliJ Umgebung
  • Optimierung Datenabfragegeschwindigkeit in der Oracle DB durch Indexe, Pragmas und Partitionierung

Kenntnisse:

Oracle 19c, TOAD / SQLDeveloper, IntelliJ mit Python, JIRA, TortoiseGIT


2016 - 2020: Data Warehouse Beratung


Einsatzort: Bern, Schweiz

Rolle: Data Warehouse Berater

Kunde: Mobiliar Versicherung


Aufgaben:

  • Entwicklung und Datenmodellierung eines neuen Data Warehouse Kerns nach Absprache mit Fachabteilung
  • Adhoc Auswertungen und Risikoanalyse auf Basis DWH-Kern für Fachseite
  • Unterstützung beim Aufbau eines Business Layers basierend auf den DWH Kern
  • Definition und Review von Daten Mapppings
  • Entwicklung und Erweiterung von ETL-Datenbeladungsjobs mit IBM DataStage und PL/SQL in einer Oracle IBM DB2 (mit IDAA) und MS SQL Umgebung
  • Analyse der Datenqualität und Entwicklung von Testprozeduren
  • Prototyping von QuerySurge Routinen und Integration in IBM DataStage
  • Einführung einer neuen Datenkomprimierung Funktionalität ins Data Warehouse
  • Anbindung von Daten aus dem IBM CDC und dem Kafka/Avro, Schema Registry und Kafka Connect Framework mit IBM DataStage und der Java Integration Stage
  • Eingebunden in Bereiche: Vertrag, Partner, Objekt, Produkt, Lokation, Schaden
  • Aktualisierung SAP BO Reports, Universen und List-of-Values
  • Test und Aktualisierung von InfoBurst Konfigurationen
  • Reverse Engineering von historischen ETL Strecken und Fehlerbehebung
  • Überwachung der täglichen Datenverarbeitung und Behebung von Beladungsproblemen

Kenntnisse:

Linux, IBM DB2 und Oracle 19c (JSON SQL), AQT/TOAD/SQL-Developer, IBM InfoSphere DataStage 11.7, IBM CDC 11.4, Kafka/Avro Framework, Schema-Registry, QuerySurge, Enterprise Architect, JIRA, TortoiseSVN/GIT, SAP BO


2014 - 2016: Migration vom MS Project Daten in eine Tableau Anwendung


Einsatzort: Auckland, Neuseeland

Rolle: Manager und Solutions Architect

Kunde: Ernst&Young


Aufgaben:

  • Einführung eines neuen Versicherungsdatenmodells basierend auf IBM IAA (Partner, Vertrag, Provision, Schaden, Produkt Geschäftssystem) mit entsprechender Data Warehouse Architektur
  • Anbindung von OpenData Quellen mit SSIS (WebServices/REST) für Banken
  • Migration vom MS Project Daten in eine Tableau Anwendung.
  • Whitepaper zu BigData Architekturen basierend auf Hadoop und zugehörigen Distributionen


Kenntnisse:

IBM IAA, MS-SQL Server (SSIS/SSRS), SAP PowerDesigner, BigData (Hadoop), Tableau


2014 - 2014: Datenmigration von externen Quellsystemen in ein neues SAP FS-CD System


Einsatzort: Wiesbaden, Deutschland

Rolle: Team Leitung und Data Migrations Experte

Kunde: SOKA-Bau Versorgungskasse


Aufgaben:

  • Team Leitung, Ansprechpartner bei der Auflösung von technisch/fachlichen Problemen
  • Datenqualitätsanalyse von Vertrags und Exkasso/Inkasso Daten in einer Staging DB und in der SAP GUI
  • Datenmigration von externen Quellsystemen in ein neues SAP FS-CD System
  • Ist-Analyse, Erstellung Datenmappings und Datenanalyse in Zusammenarbeit mit dem Fachbereich


Kenntnisse:

DB2 10.5, UNIX, SAP GUI, SQL Analytic Queries and VBS Scripts


2012 - 2013: Entwurf und Realisierung Datenextraktion nach Fachvorgaben für Provision-Schaden Auswertung


Einsatzort: Heidelberg, Deutschland

Rolle: Data Warehouse Berater

Kunde: Janitos


Aufgaben:

  • Technische Leitung bei der Entwicklung eines Neutralen Versicherungs-Datenmodells in ETL mit Informatica, Befüllung Data Marts (Star-Schema und das neue Data Warehouse entspricht der Hub-Spoke-Architektur)
  • AD-Hoc Queries für das Management Information System in PL/SQL und Optimierung mit Explain + Parallelisierung
  • Entwurf und Realisierung Datenextraktion nach Fachvorgaben für Provision-Schaden Auswertung
  • Optimierung von Datenextraktions-SQL für große Datenmengen in Struktur und Laufzeit, Versionierung mit SVN


Kenntnisse:

Oracle 11g (PL/SQL), Oracle Data Modeler, SVN, SAP BO, DataStage 8.7, Talend


2012: Entwurf und Realisierung von ETL Jobs zur Datenextraktion


Einsatzort: Walldorf, Deutschland

Rolle: IBM Websphere DataStage Spezialist

Kunde: SAP


Aufgaben:

  • Unterstützung bei Fehlerbehebung und Funktionserweiterung von ETL-Jobs eines CRM Systems
  • Funktionales Testen der SOAP Komponenten und Unterstützung bei Softwareerweiterung
  • Entwurf und Realisierung von ETL Jobs zur Datenextraktion
  • Erstellung von Entwicklungs- und Testdokumentation für DataStage
  • Optimierung von Datenextraktions-SQL für große Datenmengen im CRM System
  • Einbindung von DataStage Webservices in SAP NetWeaver


Kenntnisse:

Windows Server 2003/2008, SAPGUI, DataStage 7.52, DB2, SoapUI, SAP NetWeaver


2008 - 2012: Versionierung mit Jenkins und einem hauseigenen Werkzeug


Einsatzort: Köln, Deutschland

Rolle: ETL-Experte Datenintegration

Kunde: Talanx-HDI-Gerling Versicherung


Aufgaben:

  • Erstellung von technischen Fachkonzepte und von Spezifikationen zur Migration vom Daten aus externen Quellen in ein dispositives Datenbanksystem mit Stammdatenhaltung (MDM)
  • Datenmodellierung, Datenbankdesign, inklusive Optimierung von SQLs und Erstellung von Vorgaben für den Datenbankadministrator (Dispositives DWH als Hub-Spoke-Architektur)
  • Versionierung mit Jenkins und einem hauseigenen Werkzeug
  • Entwurf und Realisierung von SQL-Skripten und ETL Jobs zur Datenanalyse und Datenextraktion. Migration von Daten aus Fremdsystemen und Integration ins Datenmodell durch SQL-Loader Skripte in UNIX.
  • Erweiterung von ETL Mappings, Dokumentation und Realisierung entsprechend Fachvorgaben
  • Durchführung von Unit Tests (TAT/UAT) und Testdokumentation
  • Design und Realisierung eines webbasierten Überwachungstools zur Fehleranalyse der täglichen Datenverarbeitung mit JAVA-Anwendung (JSP) und Webserverintegration. Java API für Datenzugriffe entworfen.
  • Entwurf, Realisierung und Erweiterung von Steuerskripten (ksh) für ETL und Datenextraktion und Einbindung in das JobScheduling
  • Wartung und Erweiterung eines Frontend-Werkzeuges für die Stammdaten-Darstellung im Webformat für die Fachseite


Kenntnisse:

AIX, DB2, Oracle 10, DataStage 7.52, SQL/XML, Tomcat, JAVA, Shell, Eclipse, Jenkins


2008 - 2008: Realisierung, Dokumentation und Unit Tests von ETL Mappings


Einsatzort: Frankfurt, Deutschland

Rolle: Informatica-ETL DWH Berater

Kunde: EuroHypo


Aufgaben:

  • Realisierung, Dokumentation und Unit Tests von ETL Mappings
  • Konfiguration und Durchführung von Unit Tests
  • Erweiterung von bestehenden ETL Mappings entsprechend den Businessanforderungen
  • Impact Analysis und Dokumentation von ETL Mapping Erweiterungen für SAP Systeme
  • Programmierung von PL/SQL Stored Procedures
  • GUI Programmierung von Diagnosewerkzeugen für DB Schnittstellen mit C# (Visual Studio .Net


Kenntnisse:

AIX 6.1, Oracle 10, Informatica 7.1.3, TOAD 9.5, PL/SQL, Stored Procedures


2007 - 2007: Review und Optimierung ETL-Prozesse im Master Data Management


Einsatzort: Leverkusen, Deutschland

Kunde: Bayer CropScience


Aufgaben:

  • Review der Data Warehouse Architektur und Implementierung des Stammdaten Projekts
  • Design einer Blueprint Dokumentation für das Stammdaten Projekt (SDLC Planung, Configuration Management, Analyse des bestehenden Datenmodells im Quellsystem (SAP) und Zielsystem (ORACLE), Planung eines Reporting-Datenmodells, Mapping Lösungen, Planung der Datenvalidierung
  • Planung von Datenextraktion und Datentransfer zwischen Quell- und Zielsystem
  • Businessvorgaben wurden in eine technische Spezifikation umgesetzt zur Realisierung in ETL
  • Datenmodellierung des Stammdaten Systems (MDM) (Analyse de der bestehenden Datenstrukturen, Profiling der Dateninhalte und Design eines neuen Datenmodells)


Kenntnisse:

IBM AIX, SAP, Oracle 10, DataStage 7.52, TOAD 9.5, PL/SQL, Stored Procedures


2007 - 2007: Verschiedene Projekte


Rolle: ETL-Internet Berater Informatica und DataStage


Aufgaben:

  • Design einer Workshop Präsentation für ein Daimler Data Warehouse Projekt
  • Erstellung Projekt Plan für ein Daimler Data Warehouse Projekt
  • Powercenter Informatica ETL Realisierung von ETL Mappings, Befüllung eines DB2 DBMS Datenmodells
  • Programmierung und Dokumentation einer Multithreading Anwendung in Linux (C++ und GTK) mit einer Erweiterung zur Erstellung von dreidimensionalen Mandelbrotfiguren, darstellbar mit VRML Plug-Ins in aktuelle Webbrowsern


Kenntnisse:

Linux, MySQL, Informatica 7.1.3, phpMyAdmin, SQL, GTK/C++, VRML, PowerPoint


2007 - 2007: Review von ETL-Prozesse


Einsatzort: Stockholm, Schweden

Rolle: Data Warehouse Berater

Kunde: Nordea Bank


Aufgaben:

  • Code Review von DataStage ETL Implementierungen von DataStage und PowerCenter Informatica entsprechend den Business Transformation Regeln. Eine Ergebnisdokumentation wurde für das Projekt Management erstellt
  • Sicherstellung und Verbesserung der Datenqualität. Daten, Datenstrukturen und das Datenmodell wurden miteinander verglichen, ob diese den Definitionen und Regeln folgend, realisiert und transformiert wurden. Die Data Warehouse Umgebung war SQL Server und IBM AIX UNIX
  • Evaluierung der Mapping Regeln gegen die programmierten Stored Procedures. Neuen Dokumentationsstandard zur Beschreibung von Stored Procedures eingeführt
  • Data Warehouse Prozess Verbesserungen entsprechend den Gegebenheiten vor Ort entworfen und dem Management vorgelegt


Kenntnisse:

IBM AIX, MS SQL Server, DataStage 7.52, SQL und Stored Procedures


2006 - 2006: Basel II Realisierung


Einsatzort: Wien, Österreich

Rolle: ETL-Experte

Kunde: Raiffeisen Zentral Bank


Aufgaben:

  • Daten- und Beziehungsvalidierung von Entitäten und Unterstützung der Business Seite in der Verbesserung der Datenqualität von Quelldaten
  • Erstellung von SQL Programmen zur Datenanalyse für Oracle DB
  • Entwurf und Programmierung von ETL Routinen fürs Ascential DataStage (Server Version) und Verbesserung bestehender Lösungen
  • Test und Integration im IBM AIX Umfeld und Oracle Datenbank für das Fermat Analyse Werkzeug
  • Dokumentation und Erstellung von ETL Mappings anhand von Business Vorgaben. Validierung dieser Vorgaben
  • Steuerung von DataStage Jobs durch selbstentwickelte UNIX Skripte


Kenntnisse:

IBM AIX, Oracle 10, DataStage 7.52, KSH-Scripts, SQL und Stored Procedures, SVN


2006 - 2006: Programmierung von ETL Routinen mit DataStage EE (Parallel Jobs) Version


Einsatzort: München

Rolle: Data Warehouse ETL-Experte

Kunde: Versicherungskammer Bayern


Aufgaben:

  • Validierung des Datenmodells mit eigenen SQL Skripten und Unterstützung der Modellierer bei Fakten und Dimensionstabellen
  • Programmierung von ETL Routinen mit DataStage EE (Parallel Jobs) Version
  • Test und Integration im IBM AIX Umfeld und IBM DB2 Datenbanken.Teilweise Verifikation mit Ascential Profile Stage
  • ETL Konzeption und Realisierung von Schnittstellen im Rahmen des ETL- und Data-Warehouse-Projektes


Kenntnisse:

Windows, Unix, Oracle, Ascential DataStage 7.52 EE


2004 - 2005: Sicherstellung der Daten- und Prozessqualität durch Definition von Standards


Rolle: IS Solutions Analyst

Kunde: DHL GCC Europe, Brüssel, Belgien


Aufgaben:

  • Programmierung von ETL Routinen fürs Ascential DataStage Data Warehouse mit Performanceanalyse + Tuning, Test und Integration im HP Unix Umfeld und IBM DB2 Datenbanken (+ selbstentwickelte Stored Procedures zur Validierung). Teilweise Verifikation mit Ascential Profile Stage
  • Definition der Datenextraktion und Festlegung von Datentransferstandards zur Implementierung in Unix Scripts und SQL für beliebige Datenbank Systeme
  • Sicherstellung der Daten- und Prozessqualität durch Definition von Standards für Ascential DataStage Implementierung
  • Definition von länderspezifischen Datenbankschnittstellen Standards für Oracle, IBM und MS-SQL DB. Ziel einheitliche Datenübermittlung ins ETL
  • Spezifizierung von Frontend und Backend Standards für ein WebUser Interface zur versionierten Verwaltung des gesamten Datawarehouse Prozesses für die Geschäftsseite für PHP unter HPUnix mit Oracle DB Anbindung. PHP Objektplanung mit UML 2.0


Kenntnisse:

HP Unix, Oracle and DB2, DataStage/ProfileStage 7.5, Erwin, PHP, Unix Scripts


2001 - 2004: Dynamische räumliche Webapplikationen mit XML/XSLT und VRML erstellt


Rolle: Dozent in Informatik und Elektronik

Kunde: Versicherung, Bildungseinrichtung, Softwarehersteller Köln und München, Deutschland


Aufgaben:

  • Schulung von objektorientierten Programmiertechnologien, Datenbankanwendungen und aktuellen Computerarchitekturen
  • Dynamische räumliche Webapplikationen mit XML/XSLT und VRML erstellt
  • Entwurf von Dynamische Webseiten mit JSP für die Anzeige von Datenbankinhalte
  • Erstellung einer dialogbasierten Anwendungssoftware in Java zur Datenerfassung
  • Analyse und Entwicklung von Assembler Modulen und 3D Visualisierungstechnologien
  • Analyse, Design und Erstellung von Versicherungssoftware auf Client-Server und Großrechner Systemen mit Datenbankzugriff (IBM DB2 und OS/2+OS/390 Betriebssysteme)
  • Datenmigration von IBM Großrechner DB2 Datenbanken in eine Client-Server Windows und OS/2 Umgebung
  • Qualitätsmanagement des bestehenden Krankenversicherungssystems
  • Test und Verbesserung existierender C/C++ Softwarelösungen für Datenmappings von Kranken- und Lebensversicherungs Daten
  • Einführung von schnelleren Lösungen des Datenbankzugriffs mit SQL und C/C++ unter DB2
  • Entwurf von Java/JDBC und JSP Internetanwendungen (POS Frontend / Backend)

2001 - 2001: Dynamische räumliche Webapplikationen mit XML/XSLT und VRML erstellt


Rolle: Software Entwickler

Kunde: Dynapel und DPG, Köln / Ismaning, Deutschland


Aufgaben:

  • Entwurf und Programmierung einer Java3D Entwicklungsumgebung mit Datenbankanbindung
  • Dynamische räumliche Webapplikationen mit XML/XSLT und VRML erstellt
  • Entwurf von Dynamische Webseiten mit JSP für die Anzeige von Datenbankinhalte
  • Erstellung einer dialogbasierten Anwendungssoftware in Java zur Datenerfassung
  • Design und Programmierung von objektorientierter Videosoftware
  • Analyse und Entwicklung von Assembler Modulen
  • Analyse von 3D Visualisierungstechnologien
  • Design und Programmierung einer Plattform unabhängigen Internetpräsentation als begehbare virtuelle Welt mit Macromedia Dreamweaver
  • Entwicklung neuer Technologien, die VRML mit HTML und Java/JavaScript verbinden

1998 - 2000: Qualitätsmanagement des bestehenden Krankenversicherungssystems


Rolle: System Analytiker

Kunde: ARAG Versicherung, München, Deutschland


Aufgaben:

  • Analyse, Design und Erstellung von Versicherungssoftware auf Client-Server und Großrechner Systemen mit Datenbankzugriff (IBM DB2 und OS/2+OS/390 Betriebssysteme)
  • Datenmigration von IBM Großrechner DB2 Datenbanken in eine Client-Server Windows und OS/2 Umgebung
  • Qualitätsmanagement des bestehenden Krankenversicherungssystems
  • Erstellung von grafischen Benutzeroberflächen
  • Einführung neuer Softwaretechnologien zur Optimierung von Ablaufprozessen
  • Erweiterung bestehender Softwarelösungen
  • Einweisung von Kollegen in eigene Softwarekonzepte
  • Test und Verbesserung existierender C/C++ Softwarelösungen für Datenmappings von Kranken- und Lebensversicherungs Daten
  • Einführung von schnelleren Lösungen des Datenbankzugriffs mit SQL und C/C++ unter DB2
  • Entwurf von Java/JDBC und JSP Internetanwendungen (Point of Sales Frontend / Backend)
  • Programmierung von Anwendungen zur Visualisierung von Prozesszuständen in der täglichen Datenverarbeitung durch ein dynamisches HTML Frontend
  • Implementierung verteilter Software für Datenmigration (heute Grid Computing genannt!)
  • Realisierung von Business Spezifikationen in einer objektorientierten Softwaretechnologie, beispielsweise C++, Java

Aus- und Weiterbildung

Aus- und Weiterbildung

03/1998

Ausbildung: Studienfach Informatik

Abschluss: Diplom

Institution: Rheinische Friedrich-Wilhelms-Universität, Bonn


Schwerpunkte:

  • Petri Netze, Verteilte Systeme, Neuronale Netze, Computer Architektur, Computer Algorithmen
  • Nebenfach: Physik
    • Schwerpunkte: Atom- und Kernphysik


1988

Abschluss: Allgemeine Hochschulreife (Abitur)

Institution: Kollegschule, Kerpen-Horrem


Berufsabschluss: "Staatlich geprüfter Technischer Assistent Elektrotechnik"


Zertifikate

2007

Prince 2 Projektmanagement

Position

Position

  • Projekt Manager
  • Business Systems Analyst
  • Beratung und Consulting
  • Software-Entwicklung / Programmierung

Kompetenzen

Kompetenzen

Top-Skills

Data Modeling ETL Datenanalyse Programmiersprachen IBM InfoSphere DataStage Informatica PowerCenter MS SQL Server Integration Services SQL Python Linux Oracle Data Vault Scriptsprachen Java C/C++ DB/2

Schwerpunkte

Big Data
Business Intelligence
Data Warehouse
Programmierung

IT Schwerpunkte Data Warehouse Design und Architektur

  • Datenmigration und Datenintegration
  • Big Data Anwendungen
  • Metadaten Management
  • Programmierung
  • Qualitätssicherung von Daten und Prozesse


Fachliche Schwerpunkte

  • Kranken-/ Lebens-/ Auto-/ Sachversicherung
  • Stammdaten und CRM
  • Basel II / Target 2

Produkte / Standards / Erfahrungen / Methoden

Virtualisierung
VMWARE,VirtualPC

Methoden

  • Projektmanagement
  • Anforderungsmanagement
  • Datenmodellierung
  • Softwareengineering und SDLC
  • Systemanalyse und Systemintegration
  • Qualitätsmanagement, Release- und Change
  • Schulungen und Anwendercoaching


Technische Expertise

ETL Werkzeuge

  • IBM DataStage
  • Informatica Powercenter
  • Pentaho / Talend Data Integration
  • Mircrosoft SSIS


Big Data

  • Kafka Framework mit Connect
  • Avro Serialisierung
  • Schema Registry (JSON)


Reportingwerkzeuge

  • Tableau
  • SAP Business Objects (+DS)
  • Cognos


Datenmodellierung

  • Oracle SQL Developer Data Modeler
  • SAP / Sybase Powerdesigner
  • CA Erwin Data Modeler


Programmierwerkzeuge

  • Eclipse Umgebung mit entsprechenden PlugIns
  • MS Visual Studio
  • Make / ANT / Maven


Datenbankwerkzeuge

  • SQL Skripte
  • RapidSQL
  • phpMyAdmin
  • OO-Programmierung mit Embedded
  • SQL User Defined Functions / Stored Procedures (PL/SQL, Transact SQL)
  • QuerySurge


Software

  • Samba
  • Version Control (Subversion / CVS / PVCS / GIT)
  • Tortoise
  • Apache/Tomcat Webserver
  • GNU Toolchain
  • Directory Server (LDAP)


Office Anwendungen

  • MS Word
  • MS Excel
  • MS Access
  • MS Powerpoint
  • MS Visio
  • MS Project


Protokolle

  • HTTP
  • TCP/IP
  • PPP und Client/Server mit Socket Programmierung

Betriebssysteme

CP/M
Version 2.2 und 3.0
MS-DOS
Seit Version 2.11
MVS/OS390
OS/2
Version 2.2
OSF/Motif
Risc OS
Acorn Archimedes A3000 (ARM2-Chip)
SUN OS, Solaris
Linux/Unix
Erfahrung seit 1990!! z.B.: Linux 0.99, IBM AIX, HPUX, BSD
Windows
Erfahrung seit Windows 2.xx auf XT/AT Systemen
Windows CE
Mit was sonst läuft ein PDA neben Linux
VMWARE
VirtualPC

Programmiersprachen

Ada
Für EADS
Assembler
Z80,x86,ARM/XScale,ADFrio
Basic
C
MS Visual Studio, ARM SDK, Embedded Programmierung, LLVM
C#
STL, MFC, Generic Programming/Templates
C++
Visual Studio / Age, MFC, STL, GCC
CORBA IDL
Emacs
XEmacs
HTML
Imake, GNU-Make, Make-Maker etc...
Ant, Imake, Make, AutoTools
Java
JSP, Servlets, Applets, J2EE (Struts/Hibernate), Swing/AWT
JavaScript
Struts Framework (WebSphere, Eclipse, SunStudio), Servlets, Applets, Swing, AWT, J2EE, Javabeans, EJB, Hibernate
Maschinensprachen
ARM, Z80;AD-FRIO, x86 (siehe Assembler)
Pascal
Turbo Pascal
PHP
>=Version 4.0
PL/SQL
Qt
Rexx
Shell
BASH, KSH, CSH
Tcl/Tk
TeX, LaTeX
Seminare und Berichte in der Uni!
VBScript
VRML
Perfekt für 3D-Welten. Meine Spezialität dynamisch erzeugte 3D Bilder
XML/XSLT
Xt, Motif
yacc/lex
Python

Datenbanken

Access
FireBird
IBM
DB2: SQL/XML+XPATH/XQUERY; CDC 11.4
JDBC
In Java Anwendungen
MS SQL Server
MySQL
ODBC
u.a. Konfiguration in UNIX
Oracle
SQL, PL/SQL
SQL
Ja
Sybase
Teradata
AQT
TOAD 9.5
DBVisualizer
Squirrel
SQL Developer

Datenkommunikation

Bus
Fibre-Channel und PCI-Bus
Ethernet
Internet, Intranet
ISO/OSI
LAN, LAN Manager
parallele Schnittstelle
RFC
Router
RS232
SMTP
TCP/IP
Winsock

Hardware

Amiga
Atari
Bus
KVB, MVV, MTA, ÖBB, ..
CD-Writer / Brenner
Datapumps
Digitale Signalprozessoren
ARM/XSCALE, Z80; AD Frio, Risc-V
Drucker
embedded Systeme
Emulatoren
Cross Compiler, PC Emulatoren, VM Ware / Virtual PC
Hardware entwickelt
Dynamische FPGA Rekonfiguration, Schnittstellenkarten und Speichererweiterungen
HP
IBM Großrechner
IBM RS6000
Messgeräte
Alles was man für Computerreparatur/-Wartung benötigt
Mikrocontroller
Modem
Motorola
NEC
PC
Kann ich zusammenbauen, reparieren und konfigurieren
PLD, FPGA
Arbeit an einer Promotion in neue Technologien, u.a. mit VHDL
Proprietäre HW
Scanner
Soundkarten
Steuer und Regelsysteme
z.B.: Neuronale Systeme
SUN
Texas Instruments
Vektor-/Parallelrechner
Zuse
Habe ich im Museum berührt

Branchen

Branchen

  • Versicherung
  • Bank
  • Logistik
  • Chemie
  • Regierung
  • Softwarehersteller

Einsatzorte

Einsatzorte

Deutschland, Österreich, Schweiz
möglich

Projekte

Projekte

2022 - heute: Entwicklung und Analyse


Einsatzort: Bern, Schweiz

Rolle: Data Warehouse Berater

Kunde: Mobiliar Versicherung


Aufgaben:

  • Entwicklung und Datenmodellierung eines neuen Data Warehouse Kerns nach Absprache mit Fachabteilung
  • Adhoc Auswertungen und Risikoanalyse auf Basis DWH-Kern für Fachseite
  • Unterstützung beim Aufbau eines Business Layers basierend auf den DWH Kern
  • Definition und Review von Daten Mapppings
  • Entwicklung und Erweiterung von ETL-Datenbeladungsjobs mit IBM DataStage und PL/SQL in einer Oracle IBM DB2 (mit IDAA) und MS SQL Umgebung
  • Analyse der Datenqualität und Entwicklung von Testprozeduren
  • Prototyping von QuerySurge Routinen und Integration in IBM DataStage
  • Einführung einer neuen Datenkomprimierung Funktionalität ins Data Warehouse
  • Anbindung von Daten aus dem IBM CDC und dem Kafka/Avro, Schema Registry und Kafka Connect Framework mit IBM DataStage und der Java Integration Stage
  • Eingebunden in Bereiche: Vertrag, Partner, Objekt, Produkt, Lokation, Schaden
  • Aktualisierung SAP BO Reports, Universen und List-of-Values
  • Test und Aktualisierung von InfoBurst Konfigurationen
  • Reverse Engineering von historischen ETL Strecken und Fehlerbehebung
  • Überwachung der täglichen Datenverarbeitung und Behebung von Beladungsproblemen


Kenntnisse:

RedHat Linux, IBM DB2 und Oracle 19c (JSON SQL), AQT/TOAD/SQL-Developer, IBM InfoSphere DataStage 11.7, IBM CDC 11.4, Kafka/Avro Framework, Schema-Registry, QuerySurge, Enterprise Architect, JIRA, TortoiseGIT, SAP BO


2020 - 2023: Data Warehouse Beratung


Einsatzort: Frankfurt, Deutschland

Rolle: Data Warehouse Berater

Kunde: Deutsche Bundesbank


Aufgaben:

  • Datenmodellierung Core Datawarehouse (Data Vault 2.0) für internationale Bankdaten
  • Entwicklung von ETL-Datenbeladungsjobs mit IBM DataStage und Unix Bash Scripting
  • Prototyping DataStage mit Unix-Steuerung und Generischer ETL-Datenbeladung
  • Erstellung und Beladung von Fehlerprotokolltabellen und Views
  • Erstellung von Mapping Spezifikationen
  • Erstellung von XML-SQL Abfragen, Views und Extraktionen
  • Analyse der Datenqualität und Test der Konsistenz
  • Target2 Anbindung von Stammdaten CRDM und Transaktionsdaten RTGS/CLM


Kenntnisse:

IBM DB2, DB-Visualizer 10.0, IBM InfoSphere DataStage 11.7, SAP PowerDesigner, JIRA, TortoiseSVN


2021 - 2021: Datenmodellierung Datawarehouse


Einsatzort: Bern, Schweiz

Rolle: Data Warehouse Berater

Kunde: PostFinance Bank


Aufgaben:

  • Analyse der Datenqualität und Test der Konsistenz
  • Erstellung und Laufzeitoptimierung von AdHoc SQL-Abfragen (mit Indexoptimierung)
  • Prototyping Partition und Tablespace Verteilung für große Tabellen
  • Entwicklung von ETL-Datenbeladungsjobs in Python in einer IntelliJ Umgebung
  • Optimierung Datenabfragegeschwindigkeit in der Oracle DB durch Indexe, Pragmas und Partitionierung

Kenntnisse:

Oracle 19c, TOAD / SQLDeveloper, IntelliJ mit Python, JIRA, TortoiseGIT


2016 - 2020: Data Warehouse Beratung


Einsatzort: Bern, Schweiz

Rolle: Data Warehouse Berater

Kunde: Mobiliar Versicherung


Aufgaben:

  • Entwicklung und Datenmodellierung eines neuen Data Warehouse Kerns nach Absprache mit Fachabteilung
  • Adhoc Auswertungen und Risikoanalyse auf Basis DWH-Kern für Fachseite
  • Unterstützung beim Aufbau eines Business Layers basierend auf den DWH Kern
  • Definition und Review von Daten Mapppings
  • Entwicklung und Erweiterung von ETL-Datenbeladungsjobs mit IBM DataStage und PL/SQL in einer Oracle IBM DB2 (mit IDAA) und MS SQL Umgebung
  • Analyse der Datenqualität und Entwicklung von Testprozeduren
  • Prototyping von QuerySurge Routinen und Integration in IBM DataStage
  • Einführung einer neuen Datenkomprimierung Funktionalität ins Data Warehouse
  • Anbindung von Daten aus dem IBM CDC und dem Kafka/Avro, Schema Registry und Kafka Connect Framework mit IBM DataStage und der Java Integration Stage
  • Eingebunden in Bereiche: Vertrag, Partner, Objekt, Produkt, Lokation, Schaden
  • Aktualisierung SAP BO Reports, Universen und List-of-Values
  • Test und Aktualisierung von InfoBurst Konfigurationen
  • Reverse Engineering von historischen ETL Strecken und Fehlerbehebung
  • Überwachung der täglichen Datenverarbeitung und Behebung von Beladungsproblemen

Kenntnisse:

Linux, IBM DB2 und Oracle 19c (JSON SQL), AQT/TOAD/SQL-Developer, IBM InfoSphere DataStage 11.7, IBM CDC 11.4, Kafka/Avro Framework, Schema-Registry, QuerySurge, Enterprise Architect, JIRA, TortoiseSVN/GIT, SAP BO


2014 - 2016: Migration vom MS Project Daten in eine Tableau Anwendung


Einsatzort: Auckland, Neuseeland

Rolle: Manager und Solutions Architect

Kunde: Ernst&Young


Aufgaben:

  • Einführung eines neuen Versicherungsdatenmodells basierend auf IBM IAA (Partner, Vertrag, Provision, Schaden, Produkt Geschäftssystem) mit entsprechender Data Warehouse Architektur
  • Anbindung von OpenData Quellen mit SSIS (WebServices/REST) für Banken
  • Migration vom MS Project Daten in eine Tableau Anwendung.
  • Whitepaper zu BigData Architekturen basierend auf Hadoop und zugehörigen Distributionen


Kenntnisse:

IBM IAA, MS-SQL Server (SSIS/SSRS), SAP PowerDesigner, BigData (Hadoop), Tableau


2014 - 2014: Datenmigration von externen Quellsystemen in ein neues SAP FS-CD System


Einsatzort: Wiesbaden, Deutschland

Rolle: Team Leitung und Data Migrations Experte

Kunde: SOKA-Bau Versorgungskasse


Aufgaben:

  • Team Leitung, Ansprechpartner bei der Auflösung von technisch/fachlichen Problemen
  • Datenqualitätsanalyse von Vertrags und Exkasso/Inkasso Daten in einer Staging DB und in der SAP GUI
  • Datenmigration von externen Quellsystemen in ein neues SAP FS-CD System
  • Ist-Analyse, Erstellung Datenmappings und Datenanalyse in Zusammenarbeit mit dem Fachbereich


Kenntnisse:

DB2 10.5, UNIX, SAP GUI, SQL Analytic Queries and VBS Scripts


2012 - 2013: Entwurf und Realisierung Datenextraktion nach Fachvorgaben für Provision-Schaden Auswertung


Einsatzort: Heidelberg, Deutschland

Rolle: Data Warehouse Berater

Kunde: Janitos


Aufgaben:

  • Technische Leitung bei der Entwicklung eines Neutralen Versicherungs-Datenmodells in ETL mit Informatica, Befüllung Data Marts (Star-Schema und das neue Data Warehouse entspricht der Hub-Spoke-Architektur)
  • AD-Hoc Queries für das Management Information System in PL/SQL und Optimierung mit Explain + Parallelisierung
  • Entwurf und Realisierung Datenextraktion nach Fachvorgaben für Provision-Schaden Auswertung
  • Optimierung von Datenextraktions-SQL für große Datenmengen in Struktur und Laufzeit, Versionierung mit SVN


Kenntnisse:

Oracle 11g (PL/SQL), Oracle Data Modeler, SVN, SAP BO, DataStage 8.7, Talend


2012: Entwurf und Realisierung von ETL Jobs zur Datenextraktion


Einsatzort: Walldorf, Deutschland

Rolle: IBM Websphere DataStage Spezialist

Kunde: SAP


Aufgaben:

  • Unterstützung bei Fehlerbehebung und Funktionserweiterung von ETL-Jobs eines CRM Systems
  • Funktionales Testen der SOAP Komponenten und Unterstützung bei Softwareerweiterung
  • Entwurf und Realisierung von ETL Jobs zur Datenextraktion
  • Erstellung von Entwicklungs- und Testdokumentation für DataStage
  • Optimierung von Datenextraktions-SQL für große Datenmengen im CRM System
  • Einbindung von DataStage Webservices in SAP NetWeaver


Kenntnisse:

Windows Server 2003/2008, SAPGUI, DataStage 7.52, DB2, SoapUI, SAP NetWeaver


2008 - 2012: Versionierung mit Jenkins und einem hauseigenen Werkzeug


Einsatzort: Köln, Deutschland

Rolle: ETL-Experte Datenintegration

Kunde: Talanx-HDI-Gerling Versicherung


Aufgaben:

  • Erstellung von technischen Fachkonzepte und von Spezifikationen zur Migration vom Daten aus externen Quellen in ein dispositives Datenbanksystem mit Stammdatenhaltung (MDM)
  • Datenmodellierung, Datenbankdesign, inklusive Optimierung von SQLs und Erstellung von Vorgaben für den Datenbankadministrator (Dispositives DWH als Hub-Spoke-Architektur)
  • Versionierung mit Jenkins und einem hauseigenen Werkzeug
  • Entwurf und Realisierung von SQL-Skripten und ETL Jobs zur Datenanalyse und Datenextraktion. Migration von Daten aus Fremdsystemen und Integration ins Datenmodell durch SQL-Loader Skripte in UNIX.
  • Erweiterung von ETL Mappings, Dokumentation und Realisierung entsprechend Fachvorgaben
  • Durchführung von Unit Tests (TAT/UAT) und Testdokumentation
  • Design und Realisierung eines webbasierten Überwachungstools zur Fehleranalyse der täglichen Datenverarbeitung mit JAVA-Anwendung (JSP) und Webserverintegration. Java API für Datenzugriffe entworfen.
  • Entwurf, Realisierung und Erweiterung von Steuerskripten (ksh) für ETL und Datenextraktion und Einbindung in das JobScheduling
  • Wartung und Erweiterung eines Frontend-Werkzeuges für die Stammdaten-Darstellung im Webformat für die Fachseite


Kenntnisse:

AIX, DB2, Oracle 10, DataStage 7.52, SQL/XML, Tomcat, JAVA, Shell, Eclipse, Jenkins


2008 - 2008: Realisierung, Dokumentation und Unit Tests von ETL Mappings


Einsatzort: Frankfurt, Deutschland

Rolle: Informatica-ETL DWH Berater

Kunde: EuroHypo


Aufgaben:

  • Realisierung, Dokumentation und Unit Tests von ETL Mappings
  • Konfiguration und Durchführung von Unit Tests
  • Erweiterung von bestehenden ETL Mappings entsprechend den Businessanforderungen
  • Impact Analysis und Dokumentation von ETL Mapping Erweiterungen für SAP Systeme
  • Programmierung von PL/SQL Stored Procedures
  • GUI Programmierung von Diagnosewerkzeugen für DB Schnittstellen mit C# (Visual Studio .Net


Kenntnisse:

AIX 6.1, Oracle 10, Informatica 7.1.3, TOAD 9.5, PL/SQL, Stored Procedures


2007 - 2007: Review und Optimierung ETL-Prozesse im Master Data Management


Einsatzort: Leverkusen, Deutschland

Kunde: Bayer CropScience


Aufgaben:

  • Review der Data Warehouse Architektur und Implementierung des Stammdaten Projekts
  • Design einer Blueprint Dokumentation für das Stammdaten Projekt (SDLC Planung, Configuration Management, Analyse des bestehenden Datenmodells im Quellsystem (SAP) und Zielsystem (ORACLE), Planung eines Reporting-Datenmodells, Mapping Lösungen, Planung der Datenvalidierung
  • Planung von Datenextraktion und Datentransfer zwischen Quell- und Zielsystem
  • Businessvorgaben wurden in eine technische Spezifikation umgesetzt zur Realisierung in ETL
  • Datenmodellierung des Stammdaten Systems (MDM) (Analyse de der bestehenden Datenstrukturen, Profiling der Dateninhalte und Design eines neuen Datenmodells)


Kenntnisse:

IBM AIX, SAP, Oracle 10, DataStage 7.52, TOAD 9.5, PL/SQL, Stored Procedures


2007 - 2007: Verschiedene Projekte


Rolle: ETL-Internet Berater Informatica und DataStage


Aufgaben:

  • Design einer Workshop Präsentation für ein Daimler Data Warehouse Projekt
  • Erstellung Projekt Plan für ein Daimler Data Warehouse Projekt
  • Powercenter Informatica ETL Realisierung von ETL Mappings, Befüllung eines DB2 DBMS Datenmodells
  • Programmierung und Dokumentation einer Multithreading Anwendung in Linux (C++ und GTK) mit einer Erweiterung zur Erstellung von dreidimensionalen Mandelbrotfiguren, darstellbar mit VRML Plug-Ins in aktuelle Webbrowsern


Kenntnisse:

Linux, MySQL, Informatica 7.1.3, phpMyAdmin, SQL, GTK/C++, VRML, PowerPoint


2007 - 2007: Review von ETL-Prozesse


Einsatzort: Stockholm, Schweden

Rolle: Data Warehouse Berater

Kunde: Nordea Bank


Aufgaben:

  • Code Review von DataStage ETL Implementierungen von DataStage und PowerCenter Informatica entsprechend den Business Transformation Regeln. Eine Ergebnisdokumentation wurde für das Projekt Management erstellt
  • Sicherstellung und Verbesserung der Datenqualität. Daten, Datenstrukturen und das Datenmodell wurden miteinander verglichen, ob diese den Definitionen und Regeln folgend, realisiert und transformiert wurden. Die Data Warehouse Umgebung war SQL Server und IBM AIX UNIX
  • Evaluierung der Mapping Regeln gegen die programmierten Stored Procedures. Neuen Dokumentationsstandard zur Beschreibung von Stored Procedures eingeführt
  • Data Warehouse Prozess Verbesserungen entsprechend den Gegebenheiten vor Ort entworfen und dem Management vorgelegt


Kenntnisse:

IBM AIX, MS SQL Server, DataStage 7.52, SQL und Stored Procedures


2006 - 2006: Basel II Realisierung


Einsatzort: Wien, Österreich

Rolle: ETL-Experte

Kunde: Raiffeisen Zentral Bank


Aufgaben:

  • Daten- und Beziehungsvalidierung von Entitäten und Unterstützung der Business Seite in der Verbesserung der Datenqualität von Quelldaten
  • Erstellung von SQL Programmen zur Datenanalyse für Oracle DB
  • Entwurf und Programmierung von ETL Routinen fürs Ascential DataStage (Server Version) und Verbesserung bestehender Lösungen
  • Test und Integration im IBM AIX Umfeld und Oracle Datenbank für das Fermat Analyse Werkzeug
  • Dokumentation und Erstellung von ETL Mappings anhand von Business Vorgaben. Validierung dieser Vorgaben
  • Steuerung von DataStage Jobs durch selbstentwickelte UNIX Skripte


Kenntnisse:

IBM AIX, Oracle 10, DataStage 7.52, KSH-Scripts, SQL und Stored Procedures, SVN


2006 - 2006: Programmierung von ETL Routinen mit DataStage EE (Parallel Jobs) Version


Einsatzort: München

Rolle: Data Warehouse ETL-Experte

Kunde: Versicherungskammer Bayern


Aufgaben:

  • Validierung des Datenmodells mit eigenen SQL Skripten und Unterstützung der Modellierer bei Fakten und Dimensionstabellen
  • Programmierung von ETL Routinen mit DataStage EE (Parallel Jobs) Version
  • Test und Integration im IBM AIX Umfeld und IBM DB2 Datenbanken.Teilweise Verifikation mit Ascential Profile Stage
  • ETL Konzeption und Realisierung von Schnittstellen im Rahmen des ETL- und Data-Warehouse-Projektes


Kenntnisse:

Windows, Unix, Oracle, Ascential DataStage 7.52 EE


2004 - 2005: Sicherstellung der Daten- und Prozessqualität durch Definition von Standards


Rolle: IS Solutions Analyst

Kunde: DHL GCC Europe, Brüssel, Belgien


Aufgaben:

  • Programmierung von ETL Routinen fürs Ascential DataStage Data Warehouse mit Performanceanalyse + Tuning, Test und Integration im HP Unix Umfeld und IBM DB2 Datenbanken (+ selbstentwickelte Stored Procedures zur Validierung). Teilweise Verifikation mit Ascential Profile Stage
  • Definition der Datenextraktion und Festlegung von Datentransferstandards zur Implementierung in Unix Scripts und SQL für beliebige Datenbank Systeme
  • Sicherstellung der Daten- und Prozessqualität durch Definition von Standards für Ascential DataStage Implementierung
  • Definition von länderspezifischen Datenbankschnittstellen Standards für Oracle, IBM und MS-SQL DB. Ziel einheitliche Datenübermittlung ins ETL
  • Spezifizierung von Frontend und Backend Standards für ein WebUser Interface zur versionierten Verwaltung des gesamten Datawarehouse Prozesses für die Geschäftsseite für PHP unter HPUnix mit Oracle DB Anbindung. PHP Objektplanung mit UML 2.0


Kenntnisse:

HP Unix, Oracle and DB2, DataStage/ProfileStage 7.5, Erwin, PHP, Unix Scripts


2001 - 2004: Dynamische räumliche Webapplikationen mit XML/XSLT und VRML erstellt


Rolle: Dozent in Informatik und Elektronik

Kunde: Versicherung, Bildungseinrichtung, Softwarehersteller Köln und München, Deutschland


Aufgaben:

  • Schulung von objektorientierten Programmiertechnologien, Datenbankanwendungen und aktuellen Computerarchitekturen
  • Dynamische räumliche Webapplikationen mit XML/XSLT und VRML erstellt
  • Entwurf von Dynamische Webseiten mit JSP für die Anzeige von Datenbankinhalte
  • Erstellung einer dialogbasierten Anwendungssoftware in Java zur Datenerfassung
  • Analyse und Entwicklung von Assembler Modulen und 3D Visualisierungstechnologien
  • Analyse, Design und Erstellung von Versicherungssoftware auf Client-Server und Großrechner Systemen mit Datenbankzugriff (IBM DB2 und OS/2+OS/390 Betriebssysteme)
  • Datenmigration von IBM Großrechner DB2 Datenbanken in eine Client-Server Windows und OS/2 Umgebung
  • Qualitätsmanagement des bestehenden Krankenversicherungssystems
  • Test und Verbesserung existierender C/C++ Softwarelösungen für Datenmappings von Kranken- und Lebensversicherungs Daten
  • Einführung von schnelleren Lösungen des Datenbankzugriffs mit SQL und C/C++ unter DB2
  • Entwurf von Java/JDBC und JSP Internetanwendungen (POS Frontend / Backend)

2001 - 2001: Dynamische räumliche Webapplikationen mit XML/XSLT und VRML erstellt


Rolle: Software Entwickler

Kunde: Dynapel und DPG, Köln / Ismaning, Deutschland


Aufgaben:

  • Entwurf und Programmierung einer Java3D Entwicklungsumgebung mit Datenbankanbindung
  • Dynamische räumliche Webapplikationen mit XML/XSLT und VRML erstellt
  • Entwurf von Dynamische Webseiten mit JSP für die Anzeige von Datenbankinhalte
  • Erstellung einer dialogbasierten Anwendungssoftware in Java zur Datenerfassung
  • Design und Programmierung von objektorientierter Videosoftware
  • Analyse und Entwicklung von Assembler Modulen
  • Analyse von 3D Visualisierungstechnologien
  • Design und Programmierung einer Plattform unabhängigen Internetpräsentation als begehbare virtuelle Welt mit Macromedia Dreamweaver
  • Entwicklung neuer Technologien, die VRML mit HTML und Java/JavaScript verbinden

1998 - 2000: Qualitätsmanagement des bestehenden Krankenversicherungssystems


Rolle: System Analytiker

Kunde: ARAG Versicherung, München, Deutschland


Aufgaben:

  • Analyse, Design und Erstellung von Versicherungssoftware auf Client-Server und Großrechner Systemen mit Datenbankzugriff (IBM DB2 und OS/2+OS/390 Betriebssysteme)
  • Datenmigration von IBM Großrechner DB2 Datenbanken in eine Client-Server Windows und OS/2 Umgebung
  • Qualitätsmanagement des bestehenden Krankenversicherungssystems
  • Erstellung von grafischen Benutzeroberflächen
  • Einführung neuer Softwaretechnologien zur Optimierung von Ablaufprozessen
  • Erweiterung bestehender Softwarelösungen
  • Einweisung von Kollegen in eigene Softwarekonzepte
  • Test und Verbesserung existierender C/C++ Softwarelösungen für Datenmappings von Kranken- und Lebensversicherungs Daten
  • Einführung von schnelleren Lösungen des Datenbankzugriffs mit SQL und C/C++ unter DB2
  • Entwurf von Java/JDBC und JSP Internetanwendungen (Point of Sales Frontend / Backend)
  • Programmierung von Anwendungen zur Visualisierung von Prozesszuständen in der täglichen Datenverarbeitung durch ein dynamisches HTML Frontend
  • Implementierung verteilter Software für Datenmigration (heute Grid Computing genannt!)
  • Realisierung von Business Spezifikationen in einer objektorientierten Softwaretechnologie, beispielsweise C++, Java

Aus- und Weiterbildung

Aus- und Weiterbildung

03/1998

Ausbildung: Studienfach Informatik

Abschluss: Diplom

Institution: Rheinische Friedrich-Wilhelms-Universität, Bonn


Schwerpunkte:

  • Petri Netze, Verteilte Systeme, Neuronale Netze, Computer Architektur, Computer Algorithmen
  • Nebenfach: Physik
    • Schwerpunkte: Atom- und Kernphysik


1988

Abschluss: Allgemeine Hochschulreife (Abitur)

Institution: Kollegschule, Kerpen-Horrem


Berufsabschluss: "Staatlich geprüfter Technischer Assistent Elektrotechnik"


Zertifikate

2007

Prince 2 Projektmanagement

Position

Position

  • Projekt Manager
  • Business Systems Analyst
  • Beratung und Consulting
  • Software-Entwicklung / Programmierung

Kompetenzen

Kompetenzen

Top-Skills

Data Modeling ETL Datenanalyse Programmiersprachen IBM InfoSphere DataStage Informatica PowerCenter MS SQL Server Integration Services SQL Python Linux Oracle Data Vault Scriptsprachen Java C/C++ DB/2

Schwerpunkte

Big Data
Business Intelligence
Data Warehouse
Programmierung

IT Schwerpunkte Data Warehouse Design und Architektur

  • Datenmigration und Datenintegration
  • Big Data Anwendungen
  • Metadaten Management
  • Programmierung
  • Qualitätssicherung von Daten und Prozesse


Fachliche Schwerpunkte

  • Kranken-/ Lebens-/ Auto-/ Sachversicherung
  • Stammdaten und CRM
  • Basel II / Target 2

Produkte / Standards / Erfahrungen / Methoden

Virtualisierung
VMWARE,VirtualPC

Methoden

  • Projektmanagement
  • Anforderungsmanagement
  • Datenmodellierung
  • Softwareengineering und SDLC
  • Systemanalyse und Systemintegration
  • Qualitätsmanagement, Release- und Change
  • Schulungen und Anwendercoaching


Technische Expertise

ETL Werkzeuge

  • IBM DataStage
  • Informatica Powercenter
  • Pentaho / Talend Data Integration
  • Mircrosoft SSIS


Big Data

  • Kafka Framework mit Connect
  • Avro Serialisierung
  • Schema Registry (JSON)


Reportingwerkzeuge

  • Tableau
  • SAP Business Objects (+DS)
  • Cognos


Datenmodellierung

  • Oracle SQL Developer Data Modeler
  • SAP / Sybase Powerdesigner
  • CA Erwin Data Modeler


Programmierwerkzeuge

  • Eclipse Umgebung mit entsprechenden PlugIns
  • MS Visual Studio
  • Make / ANT / Maven


Datenbankwerkzeuge

  • SQL Skripte
  • RapidSQL
  • phpMyAdmin
  • OO-Programmierung mit Embedded
  • SQL User Defined Functions / Stored Procedures (PL/SQL, Transact SQL)
  • QuerySurge


Software

  • Samba
  • Version Control (Subversion / CVS / PVCS / GIT)
  • Tortoise
  • Apache/Tomcat Webserver
  • GNU Toolchain
  • Directory Server (LDAP)


Office Anwendungen

  • MS Word
  • MS Excel
  • MS Access
  • MS Powerpoint
  • MS Visio
  • MS Project


Protokolle

  • HTTP
  • TCP/IP
  • PPP und Client/Server mit Socket Programmierung

Betriebssysteme

CP/M
Version 2.2 und 3.0
MS-DOS
Seit Version 2.11
MVS/OS390
OS/2
Version 2.2
OSF/Motif
Risc OS
Acorn Archimedes A3000 (ARM2-Chip)
SUN OS, Solaris
Linux/Unix
Erfahrung seit 1990!! z.B.: Linux 0.99, IBM AIX, HPUX, BSD
Windows
Erfahrung seit Windows 2.xx auf XT/AT Systemen
Windows CE
Mit was sonst läuft ein PDA neben Linux
VMWARE
VirtualPC

Programmiersprachen

Ada
Für EADS
Assembler
Z80,x86,ARM/XScale,ADFrio
Basic
C
MS Visual Studio, ARM SDK, Embedded Programmierung, LLVM
C#
STL, MFC, Generic Programming/Templates
C++
Visual Studio / Age, MFC, STL, GCC
CORBA IDL
Emacs
XEmacs
HTML
Imake, GNU-Make, Make-Maker etc...
Ant, Imake, Make, AutoTools
Java
JSP, Servlets, Applets, J2EE (Struts/Hibernate), Swing/AWT
JavaScript
Struts Framework (WebSphere, Eclipse, SunStudio), Servlets, Applets, Swing, AWT, J2EE, Javabeans, EJB, Hibernate
Maschinensprachen
ARM, Z80;AD-FRIO, x86 (siehe Assembler)
Pascal
Turbo Pascal
PHP
>=Version 4.0
PL/SQL
Qt
Rexx
Shell
BASH, KSH, CSH
Tcl/Tk
TeX, LaTeX
Seminare und Berichte in der Uni!
VBScript
VRML
Perfekt für 3D-Welten. Meine Spezialität dynamisch erzeugte 3D Bilder
XML/XSLT
Xt, Motif
yacc/lex
Python

Datenbanken

Access
FireBird
IBM
DB2: SQL/XML+XPATH/XQUERY; CDC 11.4
JDBC
In Java Anwendungen
MS SQL Server
MySQL
ODBC
u.a. Konfiguration in UNIX
Oracle
SQL, PL/SQL
SQL
Ja
Sybase
Teradata
AQT
TOAD 9.5
DBVisualizer
Squirrel
SQL Developer

Datenkommunikation

Bus
Fibre-Channel und PCI-Bus
Ethernet
Internet, Intranet
ISO/OSI
LAN, LAN Manager
parallele Schnittstelle
RFC
Router
RS232
SMTP
TCP/IP
Winsock

Hardware

Amiga
Atari
Bus
KVB, MVV, MTA, ÖBB, ..
CD-Writer / Brenner
Datapumps
Digitale Signalprozessoren
ARM/XSCALE, Z80; AD Frio, Risc-V
Drucker
embedded Systeme
Emulatoren
Cross Compiler, PC Emulatoren, VM Ware / Virtual PC
Hardware entwickelt
Dynamische FPGA Rekonfiguration, Schnittstellenkarten und Speichererweiterungen
HP
IBM Großrechner
IBM RS6000
Messgeräte
Alles was man für Computerreparatur/-Wartung benötigt
Mikrocontroller
Modem
Motorola
NEC
PC
Kann ich zusammenbauen, reparieren und konfigurieren
PLD, FPGA
Arbeit an einer Promotion in neue Technologien, u.a. mit VHDL
Proprietäre HW
Scanner
Soundkarten
Steuer und Regelsysteme
z.B.: Neuronale Systeme
SUN
Texas Instruments
Vektor-/Parallelrechner
Zuse
Habe ich im Museum berührt

Branchen

Branchen

  • Versicherung
  • Bank
  • Logistik
  • Chemie
  • Regierung
  • Softwarehersteller

Vertrauen Sie auf Randstad

Im Bereich Freelancing
Im Bereich Arbeitnehmerüberlassung / Personalvermittlung

Fragen?

Rufen Sie uns an +49 89 500316-300 oder schreiben Sie uns:

Das Freelancer-Portal

Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.