2025 - 2026: Entwicklung und Analyse
Rolle: Data Warehouse Berater
Kunde: Atruvia AG, Karlsruhe, Deutschland
Aufgaben:
- Entwicklung und Erweiterung von ETL-Datenbeladungsjobs mit IBM DataStage und SQL Optimierung in einer IBM DB2 Umgebung im Rahmen der Agree21 Datenmigration
- Analyse der Datenqualität und Entwicklung von Testprozeduren
- Erstellung von Skripten in MS Powershell und Dokumentation vom GIT-Deploymentprozessen
Kenntnisse:RedHat Linux, IBM DB2 mit DB Visualizer, IBM InfoSphere DataStage 11.7, JIRA, TortoiseGIT, TortoiseSVN, Powershell Skripts
2022 - 2025: Entwicklung und Analyse
Rolle: Data Warehouse Berater
Kunde: Mobiliar Versicherung, Bern (Schweiz)
Aufgaben:
- Entwicklung und Datenmodellierung eines neuen Data Warehouse Kerns nach Absprache mit Fachabteilung
- Adhoc Auswertungen und Risikoanalyse auf Basis DWH-Kern für Fachseite
- Unterstützung beim Aufbau eines Business Layers basierend auf den DWH Kern
- Definition und Review von Daten Mapppings
- Entwicklung und Erweiterung von ETL-Datenbeladungsjobs mit IBM DataStage und PL/SQL in einer Oracle IBM DB2 (mit IDAA) und MS SQL Umgebung
- Analyse der Datenqualität und Entwicklung von Testprozeduren
- Prototyping von QuerySurge Routinen und Integration in IBM DataStage
- Einführung einer neuen Datenkomprimierung Funktionalität ins Data Warehouse
- Anbindung von Daten aus dem IBM CDC und dem Kafka/Avro, Schema Registry und Kafka Connect Framework mit IBM DataStage und der Java Integration Stage
- Eingebunden in Bereiche: Vertrag, Partner, Objekt, Produkt, Lokation, Schaden
- Aktualisierung SAP BO Reports, Universen und List-of-Values
- Test und Aktualisierung von InfoBurst Konfigurationen
- Reverse Engineering von historischen ETL Strecken und Fehlerbehebung
- Überwachung der täglichen Datenverarbeitung und Behebung von Beladungsproblemen
Kenntnisse:
RedHat Linux, IBM DB2 und Oracle 19c (JSON SQL), AQT/TOAD/SQL-Developer, IBM InfoSphere DataStage 11.7, IBM CDC 11.4, Kafka/Avro Framework, Schema-Registry, QuerySurge, Enterprise Architect, JIRA, TortoiseGIT, SAP BO
2020 - 2023: Data Warehouse Beratung
Rolle: Data Warehouse Berater
Kunde: Deutsche Bundesbank, Frankfurt (Deutschland)
Aufgaben:- Datenmodellierung Core Datawarehouse (Data Vault 2.0) für internationale Bankdaten
- Entwicklung von ETL-Datenbeladungsjobs mit IBM DataStage und Unix Bash Scripting
- Prototyping DataStage mit Unix-Steuerung und Generischer ETL-Datenbeladung
- Erstellung und Beladung von Fehlerprotokolltabellen und Views
- Erstellung von Mapping Spezifikationen
- Erstellung von XML-SQL Abfragen, Views und Extraktionen
- Analyse der Datenqualität und Test der Konsistenz
- Target2 Anbindung von Stammdaten CRDM und Transaktionsdaten RTGS/CLM
Kenntnisse:IBM DB2, DB-Visualizer 10.0, IBM InfoSphere DataStage 11.7, SAP PowerDesigner, JIRA, TortoiseSVN
2021: Entwicklung und Analyse
Rolle: Data Warehouse Berater
Kunde: PostFinance Bank, Bern (Schweiz)
Aufgaben:
- Analyse der Datenqualität und Test der Konsistenz
- Erstellung und Laufzeitoptimierung von AdHoc SQL-Abfragen (mit Indexoptimierung)
- Prototyping Partition und Tablespace Verteilung für große Tabellen
- Entwicklung von ETL-Datenbeladungsjobs in Python in einer IntelliJ Umgebung
- Optimierung Datenabfragegeschwindigkeit in der Oracle DB durch Indexe, Pragmas und Partitionierung
Kenntnisse:
Oracle 19c, TOAD / SQLDeveloper, IntelliJ mit Python, JIRA, TortoiseGIT
2016 - 2020: Data Warehouse Beratung
Rolle: Data Warehouse Berater
Kunde: Mobiliar Versicherung, Bern (Schweiz)
Aufgaben:- Entwicklung und Datenmodellierung eines neuen Data Warehouse Kerns nach Absprache mit Fachabteilung
- Adhoc Auswertungen und Risikoanalyse auf Basis DWH-Kern für Fachseite
- Unterstützung beim Aufbau eines Business Layers basierend auf den DWH Kern
- Definition und Review von Daten Mapppings
- Entwicklung und Erweiterung von ETL-Datenbeladungsjobs mit IBM DataStage und PL/SQL in einer Oracle IBM DB2 (mit IDAA) und MS SQL Umgebung
- Analyse der Datenqualität und Entwicklung von Testprozeduren
- Prototyping von QuerySurge Routinen und Integration in IBM DataStage
- Einführung einer neuen Datenkomprimierung Funktionalität ins Data Warehouse
- Anbindung von Daten aus dem IBM CDC und dem Kafka/Avro, Schema Registry und Kafka Connect Framework mit IBM DataStage und der Java Integration Stage
- Eingebunden in Bereiche: Vertrag, Partner, Objekt, Produkt, Lokation, Schaden
- Aktualisierung SAP BO Reports, Universen und List-of-Values
- Test und Aktualisierung von InfoBurst Konfigurationen
- Reverse Engineering von historischen ETL Strecken und Fehlerbehebung
- Überwachung der täglichen Datenverarbeitung und Behebung von Beladungsproblemen
Kenntnisse:Linux, IBM DB2 und Oracle 19c (JSON SQL), AQT/TOAD/SQL-Developer, IBM InfoSphere DataStage 11.7, IBM CDC 11.4, Kafka/Avro Framework, Schema-Registry, QuerySurge, Enterprise Architect, JIRA, TortoiseSVN/GIT, SAP BO
2014 - 2016: Migration vom MS Project Daten in eine Tableau Anwendung
Rolle: Manager und Solutions Architect
Kunde: Ernst & Young, Auckland (Neuseeland)
Aufgaben:- Einführung eines neuen Versicherungsdatenmodells basierend auf IBM IAA (Partner, Vertrag, Provision, Schaden, Produkt Geschäftssystem) mit entsprechender Data Warehouse Architektur
- Anbindung von OpenData Quellen mit MS-SSIS ETL-Werkzeug (WebServices/REST) für Banken
- Migration vom MS Project Daten in eine Tableau Anwendung
- Whitepaper zu BigData Architekturen basierend auf Hadoop und zugehörigen Distributionen
Kenntnisse:IBM IAA, MS-SQL Server (SSIS/SSRS), SAP PowerDesigner, BigData (Hadoop), Tableau
2014: Datenmigration von externen Quellsystemen in ein neues SAP FS-CD System
Rolle: Team Leitung und Data Migrations Experte
Kunde: SOKA-Bau Versorgungskasse, Wiesbaden
Aufgaben:- Team Leitung, Ansprechpartner bei der Auflösung von technisch/fachlichen Problemen
- Datenqualitätsanalyse von Vertrags und Exkasso/Inkasso Daten in einer Staging DB und in der SAP GUI
- Datenmigration von externen Quellsystemen in ein neues SAP FS-CD System
- Ist-Analyse, Erstellung Datenmappings und Datenanalyse in Zusammenarbeit mit dem Fachbereich
Kenntnisse:DB2 10.5, UNIX, SAP GUI, SQL Analytic Queries and VBS Scripts
2012 - 2013: Entwurf und Realisierung Datenextraktion nach Fachvorgaben für Provision-Schaden Auswertung
Rolle: Data Warehouse Berater
Kunde: Janitos, Heidelberg
Aufgaben:- Technische Leitung bei der Entwicklung eines Neutralen Versicherungs-Datenmodells in ETL mit Informatica, Befüllung Data Marts (Star-Schema und das neue Data Warehouse entspricht der Hub-Spoke-Architektur)
- AD-Hoc Queries für das Management Information System in PL/SQL und Optimierung mit Explain + Parallelisierung
- Entwurf und Realisierung Datenextraktion nach Fachvorgaben für Provision-Schaden Auswertung
- Optimierung von Datenextraktions-SQL für große Datenmengen in Struktur und Laufzeit, Versionierung mit SVN
Kenntnisse:Oracle 11g (PL/SQL), Oracle Data Modeler, SVN, SAP BO, DataStage 8.7, Talend
2012: Entwurf und Realisierung von ETL Jobs zur Datenextraktion
Rolle: IBM Websphere DataStage Spezialist
Kunde: SAP, Walldorf
Aufgaben:- Unterstützung bei Fehlerbehebung und Funktionserweiterung von ETL-Jobs eines CRM Systems
- Funktionales Testen der SOAP Komponenten und Unterstützung bei Softwareerweiterung
- Entwurf und Realisierung von ETL Jobs zur Datenextraktion
- Erstellung von Entwicklungs- und Testdokumentation für DataStage
- Optimierung von Datenextraktions-SQL für große Datenmengen im CRM System
- Einbindung von DataStage Webservices in SAP NetWeaver
Kenntnisse:Windows Server 2003/2008, SAPGUI, DataStage 7.52, DB2, SoapUI, SAP NetWeaver
2008 - 2012: Versionierung mit Jenkins und einem hauseigenen Werkzeug
Rolle: ETL-Experte Datenintegration
Kunde: Talanx-HDI-Gerling Versicherung, Köln
Aufgaben:- Erstellung von technischen Fachkonzepte und von Spezifikationen zur Migration vom Daten aus externen Quellen in ein dispositives Datenbanksystem mit Stammdatenhaltung (MDM)
- Datenmodellierung, Datenbankdesign, inklusive Optimierung von SQLs und Erstellung von Vorgaben für den Datenbankadministrator (Dispositives DWH als Hub-Spoke-Architektur)
- Versionierung mit Jenkins und einem hauseigenen Werkzeug
- Entwurf und Realisierung von SQL-Skripten und ETL Jobs zur Datenanalyse und Datenextraktion. Migration von Daten aus Fremdsystemen und Integration ins Datenmodell durch SQL-Loader Skripte in UNIX.
- Erweiterung von ETL Mappings, Dokumentation und Realisierung entsprechend Fachvorgaben
- Durchführung von Unit Tests (TAT/UAT) und Testdokumentation
- Design und Realisierung eines webbasierten Überwachungstools zur Fehleranalyse der täglichen Datenverarbeitung mit JAVA-Anwendung (JSP) und Webserverintegration. Java API für Datenzugriffe entworfen.
- Entwurf, Realisierung und Erweiterung von Steuerskripten (ksh) für ETL und Datenextraktion und Einbindung in das JobScheduling
- Wartung und Erweiterung eines Frontend-Werkzeuges für die Stammdaten-Darstellung im Webformat für die Fachseite
Kenntnisse:AIX, DB2, Oracle 10, DataStage 7.52, SQL/XML, Tomcat, JAVA, Shell, Eclipse, Jenkins
2008: Realisierung, Dokumentation und Unit Tests von ETL Mappings
Rolle: Informatica-ETL DWH Berater
Kunde: EuroHypo, Frankfurt
Aufgaben:- Realisierung, Dokumentation und Unit Tests von ETL Mappings
- Konfiguration und Durchführung von Unit Tests
- Erweiterung von bestehenden ETL Mappings entsprechend den Businessanforderungen
- Impact Analysis und Dokumentation von ETL Mapping Erweiterungen für SAP Systeme
- Programmierung von PL/SQL Stored Procedures
- GUI Programmierung von Diagnosewerkzeugen für DB Schnittstellen mit C# (Visual Studio .Net
Kenntnisse:AIX 6.1, Oracle 10, Informatica 7.1.3, TOAD 9.5, PL/SQL, Stored Procedures
weitere Projekte auf Anfrage
Remotetätigkeit wird bevorzugt!
Deutschland: Der Einsatzort sollte verkehrsgünstig liegen, d.h. einen Bahnhof oder einen Flughafen in der Nähe besitzen!
Weitere Länder: Der Einsatzort sollte verkehrsgünstig liegen, d.h. einen Bahnhof oder einen Flughafen in der Nähe besitzen!