Data Warehouse / Business Intelligence / Data Engineering - Architektur / Modellierung / ETL / Reporting / Business Analyse
Aktualisiert am 14.03.2024
Profil
Referenzen (3)
Freiberufler / Selbstständiger
Remote-Arbeit
Verfügbar ab: 01.07.2024
Verfügbar zu: 100%
davon vor Ort: 20%
Business Intelligence
Datawarehouse
Data Engineer
ETL
Snowflake
Data Vault
Matillion
IBM InfoSphere DataStage
Informatica PowerCenter
Data Modeling
Design-Konzept
Java
Business Engineering
Anforderungsanalyse
Big Data Analytics
Datawarehouse
Teamleading
Technische Projektleitung
SAP BW4HANA
Data Engineer
Python
PowerBI
SAP BusinessObjects
Deutsch
Englisch

Einsatzorte

Einsatzorte

Mainz (+500km)
Deutschland, Schweiz, Österreich
möglich

Projekte

Projekte

11 Monate
2023-01 - 2023-11

Aufbau eines Data Warehouse im Bereich Wertpapier und Zahlungsverkehr T2/T2S

DWH Consultant ETL ETL Data Modeling Informationsintegration ...
DWH Consultant ETL

Die TARGET2/T2S-Konsolidierung ist neben TIPS und ECMS eines der drei Projekte, die das Eurosystem im Jahr 2017 zur Weiterentwicklung seiner Marktinfrastruktur auf den Weg gebracht hat.

Ziel des Projekts ist, das Leistungsangebot des Eurosystems im Bereich des Individualzahlungsverkehrs und der Wertpapierabwicklung durch die noch stärkere Nutzung gemeinsamer Komponenten und die weitere Automatisierung von Prozessen zu verbessern und Synergien zu heben.

Kernelemente der TARGET2/T2S-Konsolidierung sind die Einführung eines zentralen Liquiditätsmanagements, die Trennung des klassischen Individualzahlungsverkehrs von den Zentralbankoperationen sowie die flächendeckende Einführung des ISO 20022-Standards.

IBM InfoSphere DataStage IBM DB2 z/OS PowerDesigner Unix-Shell Cognos
ETL Data Modeling Informationsintegration Datenarchitektur
Deutsche Bundesbank
Remote
1 Jahr
2022-01 - 2022-12

Aufbau eines cloud-basierten Data Warehouse auf Azure-Basis im Energiehandel

Senior Cloud Data Engineer / Solution Architect Data Vault 2.0 SQL Python ...
Senior Cloud Data Engineer / Solution Architect

Aufbau eines cloud-basierten Data Warehouse (Snowflake auf Basis Microsoft Azure) im Bereich Energiehandel zur Verrechnung der Handelsgeschäfte von Kraftwerken. Die Realisierung erfolgte anhand eines mehrstufiges Schichten-Modells (DataLake, Stage, Raw/Business Data Vault, Data Mart). Die Kraftwerksverrechnung ist ein komplexes Verfahren, um die Handelsgeschäfte aller Kraftwerksanlagen zusammenzuführen und zu berechnen. Die herkömmliche Lösung auf Basis von Microsoft Excel war aufgrund der zunehmenden Datenmengen und ausufernden Komplexität nicht mehr wartbar und wurde durch eine moderne Data Warehouse-Architektur abgelöst.

Technische Rahmenbedingungen:
Data Lake: Microsoft Azure
Datenplattform: Snowflake
Datentransformation: Matillion
Datenmodellierung: SqlDBM auf Basis Data Vault 2.0
Reporting-Tool: Microsoft PowerBI 
Scripting: Python

Snowflake Matillion SqlDBM PowerBI DevOps
Data Vault 2.0 SQL Python Automatisierung
Unternehmen der Energiewirtschaft
Remote
2 Jahre
2020-01 - 2021-12

Erweiterung Data Warehouse

Business Analyst, Softwareentwickler und Architekt ETL Prozesse SLA Quality of Service
Business Analyst, Softwareentwickler und Architekt
Umfangreiche fachliche Erweiterung des konzernweiten Data Warehouse sowie betriebliche Optimierungen mit Einführung diverser Quality-Gates zur Sicherstellung definierter SLAs. 

SAP HANA IBM InfoSphere Datastage Red Hat Linux SAP BO
ETL Prozesse SLA Quality of Service
München
10 Monate
2019-03 - 2019-12

Datenbankmigration Data Warehouse IBM DB2 zu SAP HANA

Architekt und Entwickler ETL SQL
Architekt und Entwickler
Migration der Datenbank-Plattform des konzernweiten BI-Systems von IBM DB2 auf SAP HANA. Parallel erfolgte eine Anpassung (teilweise generisch) sämtlicher ETL-Prozesse auf Basis IBM InfoSphere Datastage. 

Definition von Notationen und Entwicklungsrichtlinien, Erstellung Skripte und Tools, Aufbau von Teststrategien, Implementation
SAP HANA IBM DB2 IBM InfoSphere DataStage
ETL SQL
München
1 Jahr 4 Monate
2017-11 - 2019-02

Integration BI-Landschaft zur Einführung eines neuen Versicherers im Gemeinschaftsverbund der Berufsgenossenschaften

Technische Projektleitung, Systemarchitektur
Technische Projektleitung, Systemarchitektur
Teilprojektleitung zur organisatorischen und technologischen Integration der gesamten Business Intelligence-IT-Landschaft zur Einführung eines neuen Versicherers im Gemeinschaftsverbund der Berufsgenossenschaften
IBM Websphere Datastage SAP Business Objects IBM DB2
Unfallversicherung
München
10 Jahre 3 Monate
2007-08 - 2017-10

Erweiterung eines nationalen, unternehmensweiten Data Warehouse zur Abdeckung des internen und externen Berichtswesens

Systemarchitekt, Fullstack-Entwickler, Entwickler Reporting, Entwickler ETL Datamart Datenbank-Modellierung Kimball ...
Systemarchitekt, Fullstack-Entwickler, Entwickler Reporting, Entwickler ETL

Erweiterung eines nationalen, unternehmensweiten Data Warehouse zur Abdeckung des internen und externen Berichtswesens

Während dieser langen Zeit habe ich mehrere Rollen eingenommen, anfangs Softwareentwickler für ETL und BO-Reporting später technologische Verantwortung für die gesamtheitliche DWH-Systemarchitektur. 

Aufgaben: 

Systemstrategie, Systemaufbau Operational Data Store (ODS) und DataMarts, Datenmodellierung, DataMart-Modellierung, DV-Konzepte, Best Practice-Guides, Modellierungsguides , Historisierungskonzepte, ETL- und BusinessObjects-Implementierung, Fachliche und datenbasierte Analysen

Datamart Datenbank-Modellierung Kimball Inmon ODS Historisierung analytische und konzeptionelle Fähigkeiten Technische Konzeption
Unfallversicherung
München

Aus- und Weiterbildung

Aus- und Weiterbildung

Ausbildung

seit 01.1999 selbständig tätig

04.1996 - 12.1998 Angestellter der IPS Software GmbH, Mainz
10.1992 - 03.1996 Studium der Informatik an der Fachhochschule Darmstadt

Abschluß Diplom-Informatiker (FH), Note 1,8



Zertifizierungen

+ 03.2024 Microsoft Certified: Power BI Data Analyst Associate (PL-300)

+ 02.2024 Certified Associate in Python Programming

+ 01.2024 Certified Entry-Level Python Programmer (PCEP-30-02)

+ 01.2024 Matillion Certified Associate

+ 12.2023 Snowflake SnowPro Core Certification ()

+ 06.2010 SAP Business Objects Certified Professional XI

+ 08.2007 Informatica Certified ETL Designer

+ 01.2005 IBM Certified DB Administrator

+ 12.2004 IBM Certified Solution Designer

+ 12.2004 IBM Certified Database Associate

+ 07.2004 XML Master Basic

+ 07.2004 IBM Certified Solution Developer

+ 06.2002 Sun Certified Web Component Developer for J2EE (SCWCD)

+ 05.2002 Sun Certified Programmer for Java2 Platform (SCJP2)

Position

Position

  • Data Warehouse / Business Intelligence
  • Solution Architect
  • Business Analyst
  • Data Modeling
  • Cloud Data Engineer
  • ETL/ELT


Kompetenzen

Kompetenzen

Top-Skills

Business Intelligence Datawarehouse Data Engineer ETL Snowflake Data Vault Matillion IBM InfoSphere DataStage Informatica PowerCenter Data Modeling Design-Konzept Java Business Engineering Anforderungsanalyse Big Data Analytics Datawarehouse Teamleading Technische Projektleitung SAP BW4HANA Data Engineer Python PowerBI SAP BusinessObjects

Produkte / Standards / Erfahrungen / Methoden

ETL/ELT
Experte
Datenmodellierung
Experte
Business Analyse
Experte

Cloudplattformen

· Microsoft Azure

· Amazon Web Service (AWS)

Datenbanken/Datenplattformen

· Snowflake (zertifiziert)

· IBM DB2 (zertifiziert)

· SAP HANA

· Oracle (inkl. PL/SQL)

· Microsoft SQLServer

· PostgreSQL/EnterpriseDB

Data Integration

· IBM InfoSphere DataStage

· Informatica (zertifiziert)

· Matillion (zertifiziert)

Business Intelligence & Reporting

· SAP BusinessObjects WebIntelligence (zertifiziert)

· Microsoft PowerBI

· Tableau

· Cognos

Programmiersprachen

· Java (zertifiziert)

· Javascript

· Python (zertifiziert)

· C/C++

Datenmodellierung
· SqlDBM
· Erwin ERX
· Innovator
· Quest Central for DB2
· Quest Toad Data Modeler

Productivity-/Collobaration-Tools
· JIRA
· DevOps

Betriebssysteme

CP/M
MS-DOS
5, 6
Novell
3.11
PalmOS
Unix
Aix, Linux, Sinix
Windows
seit 3.1 bis Windows 7

Programmiersprachen

C
ANSI-C, Microsoft C Version 1.52
C++
Microsoft Visual C++ 5 und 6 mit MFC
CORBA IDL
Gupta, Centura
Version 5.0.x; CTD 1.5.x und CTD 2000
Java
J2EE, JDK ab 1.2 (zertifiziert)
JavaScript
J2EE, JDK ab 1.2 (zertifiziert)

Datenbanken

DB2
UDB 5 bis 11.x
JDBC
1.x, 2.0 SE
Lotus Notes
bis V5
MS SQL Server
6.5, 7.0, 2000, 2005
MySQL
ODBC
Oracle
7.x, 8.x, 8i, 9i, 10, 11g
SAP
HANA 2.0
SQL
Spezialist SQL-92
Spezialist in Modellierung, Programmierung, Optimierung von Datenbanken,
horizontale und vertikale Partitionierung, verteilte Datenbanken, Trigger, Stored Procedures, etc.

Hardware

AS/400
PC
Siemens Großrechner
SUN

Branchen

Branchen

Bausparkassen
Banken
Energie
Unfallversicherung
Berufsgenossenschaft (öffentl. Verwaltung)
Kassenärztliche Vereinigung
IT Dienstleister
Softwarehersteller

Einsatzorte

Einsatzorte

Mainz (+500km)
Deutschland, Schweiz, Österreich
möglich

Projekte

Projekte

11 Monate
2023-01 - 2023-11

Aufbau eines Data Warehouse im Bereich Wertpapier und Zahlungsverkehr T2/T2S

DWH Consultant ETL ETL Data Modeling Informationsintegration ...
DWH Consultant ETL

Die TARGET2/T2S-Konsolidierung ist neben TIPS und ECMS eines der drei Projekte, die das Eurosystem im Jahr 2017 zur Weiterentwicklung seiner Marktinfrastruktur auf den Weg gebracht hat.

Ziel des Projekts ist, das Leistungsangebot des Eurosystems im Bereich des Individualzahlungsverkehrs und der Wertpapierabwicklung durch die noch stärkere Nutzung gemeinsamer Komponenten und die weitere Automatisierung von Prozessen zu verbessern und Synergien zu heben.

Kernelemente der TARGET2/T2S-Konsolidierung sind die Einführung eines zentralen Liquiditätsmanagements, die Trennung des klassischen Individualzahlungsverkehrs von den Zentralbankoperationen sowie die flächendeckende Einführung des ISO 20022-Standards.

IBM InfoSphere DataStage IBM DB2 z/OS PowerDesigner Unix-Shell Cognos
ETL Data Modeling Informationsintegration Datenarchitektur
Deutsche Bundesbank
Remote
1 Jahr
2022-01 - 2022-12

Aufbau eines cloud-basierten Data Warehouse auf Azure-Basis im Energiehandel

Senior Cloud Data Engineer / Solution Architect Data Vault 2.0 SQL Python ...
Senior Cloud Data Engineer / Solution Architect

Aufbau eines cloud-basierten Data Warehouse (Snowflake auf Basis Microsoft Azure) im Bereich Energiehandel zur Verrechnung der Handelsgeschäfte von Kraftwerken. Die Realisierung erfolgte anhand eines mehrstufiges Schichten-Modells (DataLake, Stage, Raw/Business Data Vault, Data Mart). Die Kraftwerksverrechnung ist ein komplexes Verfahren, um die Handelsgeschäfte aller Kraftwerksanlagen zusammenzuführen und zu berechnen. Die herkömmliche Lösung auf Basis von Microsoft Excel war aufgrund der zunehmenden Datenmengen und ausufernden Komplexität nicht mehr wartbar und wurde durch eine moderne Data Warehouse-Architektur abgelöst.

Technische Rahmenbedingungen:
Data Lake: Microsoft Azure
Datenplattform: Snowflake
Datentransformation: Matillion
Datenmodellierung: SqlDBM auf Basis Data Vault 2.0
Reporting-Tool: Microsoft PowerBI 
Scripting: Python

Snowflake Matillion SqlDBM PowerBI DevOps
Data Vault 2.0 SQL Python Automatisierung
Unternehmen der Energiewirtschaft
Remote
2 Jahre
2020-01 - 2021-12

Erweiterung Data Warehouse

Business Analyst, Softwareentwickler und Architekt ETL Prozesse SLA Quality of Service
Business Analyst, Softwareentwickler und Architekt
Umfangreiche fachliche Erweiterung des konzernweiten Data Warehouse sowie betriebliche Optimierungen mit Einführung diverser Quality-Gates zur Sicherstellung definierter SLAs. 

SAP HANA IBM InfoSphere Datastage Red Hat Linux SAP BO
ETL Prozesse SLA Quality of Service
München
10 Monate
2019-03 - 2019-12

Datenbankmigration Data Warehouse IBM DB2 zu SAP HANA

Architekt und Entwickler ETL SQL
Architekt und Entwickler
Migration der Datenbank-Plattform des konzernweiten BI-Systems von IBM DB2 auf SAP HANA. Parallel erfolgte eine Anpassung (teilweise generisch) sämtlicher ETL-Prozesse auf Basis IBM InfoSphere Datastage. 

Definition von Notationen und Entwicklungsrichtlinien, Erstellung Skripte und Tools, Aufbau von Teststrategien, Implementation
SAP HANA IBM DB2 IBM InfoSphere DataStage
ETL SQL
München
1 Jahr 4 Monate
2017-11 - 2019-02

Integration BI-Landschaft zur Einführung eines neuen Versicherers im Gemeinschaftsverbund der Berufsgenossenschaften

Technische Projektleitung, Systemarchitektur
Technische Projektleitung, Systemarchitektur
Teilprojektleitung zur organisatorischen und technologischen Integration der gesamten Business Intelligence-IT-Landschaft zur Einführung eines neuen Versicherers im Gemeinschaftsverbund der Berufsgenossenschaften
IBM Websphere Datastage SAP Business Objects IBM DB2
Unfallversicherung
München
10 Jahre 3 Monate
2007-08 - 2017-10

Erweiterung eines nationalen, unternehmensweiten Data Warehouse zur Abdeckung des internen und externen Berichtswesens

Systemarchitekt, Fullstack-Entwickler, Entwickler Reporting, Entwickler ETL Datamart Datenbank-Modellierung Kimball ...
Systemarchitekt, Fullstack-Entwickler, Entwickler Reporting, Entwickler ETL

Erweiterung eines nationalen, unternehmensweiten Data Warehouse zur Abdeckung des internen und externen Berichtswesens

Während dieser langen Zeit habe ich mehrere Rollen eingenommen, anfangs Softwareentwickler für ETL und BO-Reporting später technologische Verantwortung für die gesamtheitliche DWH-Systemarchitektur. 

Aufgaben: 

Systemstrategie, Systemaufbau Operational Data Store (ODS) und DataMarts, Datenmodellierung, DataMart-Modellierung, DV-Konzepte, Best Practice-Guides, Modellierungsguides , Historisierungskonzepte, ETL- und BusinessObjects-Implementierung, Fachliche und datenbasierte Analysen

Datamart Datenbank-Modellierung Kimball Inmon ODS Historisierung analytische und konzeptionelle Fähigkeiten Technische Konzeption
Unfallversicherung
München

Aus- und Weiterbildung

Aus- und Weiterbildung

Ausbildung

seit 01.1999 selbständig tätig

04.1996 - 12.1998 Angestellter der IPS Software GmbH, Mainz
10.1992 - 03.1996 Studium der Informatik an der Fachhochschule Darmstadt

Abschluß Diplom-Informatiker (FH), Note 1,8



Zertifizierungen

+ 03.2024 Microsoft Certified: Power BI Data Analyst Associate (PL-300)

+ 02.2024 Certified Associate in Python Programming

+ 01.2024 Certified Entry-Level Python Programmer (PCEP-30-02)

+ 01.2024 Matillion Certified Associate

+ 12.2023 Snowflake SnowPro Core Certification ()

+ 06.2010 SAP Business Objects Certified Professional XI

+ 08.2007 Informatica Certified ETL Designer

+ 01.2005 IBM Certified DB Administrator

+ 12.2004 IBM Certified Solution Designer

+ 12.2004 IBM Certified Database Associate

+ 07.2004 XML Master Basic

+ 07.2004 IBM Certified Solution Developer

+ 06.2002 Sun Certified Web Component Developer for J2EE (SCWCD)

+ 05.2002 Sun Certified Programmer for Java2 Platform (SCJP2)

Position

Position

  • Data Warehouse / Business Intelligence
  • Solution Architect
  • Business Analyst
  • Data Modeling
  • Cloud Data Engineer
  • ETL/ELT


Kompetenzen

Kompetenzen

Top-Skills

Business Intelligence Datawarehouse Data Engineer ETL Snowflake Data Vault Matillion IBM InfoSphere DataStage Informatica PowerCenter Data Modeling Design-Konzept Java Business Engineering Anforderungsanalyse Big Data Analytics Datawarehouse Teamleading Technische Projektleitung SAP BW4HANA Data Engineer Python PowerBI SAP BusinessObjects

Produkte / Standards / Erfahrungen / Methoden

ETL/ELT
Experte
Datenmodellierung
Experte
Business Analyse
Experte

Cloudplattformen

· Microsoft Azure

· Amazon Web Service (AWS)

Datenbanken/Datenplattformen

· Snowflake (zertifiziert)

· IBM DB2 (zertifiziert)

· SAP HANA

· Oracle (inkl. PL/SQL)

· Microsoft SQLServer

· PostgreSQL/EnterpriseDB

Data Integration

· IBM InfoSphere DataStage

· Informatica (zertifiziert)

· Matillion (zertifiziert)

Business Intelligence & Reporting

· SAP BusinessObjects WebIntelligence (zertifiziert)

· Microsoft PowerBI

· Tableau

· Cognos

Programmiersprachen

· Java (zertifiziert)

· Javascript

· Python (zertifiziert)

· C/C++

Datenmodellierung
· SqlDBM
· Erwin ERX
· Innovator
· Quest Central for DB2
· Quest Toad Data Modeler

Productivity-/Collobaration-Tools
· JIRA
· DevOps

Betriebssysteme

CP/M
MS-DOS
5, 6
Novell
3.11
PalmOS
Unix
Aix, Linux, Sinix
Windows
seit 3.1 bis Windows 7

Programmiersprachen

C
ANSI-C, Microsoft C Version 1.52
C++
Microsoft Visual C++ 5 und 6 mit MFC
CORBA IDL
Gupta, Centura
Version 5.0.x; CTD 1.5.x und CTD 2000
Java
J2EE, JDK ab 1.2 (zertifiziert)
JavaScript
J2EE, JDK ab 1.2 (zertifiziert)

Datenbanken

DB2
UDB 5 bis 11.x
JDBC
1.x, 2.0 SE
Lotus Notes
bis V5
MS SQL Server
6.5, 7.0, 2000, 2005
MySQL
ODBC
Oracle
7.x, 8.x, 8i, 9i, 10, 11g
SAP
HANA 2.0
SQL
Spezialist SQL-92
Spezialist in Modellierung, Programmierung, Optimierung von Datenbanken,
horizontale und vertikale Partitionierung, verteilte Datenbanken, Trigger, Stored Procedures, etc.

Hardware

AS/400
PC
Siemens Großrechner
SUN

Branchen

Branchen

Bausparkassen
Banken
Energie
Unfallversicherung
Berufsgenossenschaft (öffentl. Verwaltung)
Kassenärztliche Vereinigung
IT Dienstleister
Softwarehersteller

Vertrauen Sie auf GULP

Im Bereich Freelancing
Im Bereich Arbeitnehmerüberlassung / Personalvermittlung

Fragen?

Rufen Sie uns an +49 89 500316-300 oder schreiben Sie uns:

Das GULP Freelancer-Portal

Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.