Data Engineer und System Architect mit speziellem Fokus auf Azure Implementierungen.
Aktualisiert am 21.08.2024
Profil
Freiberufler / Selbstständiger
Remote-Arbeit
Verfügbar ab: 01.10.2024
Verfügbar zu: 100%
davon vor Ort: 20%
Solution Architect
Data Engineer
Apache Spark
Data Lake
Python
MS Azure SQL Database
Azure
Microsoft Fabric
Datenarchitektur
REST

Einsatzorte

Einsatzorte

Deutschland, Schweiz, Österreich
möglich

Projekte

Projekte

2 Jahre 9 Monate
2021-12 - heute

Fujitsu - ApplicationHub

System Architect & Data Engineer Python delta Lake data lake
System Architect & Data Engineer

Missionen: Ausgehend vom Aufbau eines zentralen Data-Hubs war es das Ziel verschiedene Use Cases zu implementieren.

Vorab definiert als cloud-only System, habe ich zum Teil gemeinsam mit Onecept-Freelancern den Data-Hub in Azure aufgebaut, der als Datenquelle für u.a. eine Service Management Applikation diente, welche ich in Outsystems implementiert habe. Weitere Projekte gingen einher mit einer exzessiven Erweiterung der Datenquellen, eines damit verbunden Aufbaues eines Data Lakes und später Delta Lakes und diente der Belieferung von Reporting-Plattformen, weiteren kleinen Applikationen als auch Schnittstellen zur Darstellung des Materialflusses innerhalb des Unternehmens als auch zu Kunden.

Konsumenten dieser Daten sind einerseits interne Fachbereiche, das Management des Unternehmens als auch externe Partner.

Für Aufgaben wie Power BI / Fabric Implementierungen können wir auf interne Ressourcen vertrauen, manche weitere Implementierungen lagern wir an externe Freelancer aus, mit denen wir seit Jahren ausgezeichnet zusammenarbeiten oder nützen diese für z.B. Code Reviews. 
Azure Azure Data Factory Synapse Analytics Data Lake
Python delta Lake data lake
Fujitsu
remote / Augsburg / München
1 Jahr 9 Monate
2021-05 - 2023-01

BayernInvest - Data Warehouse

Data Engineer Python
Data Engineer
Mission: Ein bestehendes Data Warehouse neu zu strukturieren und weitere Use Cases gemeinsam mit dem BI-Tech Lead zu implementieren. Wir deckten gemeinsam dem kompletten Zyklus von der Anforderungsanalyse, über Implementierung bis Testing und Operations ab. 
Pentaho Oracle
Python
BayernInvest
remote / München
7 Monate
2020-09 - 2021-03

Magna Powertrain - Data Warehouse

Data Engineer
Data Engineer

Mission: Ein Data Warehouse from-scratch aufzubauen. Die Requirements wurden gemeinsam mit dem neu gegründeten BPM Team aligned und implementiert.

Verwendete Technologien: Talend Fabric, SSIS, PostgreSQL, SSIS, PowerBI
Talend MS SQL Server Integration Services PostgreSQL MS Power BI
Magna Powertrain
remote / Lannach
1 Jahr 6 Monate
2019-02 - 2020-07

Wirecard - globaler Data Lake

Teamlead Data Engineering
Teamlead Data Engineering

Mission: Einen globalen Data Lake from-scratch zu designen und zu

implementieren. Zu Beginn gab es nur die Idee, ein System zur Verfügung zu stellen, welches vor allem den Kunden erweiterte Analysemöglichkeiten bieten sollte. Dies alles geschah in einer neu gegründeten Division. Das heißt, das Leistungsspektrum reichte von organisatorischen Aufgaben, über Prozessdefinitionen, Team-Aufbau und Use-Case Definition und -Alignment bis hin zur Erarbeitung der Daten- und Systemarchitektur und Erstellung von PoC?s. Im Laufe der Coronakrise und der Betrugsaufdeckung richtete sich das Hauptaugenmerk auf interne betriebswirtschaftliche Kennzahlen und Unterstützung des Controllings.

Verwendete Technologien: Cloudera auf einer Hadoop Platform, Python, Scala, Streaming Technologien (v.a. Kafka) u.v.m.
Cloudera Apache Spark Apache Stack Python Kafka
Wirecard CEE
Graz / München
2 Jahre 2 Monate
2017-01 - 2019-02

Wirecard CEE - Data Warehouse

Data Warehouse Engineer & Analyst
Data Warehouse Engineer & Analyst

Mission: Internes Reporting der CEE durch ein Data Warehouse abzulösen

Ausgangspunkt war ein Legacy Reporting über Access welches ausschließlich manuell und zeitaufwendig war. Die ersten Use Cases waren die Painpoints des Managements ? zeitnah Kennzahlen geliefert zu bekommen. Die Datenintegration beinhaltete vier verschieden strukturierte Payment Gateways, zwei CRM Systeme, zwei Billing Systeme und mehrere Front-End Implementierungen. Nach einigen Monaten konnte ich ein Portal präsentieren, welches den internen Usern integrierte Daten aus einem Data Warehouse mit 15 minütiger Verzögerung bereit stellte.

Verwendete Technologien: Pentaho, MYSQL, PHP, Python
Pentaho MySQL Python PHP
Wirecard CEE
Graz

Einsatzorte

Einsatzorte

Deutschland, Schweiz, Österreich
möglich

Projekte

Projekte

2 Jahre 9 Monate
2021-12 - heute

Fujitsu - ApplicationHub

System Architect & Data Engineer Python delta Lake data lake
System Architect & Data Engineer

Missionen: Ausgehend vom Aufbau eines zentralen Data-Hubs war es das Ziel verschiedene Use Cases zu implementieren.

Vorab definiert als cloud-only System, habe ich zum Teil gemeinsam mit Onecept-Freelancern den Data-Hub in Azure aufgebaut, der als Datenquelle für u.a. eine Service Management Applikation diente, welche ich in Outsystems implementiert habe. Weitere Projekte gingen einher mit einer exzessiven Erweiterung der Datenquellen, eines damit verbunden Aufbaues eines Data Lakes und später Delta Lakes und diente der Belieferung von Reporting-Plattformen, weiteren kleinen Applikationen als auch Schnittstellen zur Darstellung des Materialflusses innerhalb des Unternehmens als auch zu Kunden.

Konsumenten dieser Daten sind einerseits interne Fachbereiche, das Management des Unternehmens als auch externe Partner.

Für Aufgaben wie Power BI / Fabric Implementierungen können wir auf interne Ressourcen vertrauen, manche weitere Implementierungen lagern wir an externe Freelancer aus, mit denen wir seit Jahren ausgezeichnet zusammenarbeiten oder nützen diese für z.B. Code Reviews. 
Azure Azure Data Factory Synapse Analytics Data Lake
Python delta Lake data lake
Fujitsu
remote / Augsburg / München
1 Jahr 9 Monate
2021-05 - 2023-01

BayernInvest - Data Warehouse

Data Engineer Python
Data Engineer
Mission: Ein bestehendes Data Warehouse neu zu strukturieren und weitere Use Cases gemeinsam mit dem BI-Tech Lead zu implementieren. Wir deckten gemeinsam dem kompletten Zyklus von der Anforderungsanalyse, über Implementierung bis Testing und Operations ab. 
Pentaho Oracle
Python
BayernInvest
remote / München
7 Monate
2020-09 - 2021-03

Magna Powertrain - Data Warehouse

Data Engineer
Data Engineer

Mission: Ein Data Warehouse from-scratch aufzubauen. Die Requirements wurden gemeinsam mit dem neu gegründeten BPM Team aligned und implementiert.

Verwendete Technologien: Talend Fabric, SSIS, PostgreSQL, SSIS, PowerBI
Talend MS SQL Server Integration Services PostgreSQL MS Power BI
Magna Powertrain
remote / Lannach
1 Jahr 6 Monate
2019-02 - 2020-07

Wirecard - globaler Data Lake

Teamlead Data Engineering
Teamlead Data Engineering

Mission: Einen globalen Data Lake from-scratch zu designen und zu

implementieren. Zu Beginn gab es nur die Idee, ein System zur Verfügung zu stellen, welches vor allem den Kunden erweiterte Analysemöglichkeiten bieten sollte. Dies alles geschah in einer neu gegründeten Division. Das heißt, das Leistungsspektrum reichte von organisatorischen Aufgaben, über Prozessdefinitionen, Team-Aufbau und Use-Case Definition und -Alignment bis hin zur Erarbeitung der Daten- und Systemarchitektur und Erstellung von PoC?s. Im Laufe der Coronakrise und der Betrugsaufdeckung richtete sich das Hauptaugenmerk auf interne betriebswirtschaftliche Kennzahlen und Unterstützung des Controllings.

Verwendete Technologien: Cloudera auf einer Hadoop Platform, Python, Scala, Streaming Technologien (v.a. Kafka) u.v.m.
Cloudera Apache Spark Apache Stack Python Kafka
Wirecard CEE
Graz / München
2 Jahre 2 Monate
2017-01 - 2019-02

Wirecard CEE - Data Warehouse

Data Warehouse Engineer & Analyst
Data Warehouse Engineer & Analyst

Mission: Internes Reporting der CEE durch ein Data Warehouse abzulösen

Ausgangspunkt war ein Legacy Reporting über Access welches ausschließlich manuell und zeitaufwendig war. Die ersten Use Cases waren die Painpoints des Managements ? zeitnah Kennzahlen geliefert zu bekommen. Die Datenintegration beinhaltete vier verschieden strukturierte Payment Gateways, zwei CRM Systeme, zwei Billing Systeme und mehrere Front-End Implementierungen. Nach einigen Monaten konnte ich ein Portal präsentieren, welches den internen Usern integrierte Daten aus einem Data Warehouse mit 15 minütiger Verzögerung bereit stellte.

Verwendete Technologien: Pentaho, MYSQL, PHP, Python
Pentaho MySQL Python PHP
Wirecard CEE
Graz

Vertrauen Sie auf Randstad

Im Bereich Freelancing
Im Bereich Arbeitnehmerüberlassung / Personalvermittlung

Fragen?

Rufen Sie uns an +49 89 500316-300 oder schreiben Sie uns:

Das Freelancer-Portal

Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.