Data Engineer & Data Architect mit 10+ Jahre Erfahrung: Azure & On-Prem | Databricks | Data Lake & Warehouse | Business Intelligence | SQL | Python
Aktualisiert am 05.11.2025
Profil
Freiberufler / Selbstständiger
Remote-Arbeit
Verfügbar ab: 01.12.2025
Verfügbar zu: 100%
davon vor Ort: 15%
Databricks
Datawarehouse
Microsoft Azure Cloud
Big Data
Business Intelligence
PySpark
SparkSQL
Python
Data Lake
MS SQL Server
C#
NoSQL
Database Developement/SQL
MS SQL Server Integration Services
Power BI
Microsoft Azure Data Factory
Microsoft Azure Synapse Analytics
API-Developement
Internet Of Things
Hadoop
Datenmodellierung nach Kimball/OLAP
Scrum
Data Lakehouse
Deutsch
Muttersprache
Türkisch
Muttersprache
Englisch
Sehr gut in Wort und Schrift

Einsatzorte

Einsatzorte

Frankfurt am Main (+500km)
Deutschland, Schweiz, Österreich
möglich

Projekte

Projekte

2 Jahre 4 Monate
2023-08 - heute

Aufbau einer Datenplattform mit Microsoft Azure Cloud

Senior Data Engineer (Azure) Python PySpark Datawarehouse ...
Senior Data Engineer (Azure)

Für die Entwicklung einer modernen, skalierbaren Datenplattform in Microsoft Azure wurden verschiedene Daten integriert ? darunter Instandhaltungs- und Logistikdaten aus SAP-Systemen, Material- und Ersatzteilverfolgung (Oracle, relationale DBs), systemübergreifende API-Daten. Aufbauend darauf wurden metadata-gesteuerte ELT-Pipelines mit Azure Synapse und PySpark implementiert. Dafür wurden Lakehouse Patterns (Delta Lake für ACID-Funktionalität, Time Travel, inkrementelle Loads) eingeführt. Die Plattform folgt einem Data-Mesh-Ansatz mit domänenorientierten Datenprodukten.

Darüber hinaus wird ein Proof of Concept für den Einsatz von Azure Databricks durchgeführt, um die bestehende Synapse-Landschaft schrittweise auf eine skalierbare Lakehouse-Architektur in Databricks zu migrieren.

Azure Data Lake Storage Azure Databricks Azure DevOps Azure Log Analytics Azure Monitor Azure Synapse Analytics Confluence Delta Lake Git Grafana Jira Microsoft Power BI Oracle relationale Datenbanken REST-APIs CSV SAP Databricks Asset Bundles Databricks Delta Live Tables (DLT)
Python PySpark Datawarehouse Data Lakehouse Databricks
Hamburg / Remote
2 Jahre 3 Monate
2021-04 - 2023-06

Aufbau einer DWH-Plattform nach dem Modern-Datawarehouse-Ansatz

ALM-Toolkit Azure Analysis Services Azure Data Factory ...

Um die Vielzahl an neuen Berichts- und Analyseanforderungen im Retail Sektor zu erfüllen, wurde eine neue einheitliche und flexible Azure Cloud BI-Plattform aufgebaut. Die zentrale Daten- und Kennzahlenplattform beinhaltet sämtliche unternehmensrelevanten Daten und dient als Grundlage für alle Berichte und Analysen des Unternehmens. Die Analysemöglichkeiten decken verschiedene Granularitätsstufen vom einzelnen Kassenbon bis hin zu filial- und länderübergreifenden Wirtschaftlichkeitsauswertungen ab. Die Lösung gründet auf einer Modern Data Warehouse Architektur und unterstützen die digitale Prozessteuerung entlang der gesamten Wertschöpfungskette vom Einkauf über Bestände und Logistik bis hin zum Verkauf. Im Projekt wurde Scrum als Projektframework gelebt und als neuer Standard etabliert.

  • Umsetzung von Extract-Load- und Transform-Prozessen (ELT) mittels Databricks im MDWH-Kontext
  • Orchestrierung von ELT-Prozessen durch Azure Data Factory
  • Entwicklung und Modellierung von tabularen Cubes/Datasets
  • Entwicklung von neuen und bestehenden Reports in PowerBI
  • Coaching der Entwickler seitens des Kunden in Backend-Themen
  • Anforderungsmanagement und Konzeptionierung von Use-Cases
  • Code-Repository-Verwaltung mit GIT

ALM-Toolkit Azure Analysis Services Azure Data Factory Azure Data Lake Gen1/Gen2 Azure Dev Ops Azure Functions Azure Storage Account Azure Synapse Analytics Azure VNets CI/CD Confluence Databricks/Spark Dax Studio GIT Jira Servicedesk Microsoft Azure Data Platform Microsoft Power BI Microsoft SQL Server Integration Services Power BI Embedded Tabular Editor Theobald Xtract IS
Handel
3 Jahre 6 Monate
2017-10 - 2021-03

Aufbau einer Datawarehouse-Platform für das Reporting im E-Recruiting

API-Entwicklung mit C# Azure Virtual Machine (IaaS) AWS Athena ...
  • Planung und Abstimmung der Anforderungen mit dem Fachbereich
  • Umsetzung und Orchestrierung von ETL-Prozessen durch SSIS
  • Entwicklung und Modellierung von multidimensionalen Cubes/Datasets
  • Entwicklung von neuen und bestehenden Reports in PowerBI
  • Coaching der Entwickler seitens des Kunden in Backend-Themen
  • Integration von Weblog-Daten mittels Polybase
  • API-Entwicklung
  • Erstellung von PowerBI- sowie SSRS-Reports
  • Aufbau eines PoCs für den Einsatz von Snowplow + Databricks zur Erfassung von Eventdaten
  • Operations & Maintenance


Performante Statistiken für das Recruiting:

  • Ausgangspunkt für die Lösung bildet ein SQL Data Warehouse mit Schichtenarchitektur, das in der Azure Cloud aufgebaut wurde. Hier werden unterschiedliche Quellen ? wie operative Datenbanken und Protokolldateien ? zusammengeführt und weiterverarbeitet. Die Aufbereitung der Daten erfolgt automatisiert und tagesaktuell. Über einen multidimensionalen Cube können die Mitarbeiter des Unternehmens eigene Analysen vornehmen sowie Power- BI-Berichte für die Kunden aufbauen und bereitstellen. Mit Hilfe einer eigens programmierten Schnittstelle sowie der Embedded-Funktion von Power BI werden die Berichte schließlich nahtlos in die Web-Applikation für Kunden überführt. Die Berechtigungsfunktionen von SQL-Server und Power BI stellen schließlich sicher, dass dem Kunden im Rahmen der Berichte nur die für ihn relevanten Daten angezeigt werden


Umsetzung erste Predictive Anteile und Erweiterung der Kundenstatistik:

  • In dieser Phase sollen bestimmte Vorhersagen im Bewerberprozess erstellt werden. Diese sollen dann dem Kunden zusätzliche Entscheidungshilfen bieten. Parallel soll die Kundenstatistik erweitert werden, um weitere Mehrwerte für den Endkunden offerieren zu können

API-Entwicklung mit C# Azure Virtual Machine (IaaS) AWS Athena Excel Pivot Microsoft Azure Microsoft PowerBI Microsoft Power BI Desktop Microsoft Power BI Embedded Microsoft SQL-Server 2016 Microsoft SSAS (Analysis Services) Microsoft SSIS (Integration Services) Microsoft SSRS (Reporting Services) Microsoft Polybase Microsoft Power BI Portal
Dienstleistungen
3 Monate
2020-10 - 2020-12

Pilotprojekt Modern DWH on Azure

Azure Data Lake Azure Dev Ops Azure SQL Database ...

Für den Kunden soll eine maßgeschneiderte Lösung in Form einer modernen, zukunftssicheren und cloudbasierten Data Lake Plattform in Microsoft Azure entwickelt werden. Ziel ist es, ein Datenmodell bereitzustellen, aus dem standardisierte Berichte und Dashboards die Kennzahlen aus den Fertigungs-Rückmeldungen, Betriebsauftrag, Fertigungsliste und Lagerbuchung abgebildet werden. Diese Berichte und Dashboards sollen im Anschluss mit Microsoft Power BI bereitgestellt werden. Hierfür müssen die Daten geladen, aufbereitet, vereinheitlicht und verknüpft werden

  • Aufsetzen der Modern Data Warehouse, Services in Azure, Konfiguration von Synapse Studio und Azure Data Lake
  • Erstellen von Data Pipelines zur Datenverarbeitung mittels Synapse
  • Einrichten der Azure SQL DB und Erstellung eines Datenmodells
  • Erstellung eines logischen Datenmodells in Power BI
  • Power BI + Power BI Embedded einrichten & parametrisieren

Azure Data Lake Azure Dev Ops Azure SQL Database Azure Synapse Microsoft Azure Microsoft Visual Studio Power BI Power BI Embedded
Fertigungs- & Prozessindustrie
2 Monate
2017-08 - 2017-09

Aufbau einer digitalen Plattform für Profi-Kaffeemaschinen

CRM-Vorsystem Microsoft SQL Server Microsoft SSIS

Zentraler Baustein der Lösung ist eine digitale Plattform, die auf Basis des SQL-Servers 2016 in der Azure Cloud aufgebaut wurde. Die Kaffeemaschinen des Herstellers sind mit Sensoren ausgestattet, die laufend Status- und Telemetriedaten in Echtzeit generieren und zur Cloud-Plattform senden. Dort werden die Daten gesammelt, aufbereitet und bereitgestellt. Zudem ist das Kunden-Netz an die Plattform angebunden und mit ihm weitere Datenquellen, wie CRM, ERP, Telemetrie-Datenbank und Mediapool. Infolgedessen fungiert die Plattform auch als Wissensdatenbank, die umfassende Informationen und Problemlösungen für Mitarbeiter und Kunden bündelt. In diesem Kontext werden vorhandene Textdokumente mit Docker Services extrahiert und der Azure Cortana Suite in verschieden Sprachen übersetzt. Die Echtzeitanalyse der Maschinen-Daten sowie die Vernetzung mit anderen Quellen über das Internet of Things ermöglichen schließlich ganz unterschiedliche digitale Innovationen. Diese werden in Form von nutzerfreundlichen Apps im modernen UX-Design bereitgestellt. Hinzu kommen Berichte in Power BI, die tiefergehenden Analysen ermöglichen. Daneben haben die Kunden des Unternehmens die Möglichkeit, über eine standardisierte Schnittstelle (API) auf Daten zuzugreifen und diese in eigene Anwendungen zu integrieren

  • Anbindung eines externen CRM-Systems an die Digitale Plattform
  • Identifizierung von relevanten Tabellen im Vorsystem
  • Datenintegration in die Digitale Plattform
  • Entwicklung von SSIS-Paketen

CRM-Vorsystem Microsoft SQL Server Microsoft SSIS
Fertigungs- und Prozessindustrie
1 Jahr
2016-07 - 2017-06

Migration und Weiterentwicklung eines bestehenden Data Marts

Microsoft Parallel Data Warehouse Microsoft SSIS Microsoft SQL Server ...

Migration und Weiterentwicklung eines bestehenden Data Marts auf einer Microsoft Parallel Data Warehouse Appliance (PDW/APS)

Das Unternehmen gehört zu den größten Banken in Deutschland. Aufgrund gesetzlicher Vorgaben ist das Thema Compliance ein wichtiger Punkt bei der Bank. Hierzu existiert bereits ein Compliance Data Mart, der auf einem SQL-Server läuft. Dieser Data Mart soll wegen Performancegründen auf die APS/PDW migriert werden. Darüber hinaus sollen weitere Datenquellen hinzukommen. Somit soll der Data Mart weiterentwickelt werden.

  • Entwicklung von Daten-Transformationen, ETL-Paketen und Datenbank-Skripten
  • Erstellung eines Ablaufplans für die initiale Beladung des Data Marts
  • Operations & Maintenance
Microsoft Parallel Data Warehouse Microsoft SSIS Microsoft SQL Server Programmierung mit C# und PowerShell UC4
Bankwesen
6 Monate
2016-01 - 2016-06

Entwicklung von IoT-Service-Prototypen

Entwicklung von IoT-Services Entwicklung von Streaming-Prozessen durch Storm und Spark Entwicklung einer NoSQL-Datenbank durch CassandraDB ...
Im Rahmen von Kunden-Workshops soll das Thema Digitalisierung in der Industrie (Industrie 4.0/IoT) vorgestellt werden. Hierzu sollen Prototypen im Kontext von Big Data/IoT entwickelt werden, die beispielhaft aufzeigen, wie Prozesse beim Kunden digitalisiert werden können. Dabei handelt es sich um Use-Cases wie Asset Tracking, Alerting sowie Predictive Maintenance.
  • Entwicklung von IoT-Services
  • Entwicklung von Streaming-Prozessen durch Storm und Spark
  • Entwicklung einer NoSQL-Datenbank durch CassandraDB
  • Aufbau und Administration der Hadoop-Landschaft auf Linux
Entwicklung von IoT-Services Entwicklung von Streaming-Prozessen durch Storm und Spark Entwicklung einer NoSQL-Datenbank durch CassandraDB Aufbau und Administration der Hadoop-Landschaft auf Linux Linux (CentOS) MQTT Predictive Maintenance Python Programming
Industrie

Aus- und Weiterbildung

Aus- und Weiterbildung

2013 - 2015:

Technische Hochschule Mittelhessen, Friedberg

Studiengang: Wirtschaftsinformatik

Abschluss: Master of Science (Note: 1,6)


2010 - 2013:

Technische Hochschule Mittelhessen, Friedberg

Studiengang: Wirtschaftsinformatik

Abschluss: Bachelor of Science (Note: 1,8)


2008 - 2010:

Kaufmännische Schule, Hanau (Fachoberschule)

Abschluss: Fachhochschulreife (Wirtschaftsinformatik)


Weiterbildung, Zertifikate:

2023 - 2023

  • Microsoft Certified: Azure IoT Developer Specialty (2023)


2022 - 2022

  • Microsoft Certified: Azure Data Engineer Associate (2022)


2011 - 2011

  • ITIL-Foundation (v3 2011)


Selbststudium:

  • Blockchain
  • Docker
  • Kubernetes
  • RedHat

Position

Position

  • Data Engineer & Data Analyst & Microsoft Azure Cloud

Kompetenzen

Kompetenzen

Top-Skills

Databricks Datawarehouse Microsoft Azure Cloud Big Data Business Intelligence PySpark SparkSQL Python Data Lake MS SQL Server C# NoSQL Database Developement/SQL MS SQL Server Integration Services Power BI Microsoft Azure Data Factory Microsoft Azure Synapse Analytics API-Developement Internet Of Things Hadoop Datenmodellierung nach Kimball/OLAP Scrum Data Lakehouse

Schwerpunkte

Advanced Analytics
API-Developement
Big Data
Business Intelligence
Databricks
Data Mining
(Modern) Data Warehouse
Database Developement & SQL
Microsoft Azure Cloud
Microsoft SQL Server
Microsoft SSIS
Microsoft SSAS
Microsoft Tabular Model
Microsoft PowerBI
Python
Spark
Git

Produkte / Standards / Erfahrungen / Methoden

Skillset:

Microsoft Azure

  • API-Management
  • App Services
  • Blob Storage
  • Data Lake Store Gen1/2
  • Databricks/Spark
  • DataFactory
  • DevOps
  • Event Hub
  • IoT Suite
  • Log Analytics
  • Machine Learning
  • PowerBI Embedded
  • SQL Database
  • Stream Analytics
  • Synapse
  • Virtual Machines


Big Data- und Business Intelligence (Skills)

  • Advanced Analytics
  • API-Entwicklung
  • Architektur BI / DWH
  • Dashboarding und Reporting
  • Data Lake Konzept
  • Daten Integration und Daten Modellierung nach Kimball/OLAP/DataVault
  • Datenbankimplementierung
  • DAX & MDX
  • Information Design
  • Internet of Things (IoT)
  • Master Data Management
  • Modern Data Warehouse Ansatz in der Microsoft Azure Cloud
  • Self Service


Business Intelligence- und Big Data (Anwendungen)

  • ALM-Toolkit
  • Azure DevOps
  • Codeverwaltung mit Git
  • Databricks/Spark
  • Dax Studio
  • Hortonworks Data Platform
  • Microsoft Azure (Cloud)
  • Microsoft HDInsight
  • Microsoft PowerApps
  • Microsoft SQL Server
  • Microsoft Visual Studio
  • Parallel DataWarehouse (PDW) / Microsoft Analytics Platform System (APS)
  • Power BI und Power BI Embedded
  • SQL Server Analysis Services (SSAS)
  • SQL Server Integration Services (SSIS)
  • SQL Server Reporting Services (SSRS)
  • Tabular Editor


Allgemeine Stärken:

  • Agiles Projektmanagement/Scrum
  • Anforderungsmanagement
  • Dokumentation
  • Konzeption & Entwicklung
  • Operations & Maintenance

Programmiersprachen

C#
Java
MS PowerShell
Python

Datenbanken

Cassandra DB
NoSQL
Cosmos DB
NoSQL
Data Lake Store/Blob Storage
Azure Cloud
Hadoop Filesystem, Hive
Microsoft SQL Server
PostgreSQL
Spark/Databricks

Einsatzorte

Einsatzorte

Frankfurt am Main (+500km)
Deutschland, Schweiz, Österreich
möglich

Projekte

Projekte

2 Jahre 4 Monate
2023-08 - heute

Aufbau einer Datenplattform mit Microsoft Azure Cloud

Senior Data Engineer (Azure) Python PySpark Datawarehouse ...
Senior Data Engineer (Azure)

Für die Entwicklung einer modernen, skalierbaren Datenplattform in Microsoft Azure wurden verschiedene Daten integriert ? darunter Instandhaltungs- und Logistikdaten aus SAP-Systemen, Material- und Ersatzteilverfolgung (Oracle, relationale DBs), systemübergreifende API-Daten. Aufbauend darauf wurden metadata-gesteuerte ELT-Pipelines mit Azure Synapse und PySpark implementiert. Dafür wurden Lakehouse Patterns (Delta Lake für ACID-Funktionalität, Time Travel, inkrementelle Loads) eingeführt. Die Plattform folgt einem Data-Mesh-Ansatz mit domänenorientierten Datenprodukten.

Darüber hinaus wird ein Proof of Concept für den Einsatz von Azure Databricks durchgeführt, um die bestehende Synapse-Landschaft schrittweise auf eine skalierbare Lakehouse-Architektur in Databricks zu migrieren.

Azure Data Lake Storage Azure Databricks Azure DevOps Azure Log Analytics Azure Monitor Azure Synapse Analytics Confluence Delta Lake Git Grafana Jira Microsoft Power BI Oracle relationale Datenbanken REST-APIs CSV SAP Databricks Asset Bundles Databricks Delta Live Tables (DLT)
Python PySpark Datawarehouse Data Lakehouse Databricks
Hamburg / Remote
2 Jahre 3 Monate
2021-04 - 2023-06

Aufbau einer DWH-Plattform nach dem Modern-Datawarehouse-Ansatz

ALM-Toolkit Azure Analysis Services Azure Data Factory ...

Um die Vielzahl an neuen Berichts- und Analyseanforderungen im Retail Sektor zu erfüllen, wurde eine neue einheitliche und flexible Azure Cloud BI-Plattform aufgebaut. Die zentrale Daten- und Kennzahlenplattform beinhaltet sämtliche unternehmensrelevanten Daten und dient als Grundlage für alle Berichte und Analysen des Unternehmens. Die Analysemöglichkeiten decken verschiedene Granularitätsstufen vom einzelnen Kassenbon bis hin zu filial- und länderübergreifenden Wirtschaftlichkeitsauswertungen ab. Die Lösung gründet auf einer Modern Data Warehouse Architektur und unterstützen die digitale Prozessteuerung entlang der gesamten Wertschöpfungskette vom Einkauf über Bestände und Logistik bis hin zum Verkauf. Im Projekt wurde Scrum als Projektframework gelebt und als neuer Standard etabliert.

  • Umsetzung von Extract-Load- und Transform-Prozessen (ELT) mittels Databricks im MDWH-Kontext
  • Orchestrierung von ELT-Prozessen durch Azure Data Factory
  • Entwicklung und Modellierung von tabularen Cubes/Datasets
  • Entwicklung von neuen und bestehenden Reports in PowerBI
  • Coaching der Entwickler seitens des Kunden in Backend-Themen
  • Anforderungsmanagement und Konzeptionierung von Use-Cases
  • Code-Repository-Verwaltung mit GIT

ALM-Toolkit Azure Analysis Services Azure Data Factory Azure Data Lake Gen1/Gen2 Azure Dev Ops Azure Functions Azure Storage Account Azure Synapse Analytics Azure VNets CI/CD Confluence Databricks/Spark Dax Studio GIT Jira Servicedesk Microsoft Azure Data Platform Microsoft Power BI Microsoft SQL Server Integration Services Power BI Embedded Tabular Editor Theobald Xtract IS
Handel
3 Jahre 6 Monate
2017-10 - 2021-03

Aufbau einer Datawarehouse-Platform für das Reporting im E-Recruiting

API-Entwicklung mit C# Azure Virtual Machine (IaaS) AWS Athena ...
  • Planung und Abstimmung der Anforderungen mit dem Fachbereich
  • Umsetzung und Orchestrierung von ETL-Prozessen durch SSIS
  • Entwicklung und Modellierung von multidimensionalen Cubes/Datasets
  • Entwicklung von neuen und bestehenden Reports in PowerBI
  • Coaching der Entwickler seitens des Kunden in Backend-Themen
  • Integration von Weblog-Daten mittels Polybase
  • API-Entwicklung
  • Erstellung von PowerBI- sowie SSRS-Reports
  • Aufbau eines PoCs für den Einsatz von Snowplow + Databricks zur Erfassung von Eventdaten
  • Operations & Maintenance


Performante Statistiken für das Recruiting:

  • Ausgangspunkt für die Lösung bildet ein SQL Data Warehouse mit Schichtenarchitektur, das in der Azure Cloud aufgebaut wurde. Hier werden unterschiedliche Quellen ? wie operative Datenbanken und Protokolldateien ? zusammengeführt und weiterverarbeitet. Die Aufbereitung der Daten erfolgt automatisiert und tagesaktuell. Über einen multidimensionalen Cube können die Mitarbeiter des Unternehmens eigene Analysen vornehmen sowie Power- BI-Berichte für die Kunden aufbauen und bereitstellen. Mit Hilfe einer eigens programmierten Schnittstelle sowie der Embedded-Funktion von Power BI werden die Berichte schließlich nahtlos in die Web-Applikation für Kunden überführt. Die Berechtigungsfunktionen von SQL-Server und Power BI stellen schließlich sicher, dass dem Kunden im Rahmen der Berichte nur die für ihn relevanten Daten angezeigt werden


Umsetzung erste Predictive Anteile und Erweiterung der Kundenstatistik:

  • In dieser Phase sollen bestimmte Vorhersagen im Bewerberprozess erstellt werden. Diese sollen dann dem Kunden zusätzliche Entscheidungshilfen bieten. Parallel soll die Kundenstatistik erweitert werden, um weitere Mehrwerte für den Endkunden offerieren zu können

API-Entwicklung mit C# Azure Virtual Machine (IaaS) AWS Athena Excel Pivot Microsoft Azure Microsoft PowerBI Microsoft Power BI Desktop Microsoft Power BI Embedded Microsoft SQL-Server 2016 Microsoft SSAS (Analysis Services) Microsoft SSIS (Integration Services) Microsoft SSRS (Reporting Services) Microsoft Polybase Microsoft Power BI Portal
Dienstleistungen
3 Monate
2020-10 - 2020-12

Pilotprojekt Modern DWH on Azure

Azure Data Lake Azure Dev Ops Azure SQL Database ...

Für den Kunden soll eine maßgeschneiderte Lösung in Form einer modernen, zukunftssicheren und cloudbasierten Data Lake Plattform in Microsoft Azure entwickelt werden. Ziel ist es, ein Datenmodell bereitzustellen, aus dem standardisierte Berichte und Dashboards die Kennzahlen aus den Fertigungs-Rückmeldungen, Betriebsauftrag, Fertigungsliste und Lagerbuchung abgebildet werden. Diese Berichte und Dashboards sollen im Anschluss mit Microsoft Power BI bereitgestellt werden. Hierfür müssen die Daten geladen, aufbereitet, vereinheitlicht und verknüpft werden

  • Aufsetzen der Modern Data Warehouse, Services in Azure, Konfiguration von Synapse Studio und Azure Data Lake
  • Erstellen von Data Pipelines zur Datenverarbeitung mittels Synapse
  • Einrichten der Azure SQL DB und Erstellung eines Datenmodells
  • Erstellung eines logischen Datenmodells in Power BI
  • Power BI + Power BI Embedded einrichten & parametrisieren

Azure Data Lake Azure Dev Ops Azure SQL Database Azure Synapse Microsoft Azure Microsoft Visual Studio Power BI Power BI Embedded
Fertigungs- & Prozessindustrie
2 Monate
2017-08 - 2017-09

Aufbau einer digitalen Plattform für Profi-Kaffeemaschinen

CRM-Vorsystem Microsoft SQL Server Microsoft SSIS

Zentraler Baustein der Lösung ist eine digitale Plattform, die auf Basis des SQL-Servers 2016 in der Azure Cloud aufgebaut wurde. Die Kaffeemaschinen des Herstellers sind mit Sensoren ausgestattet, die laufend Status- und Telemetriedaten in Echtzeit generieren und zur Cloud-Plattform senden. Dort werden die Daten gesammelt, aufbereitet und bereitgestellt. Zudem ist das Kunden-Netz an die Plattform angebunden und mit ihm weitere Datenquellen, wie CRM, ERP, Telemetrie-Datenbank und Mediapool. Infolgedessen fungiert die Plattform auch als Wissensdatenbank, die umfassende Informationen und Problemlösungen für Mitarbeiter und Kunden bündelt. In diesem Kontext werden vorhandene Textdokumente mit Docker Services extrahiert und der Azure Cortana Suite in verschieden Sprachen übersetzt. Die Echtzeitanalyse der Maschinen-Daten sowie die Vernetzung mit anderen Quellen über das Internet of Things ermöglichen schließlich ganz unterschiedliche digitale Innovationen. Diese werden in Form von nutzerfreundlichen Apps im modernen UX-Design bereitgestellt. Hinzu kommen Berichte in Power BI, die tiefergehenden Analysen ermöglichen. Daneben haben die Kunden des Unternehmens die Möglichkeit, über eine standardisierte Schnittstelle (API) auf Daten zuzugreifen und diese in eigene Anwendungen zu integrieren

  • Anbindung eines externen CRM-Systems an die Digitale Plattform
  • Identifizierung von relevanten Tabellen im Vorsystem
  • Datenintegration in die Digitale Plattform
  • Entwicklung von SSIS-Paketen

CRM-Vorsystem Microsoft SQL Server Microsoft SSIS
Fertigungs- und Prozessindustrie
1 Jahr
2016-07 - 2017-06

Migration und Weiterentwicklung eines bestehenden Data Marts

Microsoft Parallel Data Warehouse Microsoft SSIS Microsoft SQL Server ...

Migration und Weiterentwicklung eines bestehenden Data Marts auf einer Microsoft Parallel Data Warehouse Appliance (PDW/APS)

Das Unternehmen gehört zu den größten Banken in Deutschland. Aufgrund gesetzlicher Vorgaben ist das Thema Compliance ein wichtiger Punkt bei der Bank. Hierzu existiert bereits ein Compliance Data Mart, der auf einem SQL-Server läuft. Dieser Data Mart soll wegen Performancegründen auf die APS/PDW migriert werden. Darüber hinaus sollen weitere Datenquellen hinzukommen. Somit soll der Data Mart weiterentwickelt werden.

  • Entwicklung von Daten-Transformationen, ETL-Paketen und Datenbank-Skripten
  • Erstellung eines Ablaufplans für die initiale Beladung des Data Marts
  • Operations & Maintenance
Microsoft Parallel Data Warehouse Microsoft SSIS Microsoft SQL Server Programmierung mit C# und PowerShell UC4
Bankwesen
6 Monate
2016-01 - 2016-06

Entwicklung von IoT-Service-Prototypen

Entwicklung von IoT-Services Entwicklung von Streaming-Prozessen durch Storm und Spark Entwicklung einer NoSQL-Datenbank durch CassandraDB ...
Im Rahmen von Kunden-Workshops soll das Thema Digitalisierung in der Industrie (Industrie 4.0/IoT) vorgestellt werden. Hierzu sollen Prototypen im Kontext von Big Data/IoT entwickelt werden, die beispielhaft aufzeigen, wie Prozesse beim Kunden digitalisiert werden können. Dabei handelt es sich um Use-Cases wie Asset Tracking, Alerting sowie Predictive Maintenance.
  • Entwicklung von IoT-Services
  • Entwicklung von Streaming-Prozessen durch Storm und Spark
  • Entwicklung einer NoSQL-Datenbank durch CassandraDB
  • Aufbau und Administration der Hadoop-Landschaft auf Linux
Entwicklung von IoT-Services Entwicklung von Streaming-Prozessen durch Storm und Spark Entwicklung einer NoSQL-Datenbank durch CassandraDB Aufbau und Administration der Hadoop-Landschaft auf Linux Linux (CentOS) MQTT Predictive Maintenance Python Programming
Industrie

Aus- und Weiterbildung

Aus- und Weiterbildung

2013 - 2015:

Technische Hochschule Mittelhessen, Friedberg

Studiengang: Wirtschaftsinformatik

Abschluss: Master of Science (Note: 1,6)


2010 - 2013:

Technische Hochschule Mittelhessen, Friedberg

Studiengang: Wirtschaftsinformatik

Abschluss: Bachelor of Science (Note: 1,8)


2008 - 2010:

Kaufmännische Schule, Hanau (Fachoberschule)

Abschluss: Fachhochschulreife (Wirtschaftsinformatik)


Weiterbildung, Zertifikate:

2023 - 2023

  • Microsoft Certified: Azure IoT Developer Specialty (2023)


2022 - 2022

  • Microsoft Certified: Azure Data Engineer Associate (2022)


2011 - 2011

  • ITIL-Foundation (v3 2011)


Selbststudium:

  • Blockchain
  • Docker
  • Kubernetes
  • RedHat

Position

Position

  • Data Engineer & Data Analyst & Microsoft Azure Cloud

Kompetenzen

Kompetenzen

Top-Skills

Databricks Datawarehouse Microsoft Azure Cloud Big Data Business Intelligence PySpark SparkSQL Python Data Lake MS SQL Server C# NoSQL Database Developement/SQL MS SQL Server Integration Services Power BI Microsoft Azure Data Factory Microsoft Azure Synapse Analytics API-Developement Internet Of Things Hadoop Datenmodellierung nach Kimball/OLAP Scrum Data Lakehouse

Schwerpunkte

Advanced Analytics
API-Developement
Big Data
Business Intelligence
Databricks
Data Mining
(Modern) Data Warehouse
Database Developement & SQL
Microsoft Azure Cloud
Microsoft SQL Server
Microsoft SSIS
Microsoft SSAS
Microsoft Tabular Model
Microsoft PowerBI
Python
Spark
Git

Produkte / Standards / Erfahrungen / Methoden

Skillset:

Microsoft Azure

  • API-Management
  • App Services
  • Blob Storage
  • Data Lake Store Gen1/2
  • Databricks/Spark
  • DataFactory
  • DevOps
  • Event Hub
  • IoT Suite
  • Log Analytics
  • Machine Learning
  • PowerBI Embedded
  • SQL Database
  • Stream Analytics
  • Synapse
  • Virtual Machines


Big Data- und Business Intelligence (Skills)

  • Advanced Analytics
  • API-Entwicklung
  • Architektur BI / DWH
  • Dashboarding und Reporting
  • Data Lake Konzept
  • Daten Integration und Daten Modellierung nach Kimball/OLAP/DataVault
  • Datenbankimplementierung
  • DAX & MDX
  • Information Design
  • Internet of Things (IoT)
  • Master Data Management
  • Modern Data Warehouse Ansatz in der Microsoft Azure Cloud
  • Self Service


Business Intelligence- und Big Data (Anwendungen)

  • ALM-Toolkit
  • Azure DevOps
  • Codeverwaltung mit Git
  • Databricks/Spark
  • Dax Studio
  • Hortonworks Data Platform
  • Microsoft Azure (Cloud)
  • Microsoft HDInsight
  • Microsoft PowerApps
  • Microsoft SQL Server
  • Microsoft Visual Studio
  • Parallel DataWarehouse (PDW) / Microsoft Analytics Platform System (APS)
  • Power BI und Power BI Embedded
  • SQL Server Analysis Services (SSAS)
  • SQL Server Integration Services (SSIS)
  • SQL Server Reporting Services (SSRS)
  • Tabular Editor


Allgemeine Stärken:

  • Agiles Projektmanagement/Scrum
  • Anforderungsmanagement
  • Dokumentation
  • Konzeption & Entwicklung
  • Operations & Maintenance

Programmiersprachen

C#
Java
MS PowerShell
Python

Datenbanken

Cassandra DB
NoSQL
Cosmos DB
NoSQL
Data Lake Store/Blob Storage
Azure Cloud
Hadoop Filesystem, Hive
Microsoft SQL Server
PostgreSQL
Spark/Databricks

Vertrauen Sie auf Randstad

Im Bereich Freelancing
Im Bereich Arbeitnehmerüberlassung / Personalvermittlung

Fragen?

Rufen Sie uns an +49 89 500316-300 oder schreiben Sie uns:

Das Freelancer-Portal

Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.