Für die Entwicklung einer modernen, skalierbaren Datenplattform in Microsoft Azure wurden verschiedene Daten integriert ? darunter Instandhaltungs- und Logistikdaten aus SAP-Systemen, Material- und Ersatzteilverfolgung (Oracle, relationale DBs), systemübergreifende API-Daten. Aufbauend darauf wurden metadata-gesteuerte ELT-Pipelines mit Azure Synapse und PySpark implementiert. Dafür wurden Lakehouse Patterns (Delta Lake für ACID-Funktionalität, Time Travel, inkrementelle Loads) eingeführt. Die Plattform folgt einem Data-Mesh-Ansatz mit domänenorientierten Datenprodukten.
Darüber hinaus wird ein Proof of Concept für den Einsatz von Azure Databricks durchgeführt, um die bestehende Synapse-Landschaft schrittweise auf eine skalierbare Lakehouse-Architektur in Databricks zu migrieren.
Um die Vielzahl an neuen Berichts- und Analyseanforderungen im Retail Sektor zu erfüllen, wurde eine neue einheitliche und flexible Azure Cloud BI-Plattform aufgebaut. Die zentrale Daten- und Kennzahlenplattform beinhaltet sämtliche unternehmensrelevanten Daten und dient als Grundlage für alle Berichte und Analysen des Unternehmens. Die Analysemöglichkeiten decken verschiedene Granularitätsstufen vom einzelnen Kassenbon bis hin zu filial- und länderübergreifenden Wirtschaftlichkeitsauswertungen ab. Die Lösung gründet auf einer Modern Data Warehouse Architektur und unterstützen die digitale Prozessteuerung entlang der gesamten Wertschöpfungskette vom Einkauf über Bestände und Logistik bis hin zum Verkauf. Im Projekt wurde Scrum als Projektframework gelebt und als neuer Standard etabliert.
Performante Statistiken für das Recruiting:
Umsetzung erste Predictive Anteile und Erweiterung der Kundenstatistik:
Für den Kunden soll eine maßgeschneiderte Lösung in Form einer modernen, zukunftssicheren und cloudbasierten Data Lake Plattform in Microsoft Azure entwickelt werden. Ziel ist es, ein Datenmodell bereitzustellen, aus dem standardisierte Berichte und Dashboards die Kennzahlen aus den Fertigungs-Rückmeldungen, Betriebsauftrag, Fertigungsliste und Lagerbuchung abgebildet werden. Diese Berichte und Dashboards sollen im Anschluss mit Microsoft Power BI bereitgestellt werden. Hierfür müssen die Daten geladen, aufbereitet, vereinheitlicht und verknüpft werden
Zentraler Baustein der Lösung ist eine digitale Plattform, die auf Basis des SQL-Servers 2016 in der Azure Cloud aufgebaut wurde. Die Kaffeemaschinen des Herstellers sind mit Sensoren ausgestattet, die laufend Status- und Telemetriedaten in Echtzeit generieren und zur Cloud-Plattform senden. Dort werden die Daten gesammelt, aufbereitet und bereitgestellt. Zudem ist das Kunden-Netz an die Plattform angebunden und mit ihm weitere Datenquellen, wie CRM, ERP, Telemetrie-Datenbank und Mediapool. Infolgedessen fungiert die Plattform auch als Wissensdatenbank, die umfassende Informationen und Problemlösungen für Mitarbeiter und Kunden bündelt. In diesem Kontext werden vorhandene Textdokumente mit Docker Services extrahiert und der Azure Cortana Suite in verschieden Sprachen übersetzt. Die Echtzeitanalyse der Maschinen-Daten sowie die Vernetzung mit anderen Quellen über das Internet of Things ermöglichen schließlich ganz unterschiedliche digitale Innovationen. Diese werden in Form von nutzerfreundlichen Apps im modernen UX-Design bereitgestellt. Hinzu kommen Berichte in Power BI, die tiefergehenden Analysen ermöglichen. Daneben haben die Kunden des Unternehmens die Möglichkeit, über eine standardisierte Schnittstelle (API) auf Daten zuzugreifen und diese in eigene Anwendungen zu integrieren
Migration und Weiterentwicklung eines bestehenden Data Marts auf einer Microsoft Parallel Data Warehouse Appliance (PDW/APS)
Das Unternehmen gehört zu den größten Banken in Deutschland. Aufgrund gesetzlicher Vorgaben ist das Thema Compliance ein wichtiger Punkt bei der Bank. Hierzu existiert bereits ein Compliance Data Mart, der auf einem SQL-Server läuft. Dieser Data Mart soll wegen Performancegründen auf die APS/PDW migriert werden. Darüber hinaus sollen weitere Datenquellen hinzukommen. Somit soll der Data Mart weiterentwickelt werden.
Technische Hochschule Mittelhessen, Friedberg
Studiengang: Wirtschaftsinformatik
Abschluss: Master of Science (Note: 1,6)
2010 - 2013:
Technische Hochschule Mittelhessen, Friedberg
Studiengang: Wirtschaftsinformatik
Abschluss: Bachelor of Science (Note: 1,8)
2008 - 2010:
Kaufmännische Schule, Hanau (Fachoberschule)
Abschluss: Fachhochschulreife (Wirtschaftsinformatik)
Weiterbildung, Zertifikate:
2023 - 2023
2022 - 2022
2011 - 2011
Selbststudium:
Skillset:
Microsoft Azure
Big Data- und Business Intelligence (Skills)
Business Intelligence- und Big Data (Anwendungen)
Allgemeine Stärken:
Für die Entwicklung einer modernen, skalierbaren Datenplattform in Microsoft Azure wurden verschiedene Daten integriert ? darunter Instandhaltungs- und Logistikdaten aus SAP-Systemen, Material- und Ersatzteilverfolgung (Oracle, relationale DBs), systemübergreifende API-Daten. Aufbauend darauf wurden metadata-gesteuerte ELT-Pipelines mit Azure Synapse und PySpark implementiert. Dafür wurden Lakehouse Patterns (Delta Lake für ACID-Funktionalität, Time Travel, inkrementelle Loads) eingeführt. Die Plattform folgt einem Data-Mesh-Ansatz mit domänenorientierten Datenprodukten.
Darüber hinaus wird ein Proof of Concept für den Einsatz von Azure Databricks durchgeführt, um die bestehende Synapse-Landschaft schrittweise auf eine skalierbare Lakehouse-Architektur in Databricks zu migrieren.
Um die Vielzahl an neuen Berichts- und Analyseanforderungen im Retail Sektor zu erfüllen, wurde eine neue einheitliche und flexible Azure Cloud BI-Plattform aufgebaut. Die zentrale Daten- und Kennzahlenplattform beinhaltet sämtliche unternehmensrelevanten Daten und dient als Grundlage für alle Berichte und Analysen des Unternehmens. Die Analysemöglichkeiten decken verschiedene Granularitätsstufen vom einzelnen Kassenbon bis hin zu filial- und länderübergreifenden Wirtschaftlichkeitsauswertungen ab. Die Lösung gründet auf einer Modern Data Warehouse Architektur und unterstützen die digitale Prozessteuerung entlang der gesamten Wertschöpfungskette vom Einkauf über Bestände und Logistik bis hin zum Verkauf. Im Projekt wurde Scrum als Projektframework gelebt und als neuer Standard etabliert.
Performante Statistiken für das Recruiting:
Umsetzung erste Predictive Anteile und Erweiterung der Kundenstatistik:
Für den Kunden soll eine maßgeschneiderte Lösung in Form einer modernen, zukunftssicheren und cloudbasierten Data Lake Plattform in Microsoft Azure entwickelt werden. Ziel ist es, ein Datenmodell bereitzustellen, aus dem standardisierte Berichte und Dashboards die Kennzahlen aus den Fertigungs-Rückmeldungen, Betriebsauftrag, Fertigungsliste und Lagerbuchung abgebildet werden. Diese Berichte und Dashboards sollen im Anschluss mit Microsoft Power BI bereitgestellt werden. Hierfür müssen die Daten geladen, aufbereitet, vereinheitlicht und verknüpft werden
Zentraler Baustein der Lösung ist eine digitale Plattform, die auf Basis des SQL-Servers 2016 in der Azure Cloud aufgebaut wurde. Die Kaffeemaschinen des Herstellers sind mit Sensoren ausgestattet, die laufend Status- und Telemetriedaten in Echtzeit generieren und zur Cloud-Plattform senden. Dort werden die Daten gesammelt, aufbereitet und bereitgestellt. Zudem ist das Kunden-Netz an die Plattform angebunden und mit ihm weitere Datenquellen, wie CRM, ERP, Telemetrie-Datenbank und Mediapool. Infolgedessen fungiert die Plattform auch als Wissensdatenbank, die umfassende Informationen und Problemlösungen für Mitarbeiter und Kunden bündelt. In diesem Kontext werden vorhandene Textdokumente mit Docker Services extrahiert und der Azure Cortana Suite in verschieden Sprachen übersetzt. Die Echtzeitanalyse der Maschinen-Daten sowie die Vernetzung mit anderen Quellen über das Internet of Things ermöglichen schließlich ganz unterschiedliche digitale Innovationen. Diese werden in Form von nutzerfreundlichen Apps im modernen UX-Design bereitgestellt. Hinzu kommen Berichte in Power BI, die tiefergehenden Analysen ermöglichen. Daneben haben die Kunden des Unternehmens die Möglichkeit, über eine standardisierte Schnittstelle (API) auf Daten zuzugreifen und diese in eigene Anwendungen zu integrieren
Migration und Weiterentwicklung eines bestehenden Data Marts auf einer Microsoft Parallel Data Warehouse Appliance (PDW/APS)
Das Unternehmen gehört zu den größten Banken in Deutschland. Aufgrund gesetzlicher Vorgaben ist das Thema Compliance ein wichtiger Punkt bei der Bank. Hierzu existiert bereits ein Compliance Data Mart, der auf einem SQL-Server läuft. Dieser Data Mart soll wegen Performancegründen auf die APS/PDW migriert werden. Darüber hinaus sollen weitere Datenquellen hinzukommen. Somit soll der Data Mart weiterentwickelt werden.
Technische Hochschule Mittelhessen, Friedberg
Studiengang: Wirtschaftsinformatik
Abschluss: Master of Science (Note: 1,6)
2010 - 2013:
Technische Hochschule Mittelhessen, Friedberg
Studiengang: Wirtschaftsinformatik
Abschluss: Bachelor of Science (Note: 1,8)
2008 - 2010:
Kaufmännische Schule, Hanau (Fachoberschule)
Abschluss: Fachhochschulreife (Wirtschaftsinformatik)
Weiterbildung, Zertifikate:
2023 - 2023
2022 - 2022
2011 - 2011
Selbststudium:
Skillset:
Microsoft Azure
Big Data- und Business Intelligence (Skills)
Business Intelligence- und Big Data (Anwendungen)
Allgemeine Stärken: