Aufbau und Design von ETL (Extract, Transform, Load) Datenpipelines unter Verwendung von Databricks und Microsoft Azure.
Gestaltung von Datenbanken und Datenstrukturen mit DataVault.
Entwicklung tabellarer Modelle mit Azure Analysis Services.
Erstellung und Bereitstellung von PowerBI-Dashboards für Stakeholder.
Austausch und Abstimmung mit Stakeholdern und externen IT-Dienstleistern.
Umwandlung von Stakeholder-Anforderungen in technische Aufgaben.
Verantwortung für alle Datenaspekte wie Qualität, Verfügbarkeit, Integrität und Korrektheit im spezifischen Bereich.
Entwicklung und Design des gesamten Zugangskontrollsystems für eine neue Azure Analytics Plattform, einschließlich DataLake und Databricks.
Gestaltung und Verwaltung von Schnittstellen, die Daten in den DataLake übertragen (APIs, Dateien, verschiedene Umgebungen).
Aufbau und Design von ETL-Datenpipelines hauptsächlich unter Verwendung von Databricks und Python.
Bereitstellung von PowerBI-Dashboards und der zugrunde liegenden Berichtsstruktur für Stakeholder.
Aktive Kommunikation mit Stakeholdern und externen IT-Dienstleistern zur Sicherstellung der Projektergebnisse.
Übersetzung der Anforderungen der Stakeholder in technische Aufgaben und deren Umsetzung.
Aufbau und Design von ETL (Extract, Transform, Load) Datenpipelines unter Verwendung von Databricks und Microsoft Azure.
Gestaltung von Datenbanken und Datenstrukturen mit DataVault.
Entwicklung tabellarer Modelle mit Azure Analysis Services.
Erstellung und Bereitstellung von PowerBI-Dashboards für Stakeholder.
Austausch und Abstimmung mit Stakeholdern und externen IT-Dienstleistern.
Umwandlung von Stakeholder-Anforderungen in technische Aufgaben.
Verantwortung für alle Datenaspekte wie Qualität, Verfügbarkeit, Integrität und Korrektheit im spezifischen Bereich.
Entwicklung und Design des gesamten Zugangskontrollsystems für eine neue Azure Analytics Plattform, einschließlich DataLake und Databricks.
Gestaltung und Verwaltung von Schnittstellen, die Daten in den DataLake übertragen (APIs, Dateien, verschiedene Umgebungen).
Aufbau und Design von ETL-Datenpipelines hauptsächlich unter Verwendung von Databricks und Python.
Bereitstellung von PowerBI-Dashboards und der zugrunde liegenden Berichtsstruktur für Stakeholder.
Aktive Kommunikation mit Stakeholdern und externen IT-Dienstleistern zur Sicherstellung der Projektergebnisse.
Übersetzung der Anforderungen der Stakeholder in technische Aufgaben und deren Umsetzung.