Missionen: Ausgehend vom Aufbau eines zentralen Data-Hubs war es das Ziel verschiedene Use Cases zu implementieren.
Vorab definiert als cloud-only System, habe ich zum Teil gemeinsam mit Onecept-Freelancern den Data-Hub in Azure aufgebaut, der als Datenquelle für u.a. eine Service Management Applikation diente, welche ich in Outsystems implementiert habe. Weitere Projekte gingen einher mit einer exzessiven Erweiterung der Datenquellen, eines damit verbunden Aufbaues eines Data Lakes und später Delta Lakes und diente der Belieferung von Reporting-Plattformen, weiteren kleinen Applikationen als auch Schnittstellen zur Darstellung des Materialflusses innerhalb des Unternehmens als auch zu Kunden.
Konsumenten dieser Daten sind einerseits interne Fachbereiche, das Management des Unternehmens als auch externe Partner.
Für Aufgaben wie Power BI / Fabric Implementierungen können wir auf interne Ressourcen vertrauen, manche weitere Implementierungen lagern wir an externe Freelancer aus, mit denen wir seit Jahren ausgezeichnet zusammenarbeiten oder nützen diese für z.B. Code Reviews.Mission: Ein Data Warehouse from-scratch aufzubauen. Die Requirements wurden gemeinsam mit dem neu gegründeten BPM Team aligned und implementiert.
Verwendete Technologien: Talend Fabric, SSIS, PostgreSQL, SSIS, PowerBIMission: Einen globalen Data Lake from-scratch zu designen und zu
implementieren. Zu Beginn gab es nur die Idee, ein System zur Verfügung zu stellen, welches vor allem den Kunden erweiterte Analysemöglichkeiten bieten sollte. Dies alles geschah in einer neu gegründeten Division. Das heißt, das Leistungsspektrum reichte von organisatorischen Aufgaben, über Prozessdefinitionen, Team-Aufbau und Use-Case Definition und -Alignment bis hin zur Erarbeitung der Daten- und Systemarchitektur und Erstellung von PoC?s. Im Laufe der Coronakrise und der Betrugsaufdeckung richtete sich das Hauptaugenmerk auf interne betriebswirtschaftliche Kennzahlen und Unterstützung des Controllings.
Verwendete Technologien: Cloudera auf einer Hadoop Platform, Python, Scala, Streaming Technologien (v.a. Kafka) u.v.m.Mission: Internes Reporting der CEE durch ein Data Warehouse abzulösen
Ausgangspunkt war ein Legacy Reporting über Access welches ausschließlich manuell und zeitaufwendig war. Die ersten Use Cases waren die Painpoints des Managements ? zeitnah Kennzahlen geliefert zu bekommen. Die Datenintegration beinhaltete vier verschieden strukturierte Payment Gateways, zwei CRM Systeme, zwei Billing Systeme und mehrere Front-End Implementierungen. Nach einigen Monaten konnte ich ein Portal präsentieren, welches den internen Usern integrierte Daten aus einem Data Warehouse mit 15 minütiger Verzögerung bereit stellte.
Verwendete Technologien: Pentaho, MYSQL, PHP, PythonMissionen: Ausgehend vom Aufbau eines zentralen Data-Hubs war es das Ziel verschiedene Use Cases zu implementieren.
Vorab definiert als cloud-only System, habe ich zum Teil gemeinsam mit Onecept-Freelancern den Data-Hub in Azure aufgebaut, der als Datenquelle für u.a. eine Service Management Applikation diente, welche ich in Outsystems implementiert habe. Weitere Projekte gingen einher mit einer exzessiven Erweiterung der Datenquellen, eines damit verbunden Aufbaues eines Data Lakes und später Delta Lakes und diente der Belieferung von Reporting-Plattformen, weiteren kleinen Applikationen als auch Schnittstellen zur Darstellung des Materialflusses innerhalb des Unternehmens als auch zu Kunden.
Konsumenten dieser Daten sind einerseits interne Fachbereiche, das Management des Unternehmens als auch externe Partner.
Für Aufgaben wie Power BI / Fabric Implementierungen können wir auf interne Ressourcen vertrauen, manche weitere Implementierungen lagern wir an externe Freelancer aus, mit denen wir seit Jahren ausgezeichnet zusammenarbeiten oder nützen diese für z.B. Code Reviews.Mission: Ein Data Warehouse from-scratch aufzubauen. Die Requirements wurden gemeinsam mit dem neu gegründeten BPM Team aligned und implementiert.
Verwendete Technologien: Talend Fabric, SSIS, PostgreSQL, SSIS, PowerBIMission: Einen globalen Data Lake from-scratch zu designen und zu
implementieren. Zu Beginn gab es nur die Idee, ein System zur Verfügung zu stellen, welches vor allem den Kunden erweiterte Analysemöglichkeiten bieten sollte. Dies alles geschah in einer neu gegründeten Division. Das heißt, das Leistungsspektrum reichte von organisatorischen Aufgaben, über Prozessdefinitionen, Team-Aufbau und Use-Case Definition und -Alignment bis hin zur Erarbeitung der Daten- und Systemarchitektur und Erstellung von PoC?s. Im Laufe der Coronakrise und der Betrugsaufdeckung richtete sich das Hauptaugenmerk auf interne betriebswirtschaftliche Kennzahlen und Unterstützung des Controllings.
Verwendete Technologien: Cloudera auf einer Hadoop Platform, Python, Scala, Streaming Technologien (v.a. Kafka) u.v.m.Mission: Internes Reporting der CEE durch ein Data Warehouse abzulösen
Ausgangspunkt war ein Legacy Reporting über Access welches ausschließlich manuell und zeitaufwendig war. Die ersten Use Cases waren die Painpoints des Managements ? zeitnah Kennzahlen geliefert zu bekommen. Die Datenintegration beinhaltete vier verschieden strukturierte Payment Gateways, zwei CRM Systeme, zwei Billing Systeme und mehrere Front-End Implementierungen. Nach einigen Monaten konnte ich ein Portal präsentieren, welches den internen Usern integrierte Daten aus einem Data Warehouse mit 15 minütiger Verzögerung bereit stellte.
Verwendete Technologien: Pentaho, MYSQL, PHP, Python