Reporting implementiert.
FP&A
Projektbeschreibung kommt
Die Sparte Merck Electronics beherbergt mehr als 280 Business Managed Applications (BMA). Den Entscheidungsträgern fehlen Erkenntnisse zu den charakteristischen Eigenschaften, insbesondere zu der Datenqualität der jeweiligen Applikationen. Zumal die Aktualität der Daten zu wünschen übriglässt. Der Wunsch des CIOs (= Ziel des Projektes) besteht in der Kostenreduzierung, Optimierung der Technology Risk Management (TRM) und in der Beschleunigung der Digitalisierung.
Pharmaunternehmen sind verpflichtet kausale kohärente Zusammenhänge (s.g. Signale) zwischen Medikamenten und unerwünschten Nebenwirkungen (adverse events) aufzudecken und entsprechende Maßnahmen zur Untersuchung, Dokumentation, ggf. zur Handlung und Meldung an die zuständigen Behörden einzuleiten. Gemäß den Richtlinien für Good Pharmacovigilance Practice (GVP) setzt sich der Signalmanagementprozess aus der Signal-Detektion, SignalValidierung, Signal-Analyse und dem Signal-Assessment (Evaluierung) zusammen.
Der Kunde - Merck KGaA ? hat die Signal-Detektierung mithilfe der Oracle EMPIRICA Signal Applikation im Jahre 2018 digitalisiert. Die Validierung und Evaluierung der detektierten Signale wurden mithilfe von makrobasierten Excel-Tabellen durchgeführt.
Innerhalb von zwei Wochen habe ich die Standard Operating Procedure (SOP) studiert. Resultierend aus den gewonnenen Erkenntnissen, habe ich sämtliche gegenwärtige Prozessabläufe, Aktionen, Akteure, Entitäten und involvierte Parteien / Departments mit einer grafischen Notation mithilfe von BPMN visualisiert, welche als Grundlage für die Sitzungen mit dem Prozess Owner (PO) zur Optimierung der realen Prozessabläufe herangezogen wurden.
Optimierung der Signal-Detektierung durch Einführung von Medical Subject Areas, wie bspw. Fatal, Serious, DME, SMQ, etc., um das Arbeitspensum der Safety Scientisten auf das Wesentliche zu reduzieren (Reduzierung von >500 potentiellen Fällen auf <30 relevante high-potential Medikament-NebenwirkungenAssoziationen pro Therapeutic Area / Woche)
GxP-konforme Erstellung von Design-Qualifikation (DQ), Installation-Qualifikation (IQ), Operational-Qualifikation (OQ) und die Performance-Qualifikation gemäß der Computerized System Validation (CSV) zur Genehmigung der beabsichtigten Prozessmodifikation (SOP).
Nach Genehmigung meines Digitalisierungsansatzes vom Validation Manager (VM) wurden mir drei interne Mitarbeiter aus der IT und der Entwicklungsabteilung zur Unterstützung bereitgestellt. Federführend habe ich die charakteristischen Prozesseigenschaften zur Signal-Validierung und -Evaluierung in eine technisch kompatible Prozess-Notation umgewandelt. Implizierend habe ich einen umfangreichen mehrdimensionalen (Sub-) Prozesskatalog erstellt, welche später zur Erstellung eines Aktivitätsplans zum Nachverfolgen der Projekt-Meilensteine verwendet wurde. Parallel habe ich die Benutzeranforderungen (URS) aktualisiert und dem Vendor (Oracle) zur Adaptierung der Functional Spezifikation (FS) und der späteren Implementierung zur Verfügung gestellt.
Managen des Implementierungsfortschritts in den Weekly TouchPoints mit dem Vendor. Monatliches Reporting des Projektstandes an die Stakeholder (R&D Direktor, Global IT System Owner, VM, PO).
Definition einer umfassenden Teststrategie zur Ausführung der PQ-Scripte für die Validierung der eingesetzten stochastischen Algorithmen. Dabei wurden sowohl die bayesschen Algorithmen, wie bspw. Empirical Bayes Geometric Mean (EBGM) als auch die frequentistischen Inferenzalgorithmen, wie bspw. Increased Frequency oder Relative Reporting Ratio (RR) mit ins Kalkül gezogen.
Die e-Topics Signale wurden über die Merck Exchange Plattform in den LabVantage Advanced Analytics Engine zur Erstellung der SPC Chartings geladen. Somit wurde den Safety Scientisten eine real-time, workflow-orientierte Visualisierung mit LabVantage Operational Intelligence gewährleistet. Ferner wurde den Safety Scientisten ein Self-Service-BI mithilfe der LabVantage Ad-hoc Query Tool ermöglicht. Dank dieser Integration wurden die Adverse Events mit den Proben in Verbindung gebracht.
Nach erfolgreichem Abschluss der UATs ist die EMPIRICA 9.x Applikation im Januar 2021 live gegangen. Im Anschluss habe ich ein gekapseltes, rollen-task-basiertes Modell nach dem Dispatcher & Delegation Ansatz bestehend aus 6 FTEs für das Daily Business für das EMPIRICA Team konzipiert.
Mit mehr als 2 Millionen Artikelvariationen, sowie mehr als 100.000 Never-Out-of-Stock Artikel steht der Kunde vor der Herausforderung, dass eine optimale Zuweisung von Artikeln an Stores, trotz dessen, dass die Anzahl der Allocators & Planer in den letzten Jahren stark zugenommen hat, zu wünschen übriglässt.
Analyse der Allocations-, Plan-, sowie Verkaufsdaten aller Stores der letzten 5 Jahren mittels quick-created Ad-hoc Reports
Interviewen der 20 Allocators, um deren Daily Business zu verstehen, insbesondere die Schwachstellen des eingesetzten Modells aus Anwendersicht aufzudecken
Aufdeckung großer Varianzen zwischen den allokierten Artikeln und der tatsächlichen Abverkäufe in bestimmten Verkaufsperioden bei manchen Artikeln und Stores
Berechnung der Akkuratesse der einzelnen Allocators (Top 5 Best & Worst). Ermittlung der Parameter, die für die Varianzen zwischen den Soll- und Ist-Werten verantwortlich sind. Erstellung eines prozessnahen Issue-Katalogs. Konzeption eines kausalen, variablen-basierten Modells für die Determinierung der Differenzen zwischen den Allocation Forecasts und der realen Absätze. Mappen der ermittelten Datenstrukturen (semantische Datenlogik) auf eine maschinenkonforme Pseudonotation zur Eruierung des Digitalisierungsgrades innerhalb eines Proof-ofConcepts.
Proof-of-Technology: Recherche von Standard-Tools, welche die Kundenanforderungen ? sprich, eine kosteneffiziente und eine innovative Produktzuweisung (Allocation) ?, abdecken
Evaluierung des Abdeckungsgrad der fachlichen Anforderungen unter Berücksichtigung von technischen, sowie kundenspezifischen Gegebenheiten. Insbesondere sind hierbei kritische Prozessdeadlines, Data Center Access, administrative, supportrelevante Themen und unterschiedliche Lizenzmodelle berücksichtigt worden (SLA Content Definition)
Präsentation der unterschiedlichen Lösungsansätze mit Fokus auf Budget, Implementierungsaufwand, Integration sowie Innovation & Zukunftsträchtigkeit mit den Executive Managern und dem Projekt Stakeholder
Ausarbeitung eines prädiktiven Petri-Netz-basierten Verfahrens auf Grundlage von historischen Allocations- und Verkaufsdaten, um eine variablengesteuerte, mehrdimensionale Clusterung pro Subject Area nach dem k-means-Algorithmus zu erzielen
Federführendes Monitoring der Umsetzung gemäß des zuvor definierten Aktivitätenplans, sowie monatliches Reporten des Projektfortschritts den Stakeholdern in den SC-Meetings
Konzeption und Implementierung eines generischen Frameworks auf der HANA Datenbank nach dem Code Push-Down Ansatz zur Realisierung einer zentralen Datenverteilung (Central Data Hub) für die Datenversorgung der eingesetzten JDA BY Allocate Applikation
Pilotprojekt: Konsumentenakzeptanzanalyse durch Einbeziehen von unternehmensfremden Daten (Kommentare, Likes, Shares, etc.) von Nutzern aus den sozialen Netzwerken mittels Verfahren basierend auf NLP
Senior Associate Partner
Projektziel: Gründung einer GmbH mit 10 Niederlassungen für das Verkehrsministerium zur Verwaltung der Autobahnen der Bundesrepublik, sowie Konsolidierung der Verwaltungsprozesse auf 3 Rechnungskreisen
Analyse der 16 Bundesländer hinsichtlich ihres kameralen Haushaltsplans im Berichtswesen
Unterstützung bei der Konsolidierung der Berichtsanforderungen der einzelnen Länder
Analyse der Data Lakes, sowie infrastrukturellen Applikations-, sowie Systemlandschaft der einzelnen Bundesländer zur Erzielung einer einheitlichen Datenbasis
Analyse des externen Berichtswesens für die Autobahn GmbH
Bis 2021 müssen die externen Verwaltungsberichte gegenüber dem Betriebsrat, dem Aufsichtsrat, dem Parlament und der Öffentlichkeit bereitstehen
Analyse folgender Berichte zur Erstellung eines Business Blueprints: Jahresabschluss, Quartalsbericht, Wirtschaftsplan, Investitionsplan, HR Stellenplan, Risikoberichterstattung, Verkehrsinfrastrukturbericht
Evaluierung der relevanten personenbezogenen Daten in Kooperation mit BCG Platinion zur Einigung auf einen Konsens zur Nutzung eines standarisierten Verfahrens. Andernfalls hätte der Prozess den Regularien des Betriebsrats unterliegen müssen.
Grobkonzeption für die ERP Systemlandschaft auf Basis von S/4HANA Finance, BW/4HANA, Embedded BI und SAP Cloud
Grobkonzept einer mit Sensorik, kognitiven Kameras, sowie mit Induktionsschleife bestückten intelligenten Autobahn
Konzeption von prädiktiven Maßnahmen unterstützt von Verfahren basierend auf der KI zur Gefahrenwarnung, sowie Vorhersagen auf Basis von Echtzeitdaten als auch auf Grundlage von Trends generiert auf Basis von historischen Daten.
Meetings mit den Executive PLM Managern, um deren Geschäftsanforderungen im Hinblick auf die Bereitstellung von Standardberichten, Management-Dashboards, mobilen BI- und Berichtsplanungen zu verstehen
Vorbereitung von Workshops auf der Basis bereits etablierter und realisierter Berichte und Dashboards in Cognos sowie hinsichtlich der neuen Anforderungen aus den Meetings mit den Senior Business Managern unter Berücksichtigung vereinbarter ITGovernance und interner Richtlinien mit dem Head of IT Services
Bereitstellung einer kosteneffizienten, schlanken und flexiblen Lösung, um eine reibungslose Migration zu ermöglichen
Einführung einer Berichtsmatrix mit verschiedenen Dimensionen wie Abteilung, Zielgruppe, Ausgabehäufigkeit, KPIs, Nutzung, Priorität usw. als Grundlage für den Business Blueprint
Delegieren des Fachkonzepts für die Implementierung und Überwachen der Implementierungsphase, um die Einhaltung der definierten Meilensteine sicherzustellen
Monatliches Reporten des Projektfortschritts an den CIO, sowie Diskussionen für neue Vorschläge und Eruierung von kritischen Entscheidungsmaßnahmen
Federführende Analyse der eingesetzten fachlichen Prozesse im Materialmanagement unter Berücksichtigung der strategischen zukünftigen Ambitionen und Ziele des Unternehmens in Abstimmung mit dem CIO
Optimierung der Produkthierarchie durch Einführung eines komponentenbasierten Ansatzes für eine umweltfreundlichere Herstellungsmaßnahme gemäß den Kriterien, welche von der Entwicklungsabteilung vordefiniert waren
Advisory bei der Neugestaltung des MaterialsBestandsmanagements
Eruierung von Optimierungsmaßnahmen für eine effiziente, rekonstruierbare Materialbewegung mittels RFID
Konzipierung eines Verfahrens für eine agile und realitätsnahe Bedarfsplanung
Konzipierung und Realisierung einer intelligenten Fertigungsstraße mit der Intention einer vernetzten Datenverarbeitung
Monatliche Projektfortschrittberichtserstattung an die Stakeholders in den SC-Meetings
Identifizierung der Merkmale, welche zur Ermittlung von zuverlässigen bzw. risikobehafteten Lieferanten dienen, im Rahmen eines Workshops mit den Executive Business Managern des Lieferantenmanagement Departments
Erfassung sämtlicher eingesetzter Verfahren und Methoden zur Lieferantenbewertung. Datenerhebung aus allen SRM relevanten Systemen, Datenbanken, Excels und Applikationen
Erstellen von Scoring-Faktoren, die den Risikograd eines jeden Lieferanten identifizieren, wie bspw. der Financial Health Check, die Single Source of Classification, Green Environment Konformität, Produktionssicherheit, oder auch der Abhängigkeitsgrad von einem Lieferanten. Mehr als 20 Risikofaktoren wurden identifiziert und auf der Grundlage der gewonnenen Erkenntnisse aus den historischen Daten gewichtet.
Bestimmung von Gewichtungsfaktoren und deren Zuordnung zu den einzelnen Bewertungsfaktoren in Zusammenarbeit mit den SRM-Verantwortlichen. Konzipierung eines autodidaktischen Systems, welches äquivalente Inputs mit den Ergebnissen aus vorangegangenen Berechnungen vergleicht und optimiert.
Klassifizierung der Scoring-Faktoren in sechs verschiedene Kategorien mit unterschiedlichen Berechnungskriterien
Unterteilen des Lieferanten in Bezug auf ihre Assessment Level in drei verschiedenen Gruppen
Erstellung eines Scorecards (Matrix), um eine mehrdimensionale Supplier Health Check Evaluierung zu ermöglichen
Evaluierung der Berechnungslogik mit dem Fachbereich und Definition von wesentlichen Vorgaben für das Erstellen eines Business Blueprints
Prototyping: Leitung der Entwicklung eines funktionstüchtigen, allerdings vereinfachten Excel-basierten Prototyps (Mockup) unter Berücksichtigung von unterschiedlichen Aggregationsebenen mit entsprechender Berechnungslogik sowie unter Einhaltung von definierten Ausnahmeregelungen, um die Validierung des Vorhabens mit dem CIO transparenter und intuitiver zu gestalten.
Iterative und sukzessive Optimierung der Berechnungslogik dank des interaktiven Prototyps
Product Owner im Scrum Team, Begleitung der Implementierung
Beratung des Entwicklerteams hinsichtlich der SW-Architektur, um einen flexiblen und generischen Lösungsansatz unter Verwendung von gängigen Entwurfsmustern zu ermöglichen
Definition der SLA Agreements mit dem Kunden
Leitung der Hypercare- und Wartungsphase
Ermittlung des Status-Quos: Top Level Management Beratung bei der Ist-Analyse des Logistikprozesses der Deutschen Bundeswehr
Anforderungsanalyse und Erstellung eines gewichteten mehrdimensionalen Anforderungskatalogs. Mapping von Anforderungen auf Sub-/Prozessen.
Prozess-Visualisierung mithilfe einer grafischen Notation zur Besprechung mit den Stakeholdern und Executive Managern
Erstellung eines PoC?s, um die Machbarkeit eines optimierten, agilen Ansatzes mit den entsprechenden Verantwortungsträgern zu eruieren
Konzipierung eines Verfahrens (basierend auf gewichteten PetriNetzen) zur Optimierung des Logistikprozesses innerhalb der Deutschen Bundeswehr
Leitung von interaktiven Workshops zur Präsentation des Vorhabens mit den zuständigen Verantwortlichen aus dem Fachbereich
Involvierung den Head of IT Verantwortlichen zur Abstimmung des von mir erstellten Roadmaps zur Definition der Meilensteine und zur Festlegung der Delivery Termine
Input für das Erstellen des Fachkonzepts. Managen der Implementierung. Go-Live Dezember 2018
Management Consulting zur Identifizierung von Risikofaktoren im Devisen- und Kreditgeschäft bei der Deutschen Bundesbank
Konzipierung eines globalen, mehrdimensionalen KPI Katalogs, um konsolidierte Risikofaktoren in Bezug auf Währungspositionen, Anleihen, Fonds, Aktien, Marktsegmentierung und Investments miteinander zu assoziieren
Assoziierung von unternehmenseigenen Kennzahlen mit erworbenen Fremddaten von Financial Institution, um out-of-thebox neue Insights hinsichtlich der Risikomitigation zu gewinnen. Konzipierung eines kognitiven Kennzahlmodells zur Überwachung der ermittelten Risikofaktoren
Unterstützung des Finance Executive Teams bei der Definition ihrer funktionalen Anforderungen
Erstellen eines Business-Anforderungskatalogs als Richtlinie für den späteren technischen Blueprint
Konzipierung eines Verfahrens auf Basis der künstlichen Intelligenz zur Prüfung der Kreditwürdigkeit
Leitung des Implementierungsteams bei der Umsetzung des konzipierten Architekturmodells und Sicherstellung der Erfüllung der vorgegebenen QM-Maßnahmen
Ermittlung des Status Quo?s der Kostenrechnungsprozesse mit der Intention zur Breitstellung eines Management Margin Accounting Reportings
Kategorisierung und Klassifizierung der unterschiedlichen Typen von variablen Kosten
Definieren von Strategien zur Berechnung von Fixkosten in Zusammenarbeit mit dem Fachbereich
Unterteilung der einzelnen Margin Accounting Posten auf unterschiedliche Energieprodukte
Analyse der Ist-Wert-Flüsse und Durchführung der Wirtschaftlichkeitsanalyse in Zusammenarbeit mit dem Head of Controlling
Konzeption einer n-dimensionalen Matrix zur Darstellung des KPI-Margin-Account-Modells
Delegieren des Business Blueprints für die Realisierung an das Entwicklerteam und Überwachung der Implementierungsphase
Entwicklung von Strategien für einen optimierten, globalen und umfassenden Beschaffungsprozess innerhalb des RWE-Konzerns
Definition von Materialgruppen und Zuordnung aller vorhandenen Materialien zu entsprechenden Gruppen nach festgelegten Regeln
Optimierung des Einkaufsprozesses durch Substitution festverdrahteter Geschäftsprozesse durch parameterbasierte Prozesse sowie durch Konsolidierung äquivalenter Teilprozesse
Erweiterung von Material- und Anlagenstammdaten zur Vereinheitlichung der Stammdaten
Festlegung von Einkaufsgruppen bezüglich Verfügbarkeit, Region und Verantwortungsbereich.
Übertragung der anonymisierten Benutzeraktivitäten in die BILandschaft und Ermöglichung eines Sales Reportings, sowie eines high-level aggregierten Management Dashboardings mit dem Ziel zur Optimierung des Einkaufsprozesses
Design von interaktiven Dashboard Gadgets für die Top 10 KPIs nach den bewährten Gartner Best-Practices für den Einkauf, für die Beschaffung sowie für das Marketing
Re-Design eines bereits implementierten unternehmensspezifischen Allocation-Programms zur Verbesserung der Genauigkeit des Matching-Prozesses
Ermittlung des Status Quos durch Interviewen der Power / Key User aus der Warensteuerung
Konzipierung einer Web-Benutzeroberfläche zur Anwendung von Allocationsregeln im SAP Portal. Über die Webschnittstelle ist der Allocation Manager imstande unterschiedliche relevante Zuweisungsstrategien pro Warengruppe und Land zu definieren
Implementierung eines Nachverfolgungsverfahren auf Grundlage der RFID Technologie zum Tracen von Kleidungsstücken innerhalb der Wertschöpfungskette
Einführung einer globalen unternehmensweiten Reporting- und Planning-Strategie für die Warensteuerung in Europe und in Asien
Definition der Top 10 Regal KPIs für Europa und Asien in Abstimmung mit den entsprechenden Merchandise Managern
Harmonisierung der Stammdaten aus den europäischen und asiatischen Systemen gemäß der bereits definierten Harmonisierungsregeln
Optimierung der ?Zielgruppen? Ebene in der Warengruppenhierarchie durch stochastische Clustering Algorithmen (k-means).
Einführung einer globalen unternehmensweiten Warenhierarchie
Kostenreduzierung der Prototyping Kosten für die Serienproduktion durch Einbinden von Konsumentendaten von äquivalenten Produkten von Konkurrenten aus sozialen Netzwerken. Ermöglichung einer Trendanalyse basierend auf Daten aus den sozialen Netzwerken
Konzipierung einer Control Cockpit zur Filterung der Social Media Daten nach verschiedenen Auswahlkriterien
Definition eines Verfahrens nach dem Prinzip Single-Point-of-Contact und Delegation zur Out-Sourcing der Implementierung nach Indien
Ermittlung des Status-Quos im Berichtswesen durch Analyse der implementierten Datenflüsse über unterschiedliche Departments hinweg
Aufnahme der neuen Geschäftsanforderungen für die zu implementierenden Management Dashboards
Integration der neuen Geschäftsanforderungen in die bestehende BI Landschaft
Extraktion und Harmonisierung der relevanten Quelldaten aus unterschiedlichen Non-SAP-Systemen mithilfe des ETLProzesses
Erstellen eines funktionalen light-Version Mockups für die Management Dashboards zur finalen Abstimmung mit den Entscheidungsträgern
Implementierung der Dashboards für Desktop-, sowie für mobile Anwendung
Evaluierung und Optimierung des Konsolidierungsprozesses innerhalb des Bayer-Konzerns in Zusammenarbeit mit einem Team von 20 IT & Business Consultants gemäß der GVP Richtlinien, sowie des unternehmensinternen Standard Operation Prozesses (SOP)
Meetings mit den Stakeholdern um die High-Level Projektziele zu definieren. Fachliche Anforderungsanalyse mit dem VP Head of Controlling, um herauszufinden, wie aus Controllings-Sicht die elementaren Einzelposten zur Definition der Gesamtkosten eines Endproduktes nach dem GMP Prozess zu bewerten sind
Analyse der Unternehmensstrukturen innerhalb des Controlling Departments zur Erstellung eines Peer-to-Peer Lieferanten-/ Konsumenten-Netzes bestehend aus den Tochtergesellschaften. Grafische Prozessdarbietung des Status Quos mithilfe der Modellierungsnotation BPMN.
Klassifizierung der Produktions- und Beschaffungskosten in internen und externen Kategorien in Abstimmung mit dem Process Owner (PO)
Aufschlüsselung der internen Kosten auf Material, Produktion, Transport und Sonstiges
Konzeption eines rekursiven GVP-validierten Algorithmus, um Material-, Fracht- und Produktionskosten pro Kategorie nach IAS/ IFRS-Richtlinien zu eliminieren (Zwischengewinneliminierung)
Sukzessive Summierung der Sub-Gewinne zur Bestimmung der Netto-Marge eines Produktes nach dem Intermediate Profit Elimination Prozess
Federführendes Managen des Dokumentenvalidierungsprozesses (CSV) konform zu Bayer?s SOP in Abstimmung mit dem Validation Owner (VO), sowie das Anlegen von eintretenden Deviation in JIRA als auch und die Erstellung von Audit Trails für die Inspektoren
Der CIO klagt über eine fehlende Transparenz in der Überwachung der Unternehmensprozesse
Ermittlung der kritischen Geschäftsprozesse und Definition der Top 10 KPIs pro Department
Auswertung des Erfüllungsgrads der festgelegten Top KPIs zur Ermöglichung einer faktenbasierten Darstellung des derzeitigen Ist-Zustandes
Definition eines Request for Proposals (RfP) in Abstimmung mit den Stakeholdern und Executive Managern
Herunterbrechen der High-Level Geschäftsanforderungen in SubTasks als Input für die Projektplanung
Erstellung eines Aktivitätsplans nach Prince2
Definition eines Proof of Concepts (PoC) in Zusammenarbeit mit V&D?s CIO als Maßstab der Evaluierung der beiden beabsichtigten Frontend-Tools; SAP BusinessObjects und MicroStrategy
Leitung der Implementierung des PoC
Bestimmung des Erfüllungsgrads der Anforderungen durch die einzelnen Lösungen
Gestaltung der SC-Meetings mit dem CEO, CIO und den Executive Board Managern von V&D
Finale Entscheidung für MicroStrategy aufgrund des Erfüllungsgrads der fachlichen Anforderungen, sowie der Benutzerfreundlichkeit und der Wartungskosten
Einbeziehen von Terminaldaten und POS-Daten der Stores zur Kalkulation der Kundenkonversionsraten
Berücksichtigung von Wetterdaten zum Antizipieren von Verkaufsdaten an heißen / regnerischen Tagen, um entspr. Marketing Kampagnen Ad-Hoc zu ergreifen und umzusetzen.
N-dimensionale Segmentierung des Geschäftes nach Produkten, Produktassoziationen, Kaufverhalten, Plattform (Stationär / eCommerce) und dergleichen
Federführende Leitung der Implementierung der Dashboards. Dashboards: Executive, Operations, Sales Margin, Sell Through, E-Commerce und HR
Weitere Projekte gerne auf Anfrage.
2001 - 2006:
Universität: Karlsruher Institute of Technology (KIT) in Deutschland
Fachrichtung: Informatik
Studienschwerpunkt: Software Engineering und Data Warehouse Systems
Nebenfach: Betriebswirtschaftslehre und E-Commerce
2006:
Universität: Massachusetts Institute of Technology (MIT) in Boston, USA
Fachrichtung: Informatik
Studienschwerpunkt: NLP in e-Commerce
Akademischer Abschluss: Diplom Informatiker & Master of Science in Informationstechnologie
Schulungen/Zertifikate:
Advanced ABAP Objects (14 Tage)
Delta Training SAP BI 7.0
SAP NetWeaver & BI 7.0 authorization concept
Performance Tuning in ABAP Objects
Business Objects (5 Tage)
SAP BO Xcelsius
SAP BO Crystal Reports Design III
SAP BO Web Intelligence XI R1/R2 (Report Design)
SAP BODS 4.1 ETL Data Services
SAP BO Design Studio + Webinar 1.1 / 1.2 / 1.3
SAP BW on SAP HANA ? Introduction & Modelling
SAP BW on SAP HANA ? Migration & Implementation
SAP BO Lumira 1.X
SAP Activate ? Introduction & Migration
SAP JAM & SuccessFactors bei SAP AG in Ratingen
Oracle EMPIRICA Trainer Zertifizierung für e-Signals and e-Topics
2021:
Oracle Healthcare EMPIRICA e-Signal & e-Topics trainer certification
2019:
SAP JAM & HCM SuccessFactors
2018:
SAP Activate ? Introduction & Migration
2016:
SAP BO Lumira
2015:
SAP S/4 HANA Delta Training
2013:
Advanced SAP BW on SAP HANA
2008:
Advanced ABAP Objects Performance Tuning
2007:
Delta Training SAP BI 7.0
Managing Director
BI Solution Architect
Business Analyst
Strategy Consultant
Project Manager
Lead Software Developer
CIO Advisor
IT Strategist
Data Scientist
Modellierungstools:
BPMN
UPDM
MagicDraw
SysML
WSDL
ARIS
UML (alle 13 Diagrammtypen)
ER-Model
SAP Expertise:
SAP NetWeaver (Installation / Configuration / Customizing)
SAP Hana Migration & Installation
SAP Basis / Gateway / ICM / MS & Central Server / RfC Library
SAP MDM
SAP BW 3.x
SAP BI 7.x
SAP BW4/HANA
SAP Analytics Cloud (SAC)
SAP BI-IP (Integrated Planning)
SAP SEM-BSC BEX Analyzer / Query Designer / Report Designer / WAD
SAP BO Universe Designer / Web Intelligence / Crystal Reports
SAP BO Xcelsius / Design Studio SDK / Analysis for Office
SAP Business Objects Data Services (BODS)
SAP Analysis Process Designer (APD)
SAP BI 7.x Analytical Authorization & SAP R/3 Authorization
SAP Solution & Transport Manager
SAP Advanced List Viewer (ALV)
SAP Enterprise Portal (EP)
SAP NetWeaver Visual Composer (VC)
SAP SuccessFactors SAP DMS/DVS
SAP Responsibility Management
SAP IS-Retail SAP IS-Utilities
Non-SAP IT Skills:
Oracle EMPIRICA e-Signals & e-Topics for Healthcare
ArisGlobal LifeSphere
LSMV Fact Sheet
LIMS / LIS / LMS (Labor Information und Management System)
ELN (Electronic Laboratory Notebook)
CSV (Computerized System Validation)
Veeva Systems
CARA Mango
JIRA Atlassian
Jupyter Notebook
GitHub
JDA AllocateNow! (Blue Yonder)
MuleSoft AnypointPlatform
Apache Kafka
PIPE Engine
Verfahren, Methoden, Notationen, Algorithmen:
BNF (Backus-Naur-Form)
NP-vollständig (Nichtdeterminismus in der Komplexitätstheorie)
TSP (Travelling Salesman Problem)
Ant Colony Optimization Algorithms
Simplex Method for Linear Programming
Metropolis Algorithm for Monte Carlo
Quicksort Algorithm for Sorting
Bayesian Statistics
Frequentistische Inferenzalgorithmen
Krylov Subspace Iteration Methods
NLP (Natural Language Processing) inkl. NLU & NLG
(Un)supervised, Reinforcement, Multitasking Self-learning algorithm
Machine / Deep Learning Knowledge Discovery in Databases
Petri-Netze
Computerized System Validation (CSV)
DTD (Document Type Definition)
ETL Process (Extract, Transform, Load)
LSA++ (Layered Scalable Architecture)
MDA (Model Driven Architecture)
SOA (Service Oriented Architecture)
Data Warehouse Applikationen:
SAP BW (seit 2000)
SAP BW on HANA (seit 2013)
SAP BW/4HANA (seit 2015)
SAP Analytical Cloud (seit 2017)
SAP Smart Discovery (seit 2017)
BIRT ? Eclipse Foundation (seit 2006)
MicroStrategy BI (seit 2009)
QlikView & QlikSense (seit 2012)
ORACLE OBIEE (seit 2010)
Microsoft BI (seit 2013)
COGNOS BI (seit 2014)
SAP BusinessObjects (seit 2006)
JasperReports (seit 2007)
TABELAU (seit 2017)
DatenbankAbfragesprachen:
Native Oracle SQL
MS Access SQL
PL / SQL
T-SQL
SAP HANA SQL
Markup-Sprachen:
HTML
WSDL
XML
XSD
Reporting implementiert.
FP&A
Projektbeschreibung kommt
Die Sparte Merck Electronics beherbergt mehr als 280 Business Managed Applications (BMA). Den Entscheidungsträgern fehlen Erkenntnisse zu den charakteristischen Eigenschaften, insbesondere zu der Datenqualität der jeweiligen Applikationen. Zumal die Aktualität der Daten zu wünschen übriglässt. Der Wunsch des CIOs (= Ziel des Projektes) besteht in der Kostenreduzierung, Optimierung der Technology Risk Management (TRM) und in der Beschleunigung der Digitalisierung.
Pharmaunternehmen sind verpflichtet kausale kohärente Zusammenhänge (s.g. Signale) zwischen Medikamenten und unerwünschten Nebenwirkungen (adverse events) aufzudecken und entsprechende Maßnahmen zur Untersuchung, Dokumentation, ggf. zur Handlung und Meldung an die zuständigen Behörden einzuleiten. Gemäß den Richtlinien für Good Pharmacovigilance Practice (GVP) setzt sich der Signalmanagementprozess aus der Signal-Detektion, SignalValidierung, Signal-Analyse und dem Signal-Assessment (Evaluierung) zusammen.
Der Kunde - Merck KGaA ? hat die Signal-Detektierung mithilfe der Oracle EMPIRICA Signal Applikation im Jahre 2018 digitalisiert. Die Validierung und Evaluierung der detektierten Signale wurden mithilfe von makrobasierten Excel-Tabellen durchgeführt.
Innerhalb von zwei Wochen habe ich die Standard Operating Procedure (SOP) studiert. Resultierend aus den gewonnenen Erkenntnissen, habe ich sämtliche gegenwärtige Prozessabläufe, Aktionen, Akteure, Entitäten und involvierte Parteien / Departments mit einer grafischen Notation mithilfe von BPMN visualisiert, welche als Grundlage für die Sitzungen mit dem Prozess Owner (PO) zur Optimierung der realen Prozessabläufe herangezogen wurden.
Optimierung der Signal-Detektierung durch Einführung von Medical Subject Areas, wie bspw. Fatal, Serious, DME, SMQ, etc., um das Arbeitspensum der Safety Scientisten auf das Wesentliche zu reduzieren (Reduzierung von >500 potentiellen Fällen auf <30 relevante high-potential Medikament-NebenwirkungenAssoziationen pro Therapeutic Area / Woche)
GxP-konforme Erstellung von Design-Qualifikation (DQ), Installation-Qualifikation (IQ), Operational-Qualifikation (OQ) und die Performance-Qualifikation gemäß der Computerized System Validation (CSV) zur Genehmigung der beabsichtigten Prozessmodifikation (SOP).
Nach Genehmigung meines Digitalisierungsansatzes vom Validation Manager (VM) wurden mir drei interne Mitarbeiter aus der IT und der Entwicklungsabteilung zur Unterstützung bereitgestellt. Federführend habe ich die charakteristischen Prozesseigenschaften zur Signal-Validierung und -Evaluierung in eine technisch kompatible Prozess-Notation umgewandelt. Implizierend habe ich einen umfangreichen mehrdimensionalen (Sub-) Prozesskatalog erstellt, welche später zur Erstellung eines Aktivitätsplans zum Nachverfolgen der Projekt-Meilensteine verwendet wurde. Parallel habe ich die Benutzeranforderungen (URS) aktualisiert und dem Vendor (Oracle) zur Adaptierung der Functional Spezifikation (FS) und der späteren Implementierung zur Verfügung gestellt.
Managen des Implementierungsfortschritts in den Weekly TouchPoints mit dem Vendor. Monatliches Reporting des Projektstandes an die Stakeholder (R&D Direktor, Global IT System Owner, VM, PO).
Definition einer umfassenden Teststrategie zur Ausführung der PQ-Scripte für die Validierung der eingesetzten stochastischen Algorithmen. Dabei wurden sowohl die bayesschen Algorithmen, wie bspw. Empirical Bayes Geometric Mean (EBGM) als auch die frequentistischen Inferenzalgorithmen, wie bspw. Increased Frequency oder Relative Reporting Ratio (RR) mit ins Kalkül gezogen.
Die e-Topics Signale wurden über die Merck Exchange Plattform in den LabVantage Advanced Analytics Engine zur Erstellung der SPC Chartings geladen. Somit wurde den Safety Scientisten eine real-time, workflow-orientierte Visualisierung mit LabVantage Operational Intelligence gewährleistet. Ferner wurde den Safety Scientisten ein Self-Service-BI mithilfe der LabVantage Ad-hoc Query Tool ermöglicht. Dank dieser Integration wurden die Adverse Events mit den Proben in Verbindung gebracht.
Nach erfolgreichem Abschluss der UATs ist die EMPIRICA 9.x Applikation im Januar 2021 live gegangen. Im Anschluss habe ich ein gekapseltes, rollen-task-basiertes Modell nach dem Dispatcher & Delegation Ansatz bestehend aus 6 FTEs für das Daily Business für das EMPIRICA Team konzipiert.
Mit mehr als 2 Millionen Artikelvariationen, sowie mehr als 100.000 Never-Out-of-Stock Artikel steht der Kunde vor der Herausforderung, dass eine optimale Zuweisung von Artikeln an Stores, trotz dessen, dass die Anzahl der Allocators & Planer in den letzten Jahren stark zugenommen hat, zu wünschen übriglässt.
Analyse der Allocations-, Plan-, sowie Verkaufsdaten aller Stores der letzten 5 Jahren mittels quick-created Ad-hoc Reports
Interviewen der 20 Allocators, um deren Daily Business zu verstehen, insbesondere die Schwachstellen des eingesetzten Modells aus Anwendersicht aufzudecken
Aufdeckung großer Varianzen zwischen den allokierten Artikeln und der tatsächlichen Abverkäufe in bestimmten Verkaufsperioden bei manchen Artikeln und Stores
Berechnung der Akkuratesse der einzelnen Allocators (Top 5 Best & Worst). Ermittlung der Parameter, die für die Varianzen zwischen den Soll- und Ist-Werten verantwortlich sind. Erstellung eines prozessnahen Issue-Katalogs. Konzeption eines kausalen, variablen-basierten Modells für die Determinierung der Differenzen zwischen den Allocation Forecasts und der realen Absätze. Mappen der ermittelten Datenstrukturen (semantische Datenlogik) auf eine maschinenkonforme Pseudonotation zur Eruierung des Digitalisierungsgrades innerhalb eines Proof-ofConcepts.
Proof-of-Technology: Recherche von Standard-Tools, welche die Kundenanforderungen ? sprich, eine kosteneffiziente und eine innovative Produktzuweisung (Allocation) ?, abdecken
Evaluierung des Abdeckungsgrad der fachlichen Anforderungen unter Berücksichtigung von technischen, sowie kundenspezifischen Gegebenheiten. Insbesondere sind hierbei kritische Prozessdeadlines, Data Center Access, administrative, supportrelevante Themen und unterschiedliche Lizenzmodelle berücksichtigt worden (SLA Content Definition)
Präsentation der unterschiedlichen Lösungsansätze mit Fokus auf Budget, Implementierungsaufwand, Integration sowie Innovation & Zukunftsträchtigkeit mit den Executive Managern und dem Projekt Stakeholder
Ausarbeitung eines prädiktiven Petri-Netz-basierten Verfahrens auf Grundlage von historischen Allocations- und Verkaufsdaten, um eine variablengesteuerte, mehrdimensionale Clusterung pro Subject Area nach dem k-means-Algorithmus zu erzielen
Federführendes Monitoring der Umsetzung gemäß des zuvor definierten Aktivitätenplans, sowie monatliches Reporten des Projektfortschritts den Stakeholdern in den SC-Meetings
Konzeption und Implementierung eines generischen Frameworks auf der HANA Datenbank nach dem Code Push-Down Ansatz zur Realisierung einer zentralen Datenverteilung (Central Data Hub) für die Datenversorgung der eingesetzten JDA BY Allocate Applikation
Pilotprojekt: Konsumentenakzeptanzanalyse durch Einbeziehen von unternehmensfremden Daten (Kommentare, Likes, Shares, etc.) von Nutzern aus den sozialen Netzwerken mittels Verfahren basierend auf NLP
Senior Associate Partner
Projektziel: Gründung einer GmbH mit 10 Niederlassungen für das Verkehrsministerium zur Verwaltung der Autobahnen der Bundesrepublik, sowie Konsolidierung der Verwaltungsprozesse auf 3 Rechnungskreisen
Analyse der 16 Bundesländer hinsichtlich ihres kameralen Haushaltsplans im Berichtswesen
Unterstützung bei der Konsolidierung der Berichtsanforderungen der einzelnen Länder
Analyse der Data Lakes, sowie infrastrukturellen Applikations-, sowie Systemlandschaft der einzelnen Bundesländer zur Erzielung einer einheitlichen Datenbasis
Analyse des externen Berichtswesens für die Autobahn GmbH
Bis 2021 müssen die externen Verwaltungsberichte gegenüber dem Betriebsrat, dem Aufsichtsrat, dem Parlament und der Öffentlichkeit bereitstehen
Analyse folgender Berichte zur Erstellung eines Business Blueprints: Jahresabschluss, Quartalsbericht, Wirtschaftsplan, Investitionsplan, HR Stellenplan, Risikoberichterstattung, Verkehrsinfrastrukturbericht
Evaluierung der relevanten personenbezogenen Daten in Kooperation mit BCG Platinion zur Einigung auf einen Konsens zur Nutzung eines standarisierten Verfahrens. Andernfalls hätte der Prozess den Regularien des Betriebsrats unterliegen müssen.
Grobkonzeption für die ERP Systemlandschaft auf Basis von S/4HANA Finance, BW/4HANA, Embedded BI und SAP Cloud
Grobkonzept einer mit Sensorik, kognitiven Kameras, sowie mit Induktionsschleife bestückten intelligenten Autobahn
Konzeption von prädiktiven Maßnahmen unterstützt von Verfahren basierend auf der KI zur Gefahrenwarnung, sowie Vorhersagen auf Basis von Echtzeitdaten als auch auf Grundlage von Trends generiert auf Basis von historischen Daten.
Meetings mit den Executive PLM Managern, um deren Geschäftsanforderungen im Hinblick auf die Bereitstellung von Standardberichten, Management-Dashboards, mobilen BI- und Berichtsplanungen zu verstehen
Vorbereitung von Workshops auf der Basis bereits etablierter und realisierter Berichte und Dashboards in Cognos sowie hinsichtlich der neuen Anforderungen aus den Meetings mit den Senior Business Managern unter Berücksichtigung vereinbarter ITGovernance und interner Richtlinien mit dem Head of IT Services
Bereitstellung einer kosteneffizienten, schlanken und flexiblen Lösung, um eine reibungslose Migration zu ermöglichen
Einführung einer Berichtsmatrix mit verschiedenen Dimensionen wie Abteilung, Zielgruppe, Ausgabehäufigkeit, KPIs, Nutzung, Priorität usw. als Grundlage für den Business Blueprint
Delegieren des Fachkonzepts für die Implementierung und Überwachen der Implementierungsphase, um die Einhaltung der definierten Meilensteine sicherzustellen
Monatliches Reporten des Projektfortschritts an den CIO, sowie Diskussionen für neue Vorschläge und Eruierung von kritischen Entscheidungsmaßnahmen
Federführende Analyse der eingesetzten fachlichen Prozesse im Materialmanagement unter Berücksichtigung der strategischen zukünftigen Ambitionen und Ziele des Unternehmens in Abstimmung mit dem CIO
Optimierung der Produkthierarchie durch Einführung eines komponentenbasierten Ansatzes für eine umweltfreundlichere Herstellungsmaßnahme gemäß den Kriterien, welche von der Entwicklungsabteilung vordefiniert waren
Advisory bei der Neugestaltung des MaterialsBestandsmanagements
Eruierung von Optimierungsmaßnahmen für eine effiziente, rekonstruierbare Materialbewegung mittels RFID
Konzipierung eines Verfahrens für eine agile und realitätsnahe Bedarfsplanung
Konzipierung und Realisierung einer intelligenten Fertigungsstraße mit der Intention einer vernetzten Datenverarbeitung
Monatliche Projektfortschrittberichtserstattung an die Stakeholders in den SC-Meetings
Identifizierung der Merkmale, welche zur Ermittlung von zuverlässigen bzw. risikobehafteten Lieferanten dienen, im Rahmen eines Workshops mit den Executive Business Managern des Lieferantenmanagement Departments
Erfassung sämtlicher eingesetzter Verfahren und Methoden zur Lieferantenbewertung. Datenerhebung aus allen SRM relevanten Systemen, Datenbanken, Excels und Applikationen
Erstellen von Scoring-Faktoren, die den Risikograd eines jeden Lieferanten identifizieren, wie bspw. der Financial Health Check, die Single Source of Classification, Green Environment Konformität, Produktionssicherheit, oder auch der Abhängigkeitsgrad von einem Lieferanten. Mehr als 20 Risikofaktoren wurden identifiziert und auf der Grundlage der gewonnenen Erkenntnisse aus den historischen Daten gewichtet.
Bestimmung von Gewichtungsfaktoren und deren Zuordnung zu den einzelnen Bewertungsfaktoren in Zusammenarbeit mit den SRM-Verantwortlichen. Konzipierung eines autodidaktischen Systems, welches äquivalente Inputs mit den Ergebnissen aus vorangegangenen Berechnungen vergleicht und optimiert.
Klassifizierung der Scoring-Faktoren in sechs verschiedene Kategorien mit unterschiedlichen Berechnungskriterien
Unterteilen des Lieferanten in Bezug auf ihre Assessment Level in drei verschiedenen Gruppen
Erstellung eines Scorecards (Matrix), um eine mehrdimensionale Supplier Health Check Evaluierung zu ermöglichen
Evaluierung der Berechnungslogik mit dem Fachbereich und Definition von wesentlichen Vorgaben für das Erstellen eines Business Blueprints
Prototyping: Leitung der Entwicklung eines funktionstüchtigen, allerdings vereinfachten Excel-basierten Prototyps (Mockup) unter Berücksichtigung von unterschiedlichen Aggregationsebenen mit entsprechender Berechnungslogik sowie unter Einhaltung von definierten Ausnahmeregelungen, um die Validierung des Vorhabens mit dem CIO transparenter und intuitiver zu gestalten.
Iterative und sukzessive Optimierung der Berechnungslogik dank des interaktiven Prototyps
Product Owner im Scrum Team, Begleitung der Implementierung
Beratung des Entwicklerteams hinsichtlich der SW-Architektur, um einen flexiblen und generischen Lösungsansatz unter Verwendung von gängigen Entwurfsmustern zu ermöglichen
Definition der SLA Agreements mit dem Kunden
Leitung der Hypercare- und Wartungsphase
Ermittlung des Status-Quos: Top Level Management Beratung bei der Ist-Analyse des Logistikprozesses der Deutschen Bundeswehr
Anforderungsanalyse und Erstellung eines gewichteten mehrdimensionalen Anforderungskatalogs. Mapping von Anforderungen auf Sub-/Prozessen.
Prozess-Visualisierung mithilfe einer grafischen Notation zur Besprechung mit den Stakeholdern und Executive Managern
Erstellung eines PoC?s, um die Machbarkeit eines optimierten, agilen Ansatzes mit den entsprechenden Verantwortungsträgern zu eruieren
Konzipierung eines Verfahrens (basierend auf gewichteten PetriNetzen) zur Optimierung des Logistikprozesses innerhalb der Deutschen Bundeswehr
Leitung von interaktiven Workshops zur Präsentation des Vorhabens mit den zuständigen Verantwortlichen aus dem Fachbereich
Involvierung den Head of IT Verantwortlichen zur Abstimmung des von mir erstellten Roadmaps zur Definition der Meilensteine und zur Festlegung der Delivery Termine
Input für das Erstellen des Fachkonzepts. Managen der Implementierung. Go-Live Dezember 2018
Management Consulting zur Identifizierung von Risikofaktoren im Devisen- und Kreditgeschäft bei der Deutschen Bundesbank
Konzipierung eines globalen, mehrdimensionalen KPI Katalogs, um konsolidierte Risikofaktoren in Bezug auf Währungspositionen, Anleihen, Fonds, Aktien, Marktsegmentierung und Investments miteinander zu assoziieren
Assoziierung von unternehmenseigenen Kennzahlen mit erworbenen Fremddaten von Financial Institution, um out-of-thebox neue Insights hinsichtlich der Risikomitigation zu gewinnen. Konzipierung eines kognitiven Kennzahlmodells zur Überwachung der ermittelten Risikofaktoren
Unterstützung des Finance Executive Teams bei der Definition ihrer funktionalen Anforderungen
Erstellen eines Business-Anforderungskatalogs als Richtlinie für den späteren technischen Blueprint
Konzipierung eines Verfahrens auf Basis der künstlichen Intelligenz zur Prüfung der Kreditwürdigkeit
Leitung des Implementierungsteams bei der Umsetzung des konzipierten Architekturmodells und Sicherstellung der Erfüllung der vorgegebenen QM-Maßnahmen
Ermittlung des Status Quo?s der Kostenrechnungsprozesse mit der Intention zur Breitstellung eines Management Margin Accounting Reportings
Kategorisierung und Klassifizierung der unterschiedlichen Typen von variablen Kosten
Definieren von Strategien zur Berechnung von Fixkosten in Zusammenarbeit mit dem Fachbereich
Unterteilung der einzelnen Margin Accounting Posten auf unterschiedliche Energieprodukte
Analyse der Ist-Wert-Flüsse und Durchführung der Wirtschaftlichkeitsanalyse in Zusammenarbeit mit dem Head of Controlling
Konzeption einer n-dimensionalen Matrix zur Darstellung des KPI-Margin-Account-Modells
Delegieren des Business Blueprints für die Realisierung an das Entwicklerteam und Überwachung der Implementierungsphase
Entwicklung von Strategien für einen optimierten, globalen und umfassenden Beschaffungsprozess innerhalb des RWE-Konzerns
Definition von Materialgruppen und Zuordnung aller vorhandenen Materialien zu entsprechenden Gruppen nach festgelegten Regeln
Optimierung des Einkaufsprozesses durch Substitution festverdrahteter Geschäftsprozesse durch parameterbasierte Prozesse sowie durch Konsolidierung äquivalenter Teilprozesse
Erweiterung von Material- und Anlagenstammdaten zur Vereinheitlichung der Stammdaten
Festlegung von Einkaufsgruppen bezüglich Verfügbarkeit, Region und Verantwortungsbereich.
Übertragung der anonymisierten Benutzeraktivitäten in die BILandschaft und Ermöglichung eines Sales Reportings, sowie eines high-level aggregierten Management Dashboardings mit dem Ziel zur Optimierung des Einkaufsprozesses
Design von interaktiven Dashboard Gadgets für die Top 10 KPIs nach den bewährten Gartner Best-Practices für den Einkauf, für die Beschaffung sowie für das Marketing
Re-Design eines bereits implementierten unternehmensspezifischen Allocation-Programms zur Verbesserung der Genauigkeit des Matching-Prozesses
Ermittlung des Status Quos durch Interviewen der Power / Key User aus der Warensteuerung
Konzipierung einer Web-Benutzeroberfläche zur Anwendung von Allocationsregeln im SAP Portal. Über die Webschnittstelle ist der Allocation Manager imstande unterschiedliche relevante Zuweisungsstrategien pro Warengruppe und Land zu definieren
Implementierung eines Nachverfolgungsverfahren auf Grundlage der RFID Technologie zum Tracen von Kleidungsstücken innerhalb der Wertschöpfungskette
Einführung einer globalen unternehmensweiten Reporting- und Planning-Strategie für die Warensteuerung in Europe und in Asien
Definition der Top 10 Regal KPIs für Europa und Asien in Abstimmung mit den entsprechenden Merchandise Managern
Harmonisierung der Stammdaten aus den europäischen und asiatischen Systemen gemäß der bereits definierten Harmonisierungsregeln
Optimierung der ?Zielgruppen? Ebene in der Warengruppenhierarchie durch stochastische Clustering Algorithmen (k-means).
Einführung einer globalen unternehmensweiten Warenhierarchie
Kostenreduzierung der Prototyping Kosten für die Serienproduktion durch Einbinden von Konsumentendaten von äquivalenten Produkten von Konkurrenten aus sozialen Netzwerken. Ermöglichung einer Trendanalyse basierend auf Daten aus den sozialen Netzwerken
Konzipierung einer Control Cockpit zur Filterung der Social Media Daten nach verschiedenen Auswahlkriterien
Definition eines Verfahrens nach dem Prinzip Single-Point-of-Contact und Delegation zur Out-Sourcing der Implementierung nach Indien
Ermittlung des Status-Quos im Berichtswesen durch Analyse der implementierten Datenflüsse über unterschiedliche Departments hinweg
Aufnahme der neuen Geschäftsanforderungen für die zu implementierenden Management Dashboards
Integration der neuen Geschäftsanforderungen in die bestehende BI Landschaft
Extraktion und Harmonisierung der relevanten Quelldaten aus unterschiedlichen Non-SAP-Systemen mithilfe des ETLProzesses
Erstellen eines funktionalen light-Version Mockups für die Management Dashboards zur finalen Abstimmung mit den Entscheidungsträgern
Implementierung der Dashboards für Desktop-, sowie für mobile Anwendung
Evaluierung und Optimierung des Konsolidierungsprozesses innerhalb des Bayer-Konzerns in Zusammenarbeit mit einem Team von 20 IT & Business Consultants gemäß der GVP Richtlinien, sowie des unternehmensinternen Standard Operation Prozesses (SOP)
Meetings mit den Stakeholdern um die High-Level Projektziele zu definieren. Fachliche Anforderungsanalyse mit dem VP Head of Controlling, um herauszufinden, wie aus Controllings-Sicht die elementaren Einzelposten zur Definition der Gesamtkosten eines Endproduktes nach dem GMP Prozess zu bewerten sind
Analyse der Unternehmensstrukturen innerhalb des Controlling Departments zur Erstellung eines Peer-to-Peer Lieferanten-/ Konsumenten-Netzes bestehend aus den Tochtergesellschaften. Grafische Prozessdarbietung des Status Quos mithilfe der Modellierungsnotation BPMN.
Klassifizierung der Produktions- und Beschaffungskosten in internen und externen Kategorien in Abstimmung mit dem Process Owner (PO)
Aufschlüsselung der internen Kosten auf Material, Produktion, Transport und Sonstiges
Konzeption eines rekursiven GVP-validierten Algorithmus, um Material-, Fracht- und Produktionskosten pro Kategorie nach IAS/ IFRS-Richtlinien zu eliminieren (Zwischengewinneliminierung)
Sukzessive Summierung der Sub-Gewinne zur Bestimmung der Netto-Marge eines Produktes nach dem Intermediate Profit Elimination Prozess
Federführendes Managen des Dokumentenvalidierungsprozesses (CSV) konform zu Bayer?s SOP in Abstimmung mit dem Validation Owner (VO), sowie das Anlegen von eintretenden Deviation in JIRA als auch und die Erstellung von Audit Trails für die Inspektoren
Der CIO klagt über eine fehlende Transparenz in der Überwachung der Unternehmensprozesse
Ermittlung der kritischen Geschäftsprozesse und Definition der Top 10 KPIs pro Department
Auswertung des Erfüllungsgrads der festgelegten Top KPIs zur Ermöglichung einer faktenbasierten Darstellung des derzeitigen Ist-Zustandes
Definition eines Request for Proposals (RfP) in Abstimmung mit den Stakeholdern und Executive Managern
Herunterbrechen der High-Level Geschäftsanforderungen in SubTasks als Input für die Projektplanung
Erstellung eines Aktivitätsplans nach Prince2
Definition eines Proof of Concepts (PoC) in Zusammenarbeit mit V&D?s CIO als Maßstab der Evaluierung der beiden beabsichtigten Frontend-Tools; SAP BusinessObjects und MicroStrategy
Leitung der Implementierung des PoC
Bestimmung des Erfüllungsgrads der Anforderungen durch die einzelnen Lösungen
Gestaltung der SC-Meetings mit dem CEO, CIO und den Executive Board Managern von V&D
Finale Entscheidung für MicroStrategy aufgrund des Erfüllungsgrads der fachlichen Anforderungen, sowie der Benutzerfreundlichkeit und der Wartungskosten
Einbeziehen von Terminaldaten und POS-Daten der Stores zur Kalkulation der Kundenkonversionsraten
Berücksichtigung von Wetterdaten zum Antizipieren von Verkaufsdaten an heißen / regnerischen Tagen, um entspr. Marketing Kampagnen Ad-Hoc zu ergreifen und umzusetzen.
N-dimensionale Segmentierung des Geschäftes nach Produkten, Produktassoziationen, Kaufverhalten, Plattform (Stationär / eCommerce) und dergleichen
Federführende Leitung der Implementierung der Dashboards. Dashboards: Executive, Operations, Sales Margin, Sell Through, E-Commerce und HR
Weitere Projekte gerne auf Anfrage.
2001 - 2006:
Universität: Karlsruher Institute of Technology (KIT) in Deutschland
Fachrichtung: Informatik
Studienschwerpunkt: Software Engineering und Data Warehouse Systems
Nebenfach: Betriebswirtschaftslehre und E-Commerce
2006:
Universität: Massachusetts Institute of Technology (MIT) in Boston, USA
Fachrichtung: Informatik
Studienschwerpunkt: NLP in e-Commerce
Akademischer Abschluss: Diplom Informatiker & Master of Science in Informationstechnologie
Schulungen/Zertifikate:
Advanced ABAP Objects (14 Tage)
Delta Training SAP BI 7.0
SAP NetWeaver & BI 7.0 authorization concept
Performance Tuning in ABAP Objects
Business Objects (5 Tage)
SAP BO Xcelsius
SAP BO Crystal Reports Design III
SAP BO Web Intelligence XI R1/R2 (Report Design)
SAP BODS 4.1 ETL Data Services
SAP BO Design Studio + Webinar 1.1 / 1.2 / 1.3
SAP BW on SAP HANA ? Introduction & Modelling
SAP BW on SAP HANA ? Migration & Implementation
SAP BO Lumira 1.X
SAP Activate ? Introduction & Migration
SAP JAM & SuccessFactors bei SAP AG in Ratingen
Oracle EMPIRICA Trainer Zertifizierung für e-Signals and e-Topics
2021:
Oracle Healthcare EMPIRICA e-Signal & e-Topics trainer certification
2019:
SAP JAM & HCM SuccessFactors
2018:
SAP Activate ? Introduction & Migration
2016:
SAP BO Lumira
2015:
SAP S/4 HANA Delta Training
2013:
Advanced SAP BW on SAP HANA
2008:
Advanced ABAP Objects Performance Tuning
2007:
Delta Training SAP BI 7.0
Managing Director
BI Solution Architect
Business Analyst
Strategy Consultant
Project Manager
Lead Software Developer
CIO Advisor
IT Strategist
Data Scientist
Modellierungstools:
BPMN
UPDM
MagicDraw
SysML
WSDL
ARIS
UML (alle 13 Diagrammtypen)
ER-Model
SAP Expertise:
SAP NetWeaver (Installation / Configuration / Customizing)
SAP Hana Migration & Installation
SAP Basis / Gateway / ICM / MS & Central Server / RfC Library
SAP MDM
SAP BW 3.x
SAP BI 7.x
SAP BW4/HANA
SAP Analytics Cloud (SAC)
SAP BI-IP (Integrated Planning)
SAP SEM-BSC BEX Analyzer / Query Designer / Report Designer / WAD
SAP BO Universe Designer / Web Intelligence / Crystal Reports
SAP BO Xcelsius / Design Studio SDK / Analysis for Office
SAP Business Objects Data Services (BODS)
SAP Analysis Process Designer (APD)
SAP BI 7.x Analytical Authorization & SAP R/3 Authorization
SAP Solution & Transport Manager
SAP Advanced List Viewer (ALV)
SAP Enterprise Portal (EP)
SAP NetWeaver Visual Composer (VC)
SAP SuccessFactors SAP DMS/DVS
SAP Responsibility Management
SAP IS-Retail SAP IS-Utilities
Non-SAP IT Skills:
Oracle EMPIRICA e-Signals & e-Topics for Healthcare
ArisGlobal LifeSphere
LSMV Fact Sheet
LIMS / LIS / LMS (Labor Information und Management System)
ELN (Electronic Laboratory Notebook)
CSV (Computerized System Validation)
Veeva Systems
CARA Mango
JIRA Atlassian
Jupyter Notebook
GitHub
JDA AllocateNow! (Blue Yonder)
MuleSoft AnypointPlatform
Apache Kafka
PIPE Engine
Verfahren, Methoden, Notationen, Algorithmen:
BNF (Backus-Naur-Form)
NP-vollständig (Nichtdeterminismus in der Komplexitätstheorie)
TSP (Travelling Salesman Problem)
Ant Colony Optimization Algorithms
Simplex Method for Linear Programming
Metropolis Algorithm for Monte Carlo
Quicksort Algorithm for Sorting
Bayesian Statistics
Frequentistische Inferenzalgorithmen
Krylov Subspace Iteration Methods
NLP (Natural Language Processing) inkl. NLU & NLG
(Un)supervised, Reinforcement, Multitasking Self-learning algorithm
Machine / Deep Learning Knowledge Discovery in Databases
Petri-Netze
Computerized System Validation (CSV)
DTD (Document Type Definition)
ETL Process (Extract, Transform, Load)
LSA++ (Layered Scalable Architecture)
MDA (Model Driven Architecture)
SOA (Service Oriented Architecture)
Data Warehouse Applikationen:
SAP BW (seit 2000)
SAP BW on HANA (seit 2013)
SAP BW/4HANA (seit 2015)
SAP Analytical Cloud (seit 2017)
SAP Smart Discovery (seit 2017)
BIRT ? Eclipse Foundation (seit 2006)
MicroStrategy BI (seit 2009)
QlikView & QlikSense (seit 2012)
ORACLE OBIEE (seit 2010)
Microsoft BI (seit 2013)
COGNOS BI (seit 2014)
SAP BusinessObjects (seit 2006)
JasperReports (seit 2007)
TABELAU (seit 2017)
DatenbankAbfragesprachen:
Native Oracle SQL
MS Access SQL
PL / SQL
T-SQL
SAP HANA SQL
Markup-Sprachen:
HTML
WSDL
XML
XSD