Cloud-Lösung: SAP HANA, Cloudera, (CHD), Kafka, Flink, Talend (Spezialistenvon Infomotion)
Tableau vs. SAP Lumira (Spezialisten von Infomotion)
weitere Testinstallation SparxSystzms Enterprise Architect
08/14 ? heute
Big Data-Lab
ein Invest der AMPM GmbH weitere BI-Dienstleister:
Testreihe April 2015:
Erprobung Solr und ElasticSearch mit Zugriff auf HDFS
Auf Hadoop/HDFS zugeschnittene Speicherformate: NumPy mit PyData,Stack (PySpark Python API, PyWeb-HDFS) und Sci Py-Stack
Spark SQL, PySpark Python API (Python-Unterstützung mit Spark), Avro und Parquet
HDFS / MapReduce - Migrationsstrategien nach Spark,NumPy und Sci-Py in Arbeit
Zwei Kollegen analysieren ab Oktober 2014 die Features und differenzierten Elemente von: Matlab, Mahout, SAS, R / Pyton, Datameer und SPSS
Dell/Intel-Cluster auf Basis Red Hat Enterprise Linux und VMware
Weiterbildung und Zertifizierung:
Informatica Power Center und Master Data Management / Big Data Integration
08/16 - 07/17
Nordex SE Windkraftanlagen:
Strategische Technologie-Beratung, Lead-Architekt BI/IoT/Big Data,
Impulsgeber/Coach für den Enterprise Architekturen, Projektleitung,
Workshops zur Einführung von BI-Infrastrukturen und Hadoop-Komponenten
Pilot und Produktivsetzung
Definition der Use Cases, hybride Architektur (Data Warehouse und Hadoop-Cluster) Empfehlung der Hadoop-Komponenten, Hadoop in der Cloud (PaaS vs. SaaS)
Grundlagen der Data Warehouse und Data Mart-Modellierung
IT-Managementberatung mit Abstimmung auf Ebene CIO, Stellvertreter CIO, Abteilungsleiter
Abstimmung und Kooperation mit Management auf der Fachseite der zweiten Führungsebene
Beratung zum Aufbau einer Data Governance
Blueprint zum Aufbau eines Master Data Managements; Umsetzung Start 05.2017
Blueprint und Realisierung von ersten Komponenten eines Integration Server Bus mit Mircoservices (REST API für Data Warehouse, Leitstand (Control Center) und Fehlermanagement
Architektur-Blueprint zur datentechnischen Integration der Windmühlen als Basis zum Aufbau Leitstand (Control Center für Alarme und prognostisierte Alarme)
Mircosoft Azure, SQL Server 2016, R-Integration SQL Server 2016, SSIS, Power BI, Hadoop mit Kafka, Spark 2.0 (R-Integration, ML; Spark Streaming, Spark SQL)
Handlungsempfehlung und Umsetzung in zwei Phasenmit Produktivsetzung
Pilot Phase 1:
Aufbau DWH , 3-Schichten-Modell (Storage, Cleansing mit Core und BI-Services mit Data Mart, Sandbox für Analytik
BI-Services für Engineering, Service, Product Strategiy und Produktion mit Microsoft Azure DWH-Komponenten (SSIS, SSAS Bower BI, MS R-Integration, MS BiZTalk, MS Master Data Management
Pilot:Phase 2:
Aufbau eines Hadoop-Cluster Microsoft Azure Insight Cloud SaaS
WLAN-Anbindung der Windmühlen unter Datentransport < 1 Sekunde in Hadoop-Cluster mit Streaming Analytik, Visualisierung, KPI mit Spark nach DWH für Dashboards, Datenarchivierung nach Filterung der relevanten Daten für Zeitreihenanalyse
Produktivbetrieb ab Mai 2017!
07/16 ? 12/16
Cosmos Direkt/Generali: Strategische Beratung, Lead-Architekt: Hadoop-Komponenten-Beratung, DWH- und Big Data-Architektur zur Umsetzung eines PoC im CRM und Empfehlung an Generali, Management-Präsentation (Vorstand), Workshops mit IT und Fachseite
Definition von Use Cases; Kündigeranalyse aus eMail Textmaining, Cross Selling aus eMail Textmaining, Einbindung der Ergebnisse aus Analytik in Testkampagnen.
Customer Journey mit weiteren Kennahlen für das Kampagnenmanagement
Beschreibung von Alternativen SAS Enterprise Miner, SAS Textmaining auf HDFS-Cluster sowie R-Integration/Spark ML auf HDFS.
Verantwortlich für die Vorstandpräsentation und Empfehlung zum weiteren Einsatz.
PoC mit Cloudera, Phyhton/Spark ML, HDFS, Sqoop
Produktivbetrieb seit Januar 2017!
06/15 - 06/16
Projektleitung und Testmanager im Auftrag des Generalunternehmers als Festpreisprojekt zum Aufbau eines neuen ?Output-Management-System der Deka Luxemburg?
Projektleitung und Testmanager im Auftrag des Generalunternehmers als Festpreisprojekt zum Aufbau eines neuen ?Output-Management-System der Deka Luxemburg?. Führung von Teams mit folgenden Schwerpunkten:
Steuerung in Konzeption, Realisierung und Qualitätssicherung:
IT-Architektur, DV-Konzepte, Konsolidierung Fachkonzepte, Datenmodellierung, ETL-Framework, Berechtigungskonzepte, Betriebs- und Produktionshandbücher, Rollout-Management.
Die Komponenten des Output-Managements im Detail:
Testmanagement mit folgenden Schwerpunkten
Projektmanagement
OLYMPIC Banking System
Sybase PowerDesigner, Informatica PowerCenter Version 9.0.1, Informatica B2B Data Exchange, SQL, Views/MatViews, DB2 V 9.7.03, MS SQL Server, Java, Tomcat, UNIX, XMLSpy Altova. MS Server, Webservices, Nagios, TravicLink, Filenet, Cognos 10, Engage One/DOC1GEN (Pitney Bowes), DocBridge Pilot und Queue-Processor (Compart), Böwe
Bugzilla (Testmanagement), MS-Qffice, MS Visio, MS Project, XSD/XML, AFP mit Grafik, PDF, TLE
03/15 - 06/15
PoC, Pilot, Produktivbetrieb ab 09/15 für ein Unternehmen der Pharmaindustrie in Rheinland-Pfalz (Boehringer Ingelheim)
Gemeinsame Aktivität mit AWS-Partnerunternehmen
Aufgabe: DNA-Analyse
Hadoop-Komponenten: Cloud AWS Big Data-Lösung, S3, Elastic MapReduce (EMR), MongoDB, Redsift, Kafka, Storm, Solv
Analyse mit Datameer (Aktivität des SW-Anbieters) und R als Alternative zu SAS, IPython zur Datenaufbereitung vor Analytik mit R und Datameer
Visualisierung mit Tableaus (Aktivität des SW-Anbieters)
04/15 - 06/15
Studie und Strategiepapier zur Big Data-Einführung für ein Handelsunternehmen in Baden-Württemberg (Lidl Neckarsulm)
Abschluss Mitte Juni 2015
09/14 - 05/15
Deutsche Telekom / T-Mobile Bonn/Darmstadt
PoCs und Piloten mit zwei Big Data-Dienstleistern (Cloudera, MapR, Cloudera/Oracle) und SAS Visual Analytics
Pilot-Betrieb mit Cloudera und SAS als SaaS-Dienstleistung
Funktion: Lead Architekt, Strategieberatung, Projektleitung, technisches Consulting
(IT-Infrastruktur und Datenmodell, Bewertung Hadoop-Komponenten)
Produktivbetrieb 08/15
Projekt
Aktueller Status: Produktivsetzung der PoC-Ergebnisse mit Cloudera (Cloudera Enterprise mit definierten Hadoop-Komponenten) und SAS Visual Analytics 7.1
Resümee aus PoC:
Aktuelle Anforderung: Planung zur Produktivsetzung des PoC-Release
Festlegung der anforderungsrelevanten Hadoop-Komponenten
Die fachlichen Anforderungen wurden komplett erfüllt:
Schnelle Verfügbarkeit über Cloud bzw. Sandbox
Management-Konsolen der Anbieter vereinfachen den operativen Betrieb; weitere Integration von Apache-Hadoop-Tools sind zu erwarten
Mit Spark und Impala signifikante Performancesteigerung im ETL-Prozess und der Analytik
Umsetzung der Zielarchitektur mit den zur Aufgabenstellung relevanten Hadoop-Komponenten
SAS mit Analytik/RealTime-Analytik) und Visualisierung der Analytik
1.Sandbox-Service der Big Data-Suite-Dienstleister Cloudera und.MapR
SUSE Linux Enterprise Server 12
1.1 Technologien: In-Memory/Data Appliance, Spaltenorientierung, Kompression, Partitionierung, massiv parallele Verarbeitung
2. Klassifizierung und Auswertung unstrukturierter Massendaten (Textdateien), eMails sowie Intranet/Internet-Logfiles in Verbindung zu transaktionalen Kennzahlen aus bestehendem DWH mit einer klar definierten Zielerwartung der Fachseiten. Die Ergebnisse sind Grundlage zur Planung von Services.
3. Kriterienkatalog mit Bewertungen wie: Kosten/Lizenzmodell, Installation eines Hadoop-Cluster, Server Cluster Konfiguration und Sizing, Serviceleistungen, Sicherheit, Hosting-Services, Cloud-Services, Konnektoren zur Integration diverser Datenquellen, komplette Abbildung der Big Data-Prozesse (Datenverfügbarkeit, Analytik, Visualisierung), Entwicklungsumgebung (Eclipse), grafisches Monitoring (Scheduler und Applikationsmanager), nativer Apache-Hadoop-Code etc., Apache Hadoop Komponenten der Big Data Suite: HBase (NoSQL-DB), YARN, HDFS, MapReduce, Spark in-memory, Impala, Sqoop, Zookeeper, Search, Entry, Whirr Scriptsprachen wie HiveQL, Pig,und Python
Impala (Analytik mit SQL, Flexibilität, Skalierbarkeit, Monitoring und SQL-Funktionalität - ersetzt Hadoop-Workloads über MapReduce mit signifikantem Performancegewinn).
Spark als technische Alternative zu MapReduce mit signifikantem Performancegewinn In-Memory mit HDFS (APIs zu Hive, Pig, und Python bei komplexen Mappings)
Spezielle Anforderungen aus der Dokumentenspeicherung und -auswertung mit MongoDB
Dateiformate wie JSON (JavaScript Object Notation), XML etc.
3.1 Kooperationen mit Software-Stackanbietern (Ausschnitt: SAP, IBM, Teradata, Oracle, SAS, Informatica, Talent, Tableau)
4. Bewertung nach Anbieter nach Anbietergruppen auf Basis der Bewertungen nach Forrester Research und Barc; jedoch im Detail mit differenten Bewertungen
5. Auswahlverfahren ausschließlich im Kreis von Big Data-Suite-Dienstleistern. Entscheidung den PoC mit Cloudera und MapR durchzuführen.
6. Kooperation von Software-Stack-Anbietern wie SAS und Tableau mit Schwerpunkt Analytik, Visualisierung und Reifegrad der technischen Hadoop-Integration
7. Proof of Concept
Neben der Leistungsbewertung der Big Data-Dienstleister sind die Ziele des Proof of Concepts, technische Wege in einem ersten Umsetzungsstep zur Integration neuer Daten, den Möglichkeiten von Ad-hoc-Analysen, deren Automatisierung und der Ergebnis-Visualisierung in einer Big Data-Sandbox umzusetzen.
Im Zuge des PoCs wird eine Best Practice-Installationsbasis für das Big Data-Framework ? Zielarchitektur der Hadoop-Komponenten - empfohlen.
7.1 SAP Dokumentation (kein PoC): SAP-HANA-Architektur und technische Abgrenzung zu Big-Data-Hadoop-Architektur
7.2 Oracle Workshop und Dokumentation (PoC mit Cloudera): Oracle Big Data Appliance (In-Memory-Option, In-Memory-Aggregation, Big Table Caching, Advanced Index Compression, Force Full Caching Mode) X4-2 / Oracle 12c released 12.1.02 / Oracle Exadata Database Machine / Oracle Big Data SQL, Data Appliance zwischen Oracle und Cloudera, Oracle Big Data SQL ersetzt Hadoop-Workloads wie HiveQL, MapReduce, Spark etc.)
7.3 BM Workshops und Dokumentation (kein PoC): Architektur und Komponenten von InfoSphere BigInsights
7.4 PoC mit Cloudera Data Hub Edition Version 5.1.3 incl. Cloudera Impala (SQL-Quries auf HDFS und HBase) Version 2.0 zur Echtzeitanalyse großer Datenmenge ohne Hive und MapReduce-Jobs; Performancetest mit Apache Spark (signifikante Performancesteigerung vs. MapReduce
7.5 Cloudera/Oracle: Oracle 12c / Oracle Exadata Cloud/ Oracle Big Data SQL
PoC mit Hadoop-Datenbank Oracle 12c Exadata- statt HBase - und Oracle Big Data SQL
7.6 PoC mit MapR Enterprise Database Edition Version 3.1 und Impala (spezifische Komponente zur Verwendung des Unix-Dateisystems statt HDFS, Performancetest mit Apache Spark (signifikante Performancesteigerung vs. MapReduce
7.7 PoC mit SAS Visual Analytics 7.1 (SAS ist im IT-Betrieb etabliert) als Software-Stack-Anbieter für die Analytik und Visualisierung der Ergebnisse mit Zugriff auf HBase, Impala (Abfrage) und Oracle (DWH), SAS ist Cloudera Impala-Partner,
7.8 Bewertung und Entscheidung nach PoC mit Kriterienkatalog und
Bewertungsschema (Gewichtung)
7.9 Präsentationen IT und Fachseite zum Themen Big Data-Strategie, Big-Data-Nutzen, Big Data Governance und PoC-Ergebnisse
8. Dokumente
8.1 Powerpoint-Dokumente:
8.2 Dokumentation der PoC-Ergebnisse sowie technische Beschreibung der Installation. Architekturmodell bzw.-dokumentation mit arc42
Cloudera Data Hub Editon Version 5.1.3, Cloudra Impala Version 2.0, MapR Enterprise Database Edition Verson3.1, Oracle 12c Version 12.1.02, Oracle Exadata Cloud X2-2, Oracle Big Data SQL, SAS Visual Analytics 7.1, MongoDB 2.6.4, Eclipse, Python, Linux, Projektmanagmenttool: Cloud Microsoft VisualStudio
11/13 ? 08/14 siehe Ausbildung
01/14 ? 09/14
LBBS Stuttgart:
Vorgehensmodell zur BCBS #239-Einführung
BCBS #239-Verprobung und technischer Proof of Concepts SAP HANA / Bank Analyzer / SAP Risk & Compliance vs -SAS Risk Management for Banking and Insurance / ABACUS/DaVinci - Integration
ABACUS/DaVinci mit SAP Bank Analyzer Integration auf Basis SAP HANA
Funktion: Projektleitung, technisches und fachliches Consulting
Aufbau eines Excel-basierten Analyse- und Ergebnistemplates
BCBS 239-Vorgehensmodell für GAP-Analyse (Meldewesen und Risikoreporting) zur fachlichen (Implementierungsstand Basel III, CRD IV, CRR, SolvV, MaRisk) und technischen (DWH/BI-Analyse) Bewertung; Stand (Deckungsgrad und Qualität) des Meldewesens mit ABACUS/DaVince und SAP HANA-Integration
Dokumentationsstand (Vollständigkeit und Qualität)
Zukünftige regulatorische Anforderungen BCBS 248 und IFRS9
Scan-GAP mit Beschreibung der fachlichen Handlungsfeldern
Zielbild für Handlungsstränge ?zentrales Finance Data Warehouse?
PoC-Abschlussbericht mit fachlicher und technischer Empfehlung
Bei Bedarf können umfangreiche zum BCBS 239- Vorgehensmodell ?GAP-Analyse? und deren Ergebnistypen vorgelegt werden
02/14 ? 08/14
PostFinance AG Schweiz
Funktion: Business Analyst / Projektleiter
Im Rahmen des Entsendeabkommens zwischen der EU und der Schweiz
begrenzter Einsatz über 90 Tage Remote und beim Kunden (im Durchschnitt drei Tage wöchentlich beim Kunden); durch Remote-Einsatz Verlängerung der Beratungsdauer
Projekt:
Optimierung der AML-Verfahren (Temenos/Bosch) mit Anforderungskatalog (fachlich) und Detailspezifikation; Datenmodellierung in Abstimmung des SW-Anbieters)
Detailspezifikation (IT) der Anforderungen an FATCA mit Entscheidungsvorlage Standardlösung versus Eigenentwicklung (SAS); Datenmodellerweiterung DWH und Datenmodell FATCA-Data Mart, UML mit Visio, Architekturmodell mit arc42
Qualitätssicherung und Anpassung einer Detailspezifikation: Internationaler Zahlungsverkehr als GAP-Analyse der ISO20022 2006 versus 2009-Version für pacs008 und pacs 003; Anpassung der Mappingverfahren der internen Schnittstellen und den Zahlungsverkehrsschnittstellen zu Providern für SCT und SDD
Modifikation in den Datenmodellen in diversen operativen Systemen (UML mit Visio)
Projektmanagement-Tool: Hermes, SAS, Oracle, Temenos, Bosch, operative Systeme der PostFinance AG, SAP PPM, MS Visio (UML)
01/12 ? 01/14
W&W Informatik Ludwigsburg
Funktion: IT-Projektleitung Bank SEPA-Einführung, Aufbau PMO
Funktion: Testleitung fachlich und IT zur SEPA-Einführung SCT und SAP-Releasewechsel / Migration^
Leader der Architekturkonzepte
Erfolgreiche Einführung Ende November 2013
Stabilisierungsphase und Change Requests bis Ende Januar 2014
Sonderaufgaben:
Projekt:
Hinweis: aus Budgetgründen wurde das Projekt verschoben; Start in 2014 geplant
Details:
Sprint Planung 1 fachlich und Sprint Planung 2 IT
SAP BCA (Enhancement Framework, BTE, BAPI), SAP-FC-CD (Ablösung der Eigenentwicklung ?Zentrales Inkasso?), SAP-CML, SAP FI, Java (J2EE) ? Online Banking und Auftragsverwaltung), PL/1, Format-SEPA- und IBAN-Konverter, vbB/PPM (Anbieter: van den Berg), Charity, SAP PPM, ClearQuest, SQS, dwpbank mit WP2-Format, Sfirm LBBW, MQ-Series, ARIS
Projektmanagementmethode: GPM-IPMA (>300 Arbeitspakete mit SCRUM-Methodik)
Kritische Retrospektive aus Scrum-Sicht:
SEPA-Regelwerks) beim Kunden und damit deutlich reduzierte Aufwandspositionen zur Erstellung von Sprint Backlogs (User Stories in Arbeitspaketen) in Ablösung der klassischen Lasten- und Pflichtenhefte jedoch Bewahrung der Architekturspezifikationen sowie der Qualitätssicherung- und Testtemplates.
Maßnahme einer methodischen Anpassung Aufnahme der V-Modell-Artefakte in die Done-Kriterien von Scrum.
des Regelwerks.
geklärt bzw. organisatorisch verankert.
Zweifel und Sinnfragen).
11/11- 05/12
Infraserv GimbH Höchst
Funktionen: IT- und fachliche Beratung sowie Coaching Projektmanagement mit PRINCE2-und Scrum-Methodik 34 Tage beim Kunden, weitere Beratungsleistung remote
Projekt:
Finanzplanung/Konzernreporting/Konsoliderung auf Basis SAP EC-CS und SAP BW für IFRS und HGB: Bilanz, GuV, sonstiges Ergebnis, Anlagen-, Rücklagen- und Eigenkapitalspiegel, Kapitalflussrechnung. Aufbau Special Ledger für HGB-Reporting
Bewertung und Abnahme Fach- und IT-Konzept; Bewertung der Machbarkeit
Projektmanagement unter PRINCE2-Methodik (Nutzung des Frameworks incl. Templates)
Review/Optimierung des SAP BW-Datenmodells und der ETL-Prozesse
Projektmanagement für alle Projektphasen (Konzeption bis Betriebsübergabe)
SAP ERP (FI Ledger/AA), SAP EC-CS, Solution Manager, Business Content, SAP BW, Oracle, SharePoint, ARIS
Projektmanagementmethode: PRINCE2 und Scrum (Team- und Softwareentwicklungsprozesse)
Kritische Retrospektive aus Scrum-Sicht:
04/11-12/11
W&W Informatik Ludwigsburg
Funktion: Multiprojektmanagement / Testleitung
Aufbau PMO
Projektleitung: SAS-Migration/Metadaten 9.1.3 auf 9.2 (SAS-Mitarbeiter, interne Mitarbeiter) und Einführung DI-Studio für zentrales DWH und Data Marts unter z/OS und AIX
Übernahme im kritischen Projektstatus Laufzeit (20 Monate) und signifikantem Budgetüberzug mit erfolgreichem Abschluss nach fünf Monaten incl. Aufbau von Entwicklungs-, Test- und Produktionsplattform
OP-Liste aus Migration und Planung der Umsetzung
Etablierung des Releasemanagements im DWH-Umfeld
Analyse der Shell-Scripte und Überführung der ?Bypass-Lösung? in DI-Studio
DB2-Optimierung, Performanceoptimierung im SAS-Umfeld,
ITIL-Einführung im DWH-Umfeld incl. Testverfahren, PVCS, Clear Quest
Clarity-Projektmanagement-Tool
Projektleitung im Bereich CRM- und Kampagnenmanagement mit fünf Teilprojekten (SAS Kampagnenmanagement, SAS Base, DI-Studio, BI-Studio, HOST-basierte Systeme, DB2);
Review/Optimierung der Datenmodelle im SAS-DWH und Datamarts für Kampagnenmanagement und der Vertriebsreports
davon Freistellungsauftrag/Abgeltungssteuer (PL/1) mit OCR-Verarbeitung der Rückläufer und Adressabgleich mit über 400 PT
Agile Softwareentwicklung (SCRUM)
davon: Planung und Steuerung von ca. 30 Kampagnen/Aktionen
GAP-Analyse Bewirtschaftung Basis Warehouse, Data Mart und Kampagnen-Data-Mart (SAS-Kampagnenmanagement) in Ergänzung zur Migration
SAS 9.2 DI-Studio und BI-Studio, DB2, Charity, Clear Quest, SQS, PL/1, PVCS
Projektmanagementmethode: GPM-IPMA
04/11-06/11
TSG Vertriebsgesellschaft der DeutschenTelekom
Funktion: technische und fachliche Beratung (Remote) als Backup und Stabilisierung der dritten Planungsperiode (Forecast)
04/10-03/11 TSG Vertriebsgesellschaft der DeutschenTelekom
Funktionen: Projektleiter, Business Analysist, Softwareevaluierung und -beurteilung
Einführung Unternehmensplanung Controlling und Vertrieb mit den Planungskomponenten Budgetplanung, Forecast als rollierende innerjährige Planung, Mehrjahresplanung
Budgetverantwortung, Verantwortlich für die Ausschreibungen und Partnerauswahl zur Realisierung
Lenkungsausschuss
Lösungskonzept und Prozessoptimierung in den Planungsprozessen
PoC als Vorauswahl mit Expertenbewertung (SAS Planning, IBM Cognos Enterprise Planning, SAP Planung und Konsolidierung, Oracle Hyperion Essbase Planning, arcplan, Coperate Planning, Winterheller, Tagetik, Infor) und Bewertung (fachlich und technisch)
10-tätiger PoC je Anbieter: SAS und IBM Cognos
Entscheidungskriterien zur Auswahl und Auswahlentscheidung
Aufbau Data Mart zur Datenversorgung; Schnittstellen zu den zentralen
Planungssystemen des Konzerns
Aufbau einer zentralen Produktdatenbank mit komplexem Mapping von Tarifen und Produkten
Realisierung der Budgetplanung mit IBM TM1 Enterprise Planning mit Vertriebsplanung Mengen und Umsätze bis auf Shop- und Partnerebene, Verteilungsschlüssel, FTE-Planung; Planung der variablen Vergütung mit Punktesystem, Szenarien, Planungsvarianten, Planung des DB2 auf Shopebene
Aufbau einer zentralen technischen Infrastruktur, Top-down und bottom-up-Planung, Abstimmung der Planungsparameter mit Festnetz und T-Mobile, Einführung des Gegenstromverfahrens in Einbeziehung der Shops
Fachseitige Schulung und Unterstützung im Planungsprozess
Performanceoptimierung der TM1-Applikation und Architektur
Aufbau einer konsolidierten Produktdatenbank auf Basis SAS ERP als Konzernmaster mit Abbildung von Konditionen, Tarifen, Preise, variabler Vergütung und Führung paralleler Produkthierarchien
Schwerpunkte Consulting in Einführung und Optimierung von Planungsprozessen, Analyse, Testmanagement, Projektleitung und -management
IBM Cognos TM1 Enterprise Planning, Oracle 11g, Informatica Power Center, SAP ERP / BW, MS-Office, ARIS, MS-Projects
Projektmanagementmethode: PRINCE2 und SCRUM (Team- und Softwareentwicklungsprozesse)
11/06-07/10 VW AG Wolfsburg
ab Mitte Mai 2010 bis Ende Juli 2010 als Projektsupport
Funktionen: BI-Architekt, BI-Consultant, Projektleiter/Projektmanager
(Mulitprojektmanagement)
Beratungsleistung beim Aufbau und Etablierung: BI-Strategie, BI-Governance,
BI-CCs, BI-Architektur, Datenmanagement und Data Cleansing, BI-Konzil (fachlich getriebenes BI), BI-Projektmanagement
SAP-Competence Center (SAP BW, SAP CRM), Optimierung der Extraktoren/ Technologie aus SAP-Modulen (MM, CRM, FI, CO) zur Datenversorgung von SAP BW- und CRM-Applikationen
Konzept Migration SAP BW 3.5 auf 7.0, Optimierung von ABAP-Routinen mit Schwerpunkt ETL-Prozesse (ABAP OO)
Voruntersuchung/Analysen der fachlichen Anforderungen "Informationsbedarf" Sales
und After Sales; Business Case für Aufbau DWH und diverser BI-Lösungen sowie der Konsolidierung bestehender DWH-Lösungen mit internationaler Ausrichtung
Beschlussvorlage zur Umsetzung der Strategie unter "firmenpolitisch" schwierigen Konstellationen und Projektfreigabe
Funktion: ab Mai 2007 Projektleitung und -managementtechnisch und fachlich zum Aufbau eines Sales Gravitationszentrum (DWH) und diverser BI-Services (12 Teilprojekte bis 2010 im Produktionsbetrieb.
Ü Sechs Projekte mit IBM Cognos und Oracle EssBase, für granulare Analysen ROLAP z.B. Ausstattung der Fahrzeuge
Ü Fünf Projekte mit BO Web Intelligence und Crystal Report (ROLAP)
Ü Ein Projekt mit BO Web Intelligence und Ycelsius (ROLAP)
Ü DWH-Aufbau mit Input- und Storage-Layer sowie Output-Layern
Fachlicher Schwerpunkt: Vertrieb, Marketing und Kampagnen-Management im Neuwagen- und Gebrauchtwagengeschäft mit Budgetverantwortung
Beratungsleistung beim fachlichen Reportingdesign, Definition von KPIs und Realisierung von Dashboard-Anwendungen
Proof of Concepts Start 2007
Ü PoCs und Pilotprojekt "Planning and Simulation"
Ü PoC Oracle EssBase
Ü PoC IBM Cognos TM1
Ü PoCs Cognos/Oracle EssBase und BO Web Intelligence, Crystal Report, Voyager/Oracle EssBase
Ü PoC QlikView
Ü PoCs Dashbord-Werkzeuge (SAP BO Ycelsius, QlikView,
IBM Cognos)
Ü PoC SAP BW und BO (Crystal Report, Web Intelligence, Ycelsius)
Erweiterung des Auftrags zum Aufbau eines Gravitationszentrums (DWH) für After
Sales und diverser BI-Servicesund BI-Services ab Januar 2008
Konzept und Einführung: ITIL für DWH und BI-Services
Mitwirkung "BI-Strategie" (BI-Programm) des Konzerns
Umsetzung der BI-Strategie in BI-Projekten
Beratung zum Aufbau von BI-CCs: Datenmanagement, Businiss Objects, Oracle, Sun Grid Infrastruktur, IBM Cognos
Konzept Konsolidierungsstrategie der bestehenden DWH-Landschaft des Konzerns
Schwerpunkte Consulting, Datenmodellierung, Testmanagement Projektleitung und -management
SAP BW, SAP CRM, weitere SAP-Module, Oracle 10g /11g, Informatica Power Center, Oracle EssBase, IBM Cognos 8, Business Objects (Web Intelligence, Crystal Report, Ycelsius), ARIS, MS-Project, MS-Office, Mind Mapping, eRoom
Projektmanagementmethode: GPM-IPMA und SCRUM (Team- und Softwareentwicklungsprozesse)
05/06 - 12/06 T-Systems (Telekom AG)
Funktionen: Entwickler und Senior Consultant
Zentrales Einkaufsinformationssystem SAP BW, SAP FI und CO, MM
Migration der Stamm- und Bewegungsdaten vom HOST nach SAP MM / CO /FI
Anpassung der Extraktoren aus SAP FI, CO und MM
Stamm- und Bewegungsdaten (Kontrakte, Rechnungen, Bestellung (Bestellpositionen), Datenmodellierung (Mehrschichtenmodell, Harmonisierung)
Realisierung eines Masters (Basis für weitere 5 Telekom-Töchter)
Zusammenführung ?zentrales? Einkaufsinformationssystem mit KPI und Dashboard
Einführung ITIL-Prozesse
PoC: BI-Frontends für SAP BW (Cognos und BO)
Schwerpunkte: Konzept und Realisierung
SAP BW, FI, CO, MM Quellsystemanbindung R/3 (Extraktoren, generische
Extraktoren),ABAP OO,SAP Solution Manager, SAP ASAP-Modell
03/05 - 03/07 T-Systems (IKK Westfalen)
Funktionen: Entwicklung und Senior Consultant
SAP BW für Standard-Reporting, ad-hoc-Reporting, Segmentierung und
CRM-Integration
CRM für gesetzliche Krankenkassen, Quellsystem- und Informationsbedarfsanalysen, Entwicklung Delta-Verfahren
Blueprint und Datenmodell Krankenkasse CRM und BW
ABAP-Entwicklung von Funktionsbausteinen für ETL-Prozesse
BW-Realisierung als "Mehrschichtenmodell" (ODSe Rohdaten, ODSe Analyseschicht, Info Set, Multi Provider, Cubes, Multi Cubes, komplexe Prozessketten))
Cubes für KPI-Dashboard, "Standard"- und ?ad-hoc-Reporting? (BEx, WAS als Portallösung/Integration Netweaver)
Importe aus 110 Tabellen aus operativen Systemen nach SAP BW und CRM
SAP CRM (CustomerFactSheet mit BW-Integration, Segment Builder), der Geschäfts-partner ist Bestandteil des BW-Datenmodells. Anreicherung der Tabellen aus Quell-systemen um den Geschäftspartner, Reports um Opportunities, Aktvitäten und Kampagnen (Schwerpunkt DMP-Kampagnen)
Extraktoren-Erweiterung SAP CRM)
CRM Module: Business Partner, Business Partner Beziehungen, Aktivitäten (Kontakte, DMS etc.), Opportunities und Kampagnen
Test und Abnahme, Prozessketten (tägliche Beladung 7 Stunden) über Events/ABAP-Entwicklung
AS-Support und Einführung ILIL-Prozesse
Performanceoptimierung
Schwerpunkte: Konzept und Realisierung, Test und Testmanagement
ISKV (Informationssystem Krankenkassen und Rezept 300
SAP CRM, SAP BW, DB2, SQLServer mit Transact SQL, ABAP OO, BExAnalyzer,
Web, Application Designer, SAP Solution Manager,MS-Project,MS-Office, Visio
08/04 - 02/05 T-Mobile
Funktionen: Test, Qualitätssicherung und technische Abnahme
Management-Informationssystem (KPI und Dashbord)
Data Warehouse national/international
Schwerpunkte: Test und Realisierung, Testmanagement
SAP BW, SAP SEM-BPS, CO, FI, ABAP Objects, SAP Solution
Manager , Oracle 9i, PL/SQL, Toad, RationalRose/ClearCase/DDTS,
Hyperion Essbase, Cognos Serie 7
komplexe Schnittstellenlandschaft und komplexe Mapping-Verfahren
12/03 - 07/04 Conrad Elektronik
Funktion: Konzept und Realisierung
BW-Teilprojekte: Extraktion aus FI, CO, MM, SD, PSA)
ETL, Datenmodellierung, InfoCubes für Vertrieb und Marketing, Aufbau Vertriebs- und
Marketingreporting, Definition/Erweiterung von KPI
Schwerpunkte: Konzept und Realisierung, Test
SAP FI, CO, SD, MM, BW, ABAP/4, ABAP OO, Solution Manager, SAP Solution
Manager
08/02 - 12/03 Meckle-Ratiopharm
Funktionen: Entwickler und Senior Consultant
Analyse und Konzept SAP BW Vertriebsreporting
Blueprint SAP CRM und SAP BW
Realisierung SAP BW (Datenmodellierung, ETL, ODS, InfoProvider, Cubes (Reporting und KPI, Pozessketten, ABAP/4)
CRM-Module (Opportunities, Aktivitäten, Business Partner, Business Partner Beziehungen und Kampagnen
Konzept und Analyse für Call-Center-Lösung im Kontext SAP CRM-Integration
Schwerpunkte: Konzept und Realisierung, Test und Testmanagement
SAP CRM, SAP BW, Evaluierung (ACD, CTI, UNIFIED MESSAGING, IVR), ABAP/4
05/02 - 08/02 Sanofi-Synthelabo
Funktion: Projektleitung und Senior Management Consultant
Prozessanalyse Kampagnen- und Veranstaltungsmanagement
Analyse CRM-Architektur und Data Warehouse
Konzept Data Warehouse Einsatz von SAP BW
Konzept Vertriebsoptimierung: Multi-Channel-Vertriebssteuerung
Schwerpunkt: Consultant
ARIS, UML, MS-Office
01/02 - 04/02 Santander Bank
Funktion: Senior Consultant
Geschäftsprozess-Optimierung Kampagnen-und Responsemanagement,
sowie Interessenten- und Neukundenmanagement
Workflow-Optimierung
Schwerpunkt: Consulting
ARIS, UML, MS-Office
05/00 - 03/02 Dresdner Bank
Funktion: Gesamtprojektleitung / Senior Management Consultant
Gesamtkonzept Database Marketing
Gesamtkonzept Customer Relationship Management (SFA für den Filialbetrieb, Integration der bankspezifischen Beratungsmodule)
Call-Center und Kampagnen-Management) SIEBEL 2000 (mit Projektteam eines führendem Integrationsdienstleister)
Analyse IT-Architektur zentrales Data Warehouse Firmen- und Privatkunden
Einführung Kampagnenmanagement und Etablierung der Prozesse; Marketing-Automation
Zielgruppenanalyse mit SAS und SAS Enterprise Miner, Datenanreicherung soziodemografische Informationen
Customer Metric (Kennzahlen zur Definition von Zielgruppen)
Datenanalyse und Data-Cleansing
Schwerpunkte: Konzept, Datenmodellierung, Test und Testmanagement
DB2, SQL, SAS, Siebel, Powerbuilder, MS-Office
05/99 - 10/01 BFG AG heute SEB AG und SEBdirect
Funktion: Konzept und Gesamtprojektleitung
Strategie, Fach- und IT-Konzept, Werksvertrag mit Budgetverantwortung
Einführungsstrategie CRM, eCRM / Proof of Concept über vier Projektphasen
IT-Architektur CRM und zentrales Data Warehouse und Realisierung
Datenanalyse und Data-Cleansing
Adressmanagement (Workflow mit externem Dienstleister), Einführungskonzept für internes Adressmanagement
Multi-Channel-Vertriebssteuerung, Kampagnen-Management und Tool-Implementierung (siehe interne Projekte)
Kampagnen-Controlling
Marketing-Automation (Prozess- und Workflowoptimierung, Einführung und Etablierung neuer Prozesse)
Interessenten- und Neukundenmanagement
Response- und Kontaktmanagement/Reporting, Automatisierung von Reponse-Prozessen
Integration externer Daten (Sinus-Milieus, Microm)
Integration externer Dienstleister: Call-Center, Lettershop
Kundenbeziehungsmanagement, Zielgruppensegmentierung und Cluster
Customer Information Matrix als Kennzahlensystem
Integration Adressmanagement (Online-Abgleich)
Schwerpunkte: Konzept, Datenmodellierung und Gesamtprojektleitung, Test
und Testmanagement
Oracle, SQL, PL/SQL, SAS, ARIS, Visio, Java, XML/XSLm, Cognos Serie 7,
MS-Office
01/97 - 04/99 Deutsche Post AG
Funktion: Projektleitung / Senior Management Consultant
Consulting zur Einführung von SAP R/3: (FI, CO, MM, SD) und Migration aus
Altsystemen
Realisierung-Data-Warehouse und Data Marts für Brief und Fracht sowie
Einführung Sales Force Automation
Einführung Berichtswesen
Einführung KPI
Einführung Kampagnen-Management und ?Controlling
Data Cleansing-Projekt: SAP und SAP-Schnittstellen
Schwerpunkte: Konzept, Datenmodellierung, Projektleitung
Oracle, PL/SQL, SQL, SAS, SAP R/3 (FI, SD, SD, MM), SAP BW, Informatica
PowerCenter, ARIS, Hyperion EssBase, Express, MS-Offcie
SAP BW als Enterprise SAP Data Warehouse zur Versorgung der
Sparten-DWHs mit SAP Stamm- und Bewegungsdaten.
Eigenes Beratungsunternehmen
09/94 - 12/96 Deutsche Post AG
Funktion: Projektleitung /Senior Management Consultant
Consulting zur Einführung von SAP R/3 (FI, CO, MM, SD): Migration aus
Altsystemen
Elektronischer Datenaustausch mit Kunden und Partnern; EDS (elektronische
Einlieferungsliste für Kooperationskunden der Deutschen Post AG) und statistische
Auswertung
Neugestaltung in Marketing und Vertrieb (Key-Account-Management, Direct-Marketing
Center)
Konzept für Marketing- und Vertriebsinformationssysteme: Brief, Fracht, Philaletie und
Postzeitungsdienst, Berichtswesen Brief und Fracht
PoCs: BI-Frontend (Pilot, Express, Comshare, SAS, Cognos), BI-ETL-Tools
Schwerpunkte: Konzept, Datenmodellierung, Projektleitung
R/2, R/3 (FI, SD, CO), ABAP/4, ARIS, Oracle, SQL, PL/SQL
freiberufliche Tätigkeit bei Ploenzke Wiesbaden
08/93 - 08/94 Deutsche Post AG
Funktion: Projektleitung/Senior Management Consultant
Aufbau "Gesamtdeutsches Straßenverzeichnis"
Fach- und IT-Konzept: PPS Briefzentren, Logistik
Fach- und IT-Konzept Frachtleitcode
EDI-Einführung zur Verkehrstromplanung und Verkehrstromoptimierung
Schwerpunkte: Konzept, Datenmodellierung und Projektleitung
ADABAS, Oracle, Powerbuilder, SAS, PL/SQL, C++, Super Naturel
Ploenzke Kiedrich/Wiesbaden
06/92 - 07/93 Deutsche Post AG
Funktion: Senior Management Consultant
Umsetzung "neue fünfstellige Postleitzahl"
IT-Informationssystem "LOS (Leitzahlen-, Orts- und Straßenverzeichnis und deren
Historisierung)"
Beratungsleistung bei Unternehmen und Institutionen mit signifikant großen Datenmengen
Präsentation ?neue fünfstellige Postleitzahl? im Rahmen von Masterveranstaltungen der Deutschen Post AG
Schwerpunkte: Konzept, Datenmodellierung und Senior Management
Consultant
ADABAS, Super Naturel
Ploenzke Kiedrich/Wiesbaden
01/90 - 05/92 Deutsche Post AG
Funktion: Senior Management Consultant
Fach- und DV-Konzept: neues IT-System Postkrankenkasse
Konzept Reorganisation: SAP (Sozialwesen der Deutschen Post)
Planung Brief- und Frachtzentren mit Analyse der Verkehrsströme und statistische
Verfahren
Konzept: "fünfstelliges Postleitzahlensystem
Schwerpunkte: Konzept, Datenmodellierung und Senior Management Consultant
Predict-Case, Super Natrual, ADABAS, Oracle
Ploenzke Kiedrich/Wiesbaden
01/89 - 12/90Projekte: öffentliche Verwaltung, Deutsche Telekom, Deutsche Post und interne Projekte
Funktionen: Projektleiter- und Projektmanager, Senior Management Consultant
Diverse Projekte Deutsche Post und Telekom
Erfolgreiche Einführung und Mitwirkung "Reorganisation zentraler Bereiche in Stadtverwaltungen der neuen Bundesländer"
Aktive Mitgestaltung das ISOTEC-Verfahren als Standard aufzubauen
Schwerpunkte: Konzept, Datenmodellierung, Projektleitung
ISOTEC, Predict Case, Super Natural, Case/4/0, IEW, Oracle Case
Ploenzke Kiedrich/Wiesbaden
01/86 - 12/88 Deutsche Telekom und interne Projekte
Funktionen: Entwickler und Senior Consultant
Einsatz von Case-Tools in diversen Projekten, Evaluierung
Bewertung und Test
Mitwirkung am ISOTEC-Verfahren
Case-Tool-Einführung bei der Telekom mit Masterprojekt
Aktive Mitgestaltung das ISOTEC-Verfahren als Standard aufzubauen
Schwerpunkte: Konzept, Realisierung, Datenmodellierung
Predict Case, Case/4/0, IEW, Oracle Case, Cobol, C, C++
Citybank Düsseldorf
06/77 - 12/86 als Werkstudent ab 06/1977 bis 1982
ab 1982 in Funktionen als:
Anwendungsentwicklung
stell. Zweigstellenleiter
Abteilungsleiter: Verleiter: Verwaltung Region Mitte Controlling/Finanzen
Unternehmensinterne Projekte ? C.I.K. Consulting GmbH
01/99 ? 05/01 Kampagnenmanagement-Tool
Funktion: Federführung und Know-how-Träger beim fachlichen und IT-Konzept
zur Realisierung eines Kampagnenmanagement-Tool zur Mediaplanung
und Zielgruppenselektion mit bundesweit zwei Installationen
Schwerpunkt: Fachkonzept, Datenmodellierung, Gesamtprojektleitung
Oracle 8 und 8i, C++, PL/SQL, Cognos Powerplay und Impromptu, XML,
SAP R/3, SAS-IntegrationEnterpriseMiner,J2EE Websphere
Projektmanagement-Tool: MS-Project
Projektmanagement-Tool: Clarity mit Verknüpfung ClearQuest und SQS
Projektmanagement-Tool: SharePoint
Projektmanagement-Tool: SAP PS
UML
ARIS
Viso
arc42
ClearQuest
SQS
HP Quality Center
Mind Mapping
SAP ? CRM 6.0, BW > 8.0, SEM, Planning and Consolidation, HANA, EC-CS, BCA, FS-CD, CML, FI, CO, SD, MM (Erfahrungslevel bzw. aktuelles Know How ist modulabhängig)
IBM Cognos V10.1
IBM Cognos TM1 Enterprise Planning
Informatica Power Center
Apache Foundation Hadoop, Cloudera, Hortenworks, MapR, Oracle 12c/Exadata, SAP HANA
HDFS, WebHDFS, Map Reduce, YARN, Hue, Oozie, Cascading, Zookeeper, HBase, MongoDB, Oracle NoSQL Database (Exadata), Hive, Hive on Spark, Apache Drill, Pig, Spark SQL, Spark Streaming, Impala, Big SQL, Python, Strom Streaming, Kafka, Sqoop
Cloudera Manager, Hortenworks Ambari, MapR Control System
SAS DI- und BI ?Studio, SAS Visualisierung / Big Data-Integration
MS-Office
1999 ? 2002: Entwicklung einer Standardsoftware für Kampagnenmanagement, analytisches CRM und Mediaplanung (Java, J2EE, WebSphere, SAS)
Datenbanken und Frameworks
Leitende Funktionen
Coaching zwischen Marketing/Vetrieb/Controlling und IT
Know-How in den Unternehmensbereichen: Marketing/Vertrieb/Controlling
Grundsätzliche Hinweise zu Projektleitung und -management ? Funktionen.
Die Wahrnehmung der Funktion beinhaltet grundsätzlich folgende Projektmanagement-standards:
Cloud-Lösung: SAP HANA, Cloudera, (CHD), Kafka, Flink, Talend (Spezialistenvon Infomotion)
Tableau vs. SAP Lumira (Spezialisten von Infomotion)
weitere Testinstallation SparxSystzms Enterprise Architect
08/14 ? heute
Big Data-Lab
ein Invest der AMPM GmbH weitere BI-Dienstleister:
Testreihe April 2015:
Erprobung Solr und ElasticSearch mit Zugriff auf HDFS
Auf Hadoop/HDFS zugeschnittene Speicherformate: NumPy mit PyData,Stack (PySpark Python API, PyWeb-HDFS) und Sci Py-Stack
Spark SQL, PySpark Python API (Python-Unterstützung mit Spark), Avro und Parquet
HDFS / MapReduce - Migrationsstrategien nach Spark,NumPy und Sci-Py in Arbeit
Zwei Kollegen analysieren ab Oktober 2014 die Features und differenzierten Elemente von: Matlab, Mahout, SAS, R / Pyton, Datameer und SPSS
Dell/Intel-Cluster auf Basis Red Hat Enterprise Linux und VMware
Weiterbildung und Zertifizierung:
Informatica Power Center und Master Data Management / Big Data Integration
08/16 - 07/17
Nordex SE Windkraftanlagen:
Strategische Technologie-Beratung, Lead-Architekt BI/IoT/Big Data,
Impulsgeber/Coach für den Enterprise Architekturen, Projektleitung,
Workshops zur Einführung von BI-Infrastrukturen und Hadoop-Komponenten
Pilot und Produktivsetzung
Definition der Use Cases, hybride Architektur (Data Warehouse und Hadoop-Cluster) Empfehlung der Hadoop-Komponenten, Hadoop in der Cloud (PaaS vs. SaaS)
Grundlagen der Data Warehouse und Data Mart-Modellierung
IT-Managementberatung mit Abstimmung auf Ebene CIO, Stellvertreter CIO, Abteilungsleiter
Abstimmung und Kooperation mit Management auf der Fachseite der zweiten Führungsebene
Beratung zum Aufbau einer Data Governance
Blueprint zum Aufbau eines Master Data Managements; Umsetzung Start 05.2017
Blueprint und Realisierung von ersten Komponenten eines Integration Server Bus mit Mircoservices (REST API für Data Warehouse, Leitstand (Control Center) und Fehlermanagement
Architektur-Blueprint zur datentechnischen Integration der Windmühlen als Basis zum Aufbau Leitstand (Control Center für Alarme und prognostisierte Alarme)
Mircosoft Azure, SQL Server 2016, R-Integration SQL Server 2016, SSIS, Power BI, Hadoop mit Kafka, Spark 2.0 (R-Integration, ML; Spark Streaming, Spark SQL)
Handlungsempfehlung und Umsetzung in zwei Phasenmit Produktivsetzung
Pilot Phase 1:
Aufbau DWH , 3-Schichten-Modell (Storage, Cleansing mit Core und BI-Services mit Data Mart, Sandbox für Analytik
BI-Services für Engineering, Service, Product Strategiy und Produktion mit Microsoft Azure DWH-Komponenten (SSIS, SSAS Bower BI, MS R-Integration, MS BiZTalk, MS Master Data Management
Pilot:Phase 2:
Aufbau eines Hadoop-Cluster Microsoft Azure Insight Cloud SaaS
WLAN-Anbindung der Windmühlen unter Datentransport < 1 Sekunde in Hadoop-Cluster mit Streaming Analytik, Visualisierung, KPI mit Spark nach DWH für Dashboards, Datenarchivierung nach Filterung der relevanten Daten für Zeitreihenanalyse
Produktivbetrieb ab Mai 2017!
07/16 ? 12/16
Cosmos Direkt/Generali: Strategische Beratung, Lead-Architekt: Hadoop-Komponenten-Beratung, DWH- und Big Data-Architektur zur Umsetzung eines PoC im CRM und Empfehlung an Generali, Management-Präsentation (Vorstand), Workshops mit IT und Fachseite
Definition von Use Cases; Kündigeranalyse aus eMail Textmaining, Cross Selling aus eMail Textmaining, Einbindung der Ergebnisse aus Analytik in Testkampagnen.
Customer Journey mit weiteren Kennahlen für das Kampagnenmanagement
Beschreibung von Alternativen SAS Enterprise Miner, SAS Textmaining auf HDFS-Cluster sowie R-Integration/Spark ML auf HDFS.
Verantwortlich für die Vorstandpräsentation und Empfehlung zum weiteren Einsatz.
PoC mit Cloudera, Phyhton/Spark ML, HDFS, Sqoop
Produktivbetrieb seit Januar 2017!
06/15 - 06/16
Projektleitung und Testmanager im Auftrag des Generalunternehmers als Festpreisprojekt zum Aufbau eines neuen ?Output-Management-System der Deka Luxemburg?
Projektleitung und Testmanager im Auftrag des Generalunternehmers als Festpreisprojekt zum Aufbau eines neuen ?Output-Management-System der Deka Luxemburg?. Führung von Teams mit folgenden Schwerpunkten:
Steuerung in Konzeption, Realisierung und Qualitätssicherung:
IT-Architektur, DV-Konzepte, Konsolidierung Fachkonzepte, Datenmodellierung, ETL-Framework, Berechtigungskonzepte, Betriebs- und Produktionshandbücher, Rollout-Management.
Die Komponenten des Output-Managements im Detail:
Testmanagement mit folgenden Schwerpunkten
Projektmanagement
OLYMPIC Banking System
Sybase PowerDesigner, Informatica PowerCenter Version 9.0.1, Informatica B2B Data Exchange, SQL, Views/MatViews, DB2 V 9.7.03, MS SQL Server, Java, Tomcat, UNIX, XMLSpy Altova. MS Server, Webservices, Nagios, TravicLink, Filenet, Cognos 10, Engage One/DOC1GEN (Pitney Bowes), DocBridge Pilot und Queue-Processor (Compart), Böwe
Bugzilla (Testmanagement), MS-Qffice, MS Visio, MS Project, XSD/XML, AFP mit Grafik, PDF, TLE
03/15 - 06/15
PoC, Pilot, Produktivbetrieb ab 09/15 für ein Unternehmen der Pharmaindustrie in Rheinland-Pfalz (Boehringer Ingelheim)
Gemeinsame Aktivität mit AWS-Partnerunternehmen
Aufgabe: DNA-Analyse
Hadoop-Komponenten: Cloud AWS Big Data-Lösung, S3, Elastic MapReduce (EMR), MongoDB, Redsift, Kafka, Storm, Solv
Analyse mit Datameer (Aktivität des SW-Anbieters) und R als Alternative zu SAS, IPython zur Datenaufbereitung vor Analytik mit R und Datameer
Visualisierung mit Tableaus (Aktivität des SW-Anbieters)
04/15 - 06/15
Studie und Strategiepapier zur Big Data-Einführung für ein Handelsunternehmen in Baden-Württemberg (Lidl Neckarsulm)
Abschluss Mitte Juni 2015
09/14 - 05/15
Deutsche Telekom / T-Mobile Bonn/Darmstadt
PoCs und Piloten mit zwei Big Data-Dienstleistern (Cloudera, MapR, Cloudera/Oracle) und SAS Visual Analytics
Pilot-Betrieb mit Cloudera und SAS als SaaS-Dienstleistung
Funktion: Lead Architekt, Strategieberatung, Projektleitung, technisches Consulting
(IT-Infrastruktur und Datenmodell, Bewertung Hadoop-Komponenten)
Produktivbetrieb 08/15
Projekt
Aktueller Status: Produktivsetzung der PoC-Ergebnisse mit Cloudera (Cloudera Enterprise mit definierten Hadoop-Komponenten) und SAS Visual Analytics 7.1
Resümee aus PoC:
Aktuelle Anforderung: Planung zur Produktivsetzung des PoC-Release
Festlegung der anforderungsrelevanten Hadoop-Komponenten
Die fachlichen Anforderungen wurden komplett erfüllt:
Schnelle Verfügbarkeit über Cloud bzw. Sandbox
Management-Konsolen der Anbieter vereinfachen den operativen Betrieb; weitere Integration von Apache-Hadoop-Tools sind zu erwarten
Mit Spark und Impala signifikante Performancesteigerung im ETL-Prozess und der Analytik
Umsetzung der Zielarchitektur mit den zur Aufgabenstellung relevanten Hadoop-Komponenten
SAS mit Analytik/RealTime-Analytik) und Visualisierung der Analytik
1.Sandbox-Service der Big Data-Suite-Dienstleister Cloudera und.MapR
SUSE Linux Enterprise Server 12
1.1 Technologien: In-Memory/Data Appliance, Spaltenorientierung, Kompression, Partitionierung, massiv parallele Verarbeitung
2. Klassifizierung und Auswertung unstrukturierter Massendaten (Textdateien), eMails sowie Intranet/Internet-Logfiles in Verbindung zu transaktionalen Kennzahlen aus bestehendem DWH mit einer klar definierten Zielerwartung der Fachseiten. Die Ergebnisse sind Grundlage zur Planung von Services.
3. Kriterienkatalog mit Bewertungen wie: Kosten/Lizenzmodell, Installation eines Hadoop-Cluster, Server Cluster Konfiguration und Sizing, Serviceleistungen, Sicherheit, Hosting-Services, Cloud-Services, Konnektoren zur Integration diverser Datenquellen, komplette Abbildung der Big Data-Prozesse (Datenverfügbarkeit, Analytik, Visualisierung), Entwicklungsumgebung (Eclipse), grafisches Monitoring (Scheduler und Applikationsmanager), nativer Apache-Hadoop-Code etc., Apache Hadoop Komponenten der Big Data Suite: HBase (NoSQL-DB), YARN, HDFS, MapReduce, Spark in-memory, Impala, Sqoop, Zookeeper, Search, Entry, Whirr Scriptsprachen wie HiveQL, Pig,und Python
Impala (Analytik mit SQL, Flexibilität, Skalierbarkeit, Monitoring und SQL-Funktionalität - ersetzt Hadoop-Workloads über MapReduce mit signifikantem Performancegewinn).
Spark als technische Alternative zu MapReduce mit signifikantem Performancegewinn In-Memory mit HDFS (APIs zu Hive, Pig, und Python bei komplexen Mappings)
Spezielle Anforderungen aus der Dokumentenspeicherung und -auswertung mit MongoDB
Dateiformate wie JSON (JavaScript Object Notation), XML etc.
3.1 Kooperationen mit Software-Stackanbietern (Ausschnitt: SAP, IBM, Teradata, Oracle, SAS, Informatica, Talent, Tableau)
4. Bewertung nach Anbieter nach Anbietergruppen auf Basis der Bewertungen nach Forrester Research und Barc; jedoch im Detail mit differenten Bewertungen
5. Auswahlverfahren ausschließlich im Kreis von Big Data-Suite-Dienstleistern. Entscheidung den PoC mit Cloudera und MapR durchzuführen.
6. Kooperation von Software-Stack-Anbietern wie SAS und Tableau mit Schwerpunkt Analytik, Visualisierung und Reifegrad der technischen Hadoop-Integration
7. Proof of Concept
Neben der Leistungsbewertung der Big Data-Dienstleister sind die Ziele des Proof of Concepts, technische Wege in einem ersten Umsetzungsstep zur Integration neuer Daten, den Möglichkeiten von Ad-hoc-Analysen, deren Automatisierung und der Ergebnis-Visualisierung in einer Big Data-Sandbox umzusetzen.
Im Zuge des PoCs wird eine Best Practice-Installationsbasis für das Big Data-Framework ? Zielarchitektur der Hadoop-Komponenten - empfohlen.
7.1 SAP Dokumentation (kein PoC): SAP-HANA-Architektur und technische Abgrenzung zu Big-Data-Hadoop-Architektur
7.2 Oracle Workshop und Dokumentation (PoC mit Cloudera): Oracle Big Data Appliance (In-Memory-Option, In-Memory-Aggregation, Big Table Caching, Advanced Index Compression, Force Full Caching Mode) X4-2 / Oracle 12c released 12.1.02 / Oracle Exadata Database Machine / Oracle Big Data SQL, Data Appliance zwischen Oracle und Cloudera, Oracle Big Data SQL ersetzt Hadoop-Workloads wie HiveQL, MapReduce, Spark etc.)
7.3 BM Workshops und Dokumentation (kein PoC): Architektur und Komponenten von InfoSphere BigInsights
7.4 PoC mit Cloudera Data Hub Edition Version 5.1.3 incl. Cloudera Impala (SQL-Quries auf HDFS und HBase) Version 2.0 zur Echtzeitanalyse großer Datenmenge ohne Hive und MapReduce-Jobs; Performancetest mit Apache Spark (signifikante Performancesteigerung vs. MapReduce
7.5 Cloudera/Oracle: Oracle 12c / Oracle Exadata Cloud/ Oracle Big Data SQL
PoC mit Hadoop-Datenbank Oracle 12c Exadata- statt HBase - und Oracle Big Data SQL
7.6 PoC mit MapR Enterprise Database Edition Version 3.1 und Impala (spezifische Komponente zur Verwendung des Unix-Dateisystems statt HDFS, Performancetest mit Apache Spark (signifikante Performancesteigerung vs. MapReduce
7.7 PoC mit SAS Visual Analytics 7.1 (SAS ist im IT-Betrieb etabliert) als Software-Stack-Anbieter für die Analytik und Visualisierung der Ergebnisse mit Zugriff auf HBase, Impala (Abfrage) und Oracle (DWH), SAS ist Cloudera Impala-Partner,
7.8 Bewertung und Entscheidung nach PoC mit Kriterienkatalog und
Bewertungsschema (Gewichtung)
7.9 Präsentationen IT und Fachseite zum Themen Big Data-Strategie, Big-Data-Nutzen, Big Data Governance und PoC-Ergebnisse
8. Dokumente
8.1 Powerpoint-Dokumente:
8.2 Dokumentation der PoC-Ergebnisse sowie technische Beschreibung der Installation. Architekturmodell bzw.-dokumentation mit arc42
Cloudera Data Hub Editon Version 5.1.3, Cloudra Impala Version 2.0, MapR Enterprise Database Edition Verson3.1, Oracle 12c Version 12.1.02, Oracle Exadata Cloud X2-2, Oracle Big Data SQL, SAS Visual Analytics 7.1, MongoDB 2.6.4, Eclipse, Python, Linux, Projektmanagmenttool: Cloud Microsoft VisualStudio
11/13 ? 08/14 siehe Ausbildung
01/14 ? 09/14
LBBS Stuttgart:
Vorgehensmodell zur BCBS #239-Einführung
BCBS #239-Verprobung und technischer Proof of Concepts SAP HANA / Bank Analyzer / SAP Risk & Compliance vs -SAS Risk Management for Banking and Insurance / ABACUS/DaVinci - Integration
ABACUS/DaVinci mit SAP Bank Analyzer Integration auf Basis SAP HANA
Funktion: Projektleitung, technisches und fachliches Consulting
Aufbau eines Excel-basierten Analyse- und Ergebnistemplates
BCBS 239-Vorgehensmodell für GAP-Analyse (Meldewesen und Risikoreporting) zur fachlichen (Implementierungsstand Basel III, CRD IV, CRR, SolvV, MaRisk) und technischen (DWH/BI-Analyse) Bewertung; Stand (Deckungsgrad und Qualität) des Meldewesens mit ABACUS/DaVince und SAP HANA-Integration
Dokumentationsstand (Vollständigkeit und Qualität)
Zukünftige regulatorische Anforderungen BCBS 248 und IFRS9
Scan-GAP mit Beschreibung der fachlichen Handlungsfeldern
Zielbild für Handlungsstränge ?zentrales Finance Data Warehouse?
PoC-Abschlussbericht mit fachlicher und technischer Empfehlung
Bei Bedarf können umfangreiche zum BCBS 239- Vorgehensmodell ?GAP-Analyse? und deren Ergebnistypen vorgelegt werden
02/14 ? 08/14
PostFinance AG Schweiz
Funktion: Business Analyst / Projektleiter
Im Rahmen des Entsendeabkommens zwischen der EU und der Schweiz
begrenzter Einsatz über 90 Tage Remote und beim Kunden (im Durchschnitt drei Tage wöchentlich beim Kunden); durch Remote-Einsatz Verlängerung der Beratungsdauer
Projekt:
Optimierung der AML-Verfahren (Temenos/Bosch) mit Anforderungskatalog (fachlich) und Detailspezifikation; Datenmodellierung in Abstimmung des SW-Anbieters)
Detailspezifikation (IT) der Anforderungen an FATCA mit Entscheidungsvorlage Standardlösung versus Eigenentwicklung (SAS); Datenmodellerweiterung DWH und Datenmodell FATCA-Data Mart, UML mit Visio, Architekturmodell mit arc42
Qualitätssicherung und Anpassung einer Detailspezifikation: Internationaler Zahlungsverkehr als GAP-Analyse der ISO20022 2006 versus 2009-Version für pacs008 und pacs 003; Anpassung der Mappingverfahren der internen Schnittstellen und den Zahlungsverkehrsschnittstellen zu Providern für SCT und SDD
Modifikation in den Datenmodellen in diversen operativen Systemen (UML mit Visio)
Projektmanagement-Tool: Hermes, SAS, Oracle, Temenos, Bosch, operative Systeme der PostFinance AG, SAP PPM, MS Visio (UML)
01/12 ? 01/14
W&W Informatik Ludwigsburg
Funktion: IT-Projektleitung Bank SEPA-Einführung, Aufbau PMO
Funktion: Testleitung fachlich und IT zur SEPA-Einführung SCT und SAP-Releasewechsel / Migration^
Leader der Architekturkonzepte
Erfolgreiche Einführung Ende November 2013
Stabilisierungsphase und Change Requests bis Ende Januar 2014
Sonderaufgaben:
Projekt:
Hinweis: aus Budgetgründen wurde das Projekt verschoben; Start in 2014 geplant
Details:
Sprint Planung 1 fachlich und Sprint Planung 2 IT
SAP BCA (Enhancement Framework, BTE, BAPI), SAP-FC-CD (Ablösung der Eigenentwicklung ?Zentrales Inkasso?), SAP-CML, SAP FI, Java (J2EE) ? Online Banking und Auftragsverwaltung), PL/1, Format-SEPA- und IBAN-Konverter, vbB/PPM (Anbieter: van den Berg), Charity, SAP PPM, ClearQuest, SQS, dwpbank mit WP2-Format, Sfirm LBBW, MQ-Series, ARIS
Projektmanagementmethode: GPM-IPMA (>300 Arbeitspakete mit SCRUM-Methodik)
Kritische Retrospektive aus Scrum-Sicht:
SEPA-Regelwerks) beim Kunden und damit deutlich reduzierte Aufwandspositionen zur Erstellung von Sprint Backlogs (User Stories in Arbeitspaketen) in Ablösung der klassischen Lasten- und Pflichtenhefte jedoch Bewahrung der Architekturspezifikationen sowie der Qualitätssicherung- und Testtemplates.
Maßnahme einer methodischen Anpassung Aufnahme der V-Modell-Artefakte in die Done-Kriterien von Scrum.
des Regelwerks.
geklärt bzw. organisatorisch verankert.
Zweifel und Sinnfragen).
11/11- 05/12
Infraserv GimbH Höchst
Funktionen: IT- und fachliche Beratung sowie Coaching Projektmanagement mit PRINCE2-und Scrum-Methodik 34 Tage beim Kunden, weitere Beratungsleistung remote
Projekt:
Finanzplanung/Konzernreporting/Konsoliderung auf Basis SAP EC-CS und SAP BW für IFRS und HGB: Bilanz, GuV, sonstiges Ergebnis, Anlagen-, Rücklagen- und Eigenkapitalspiegel, Kapitalflussrechnung. Aufbau Special Ledger für HGB-Reporting
Bewertung und Abnahme Fach- und IT-Konzept; Bewertung der Machbarkeit
Projektmanagement unter PRINCE2-Methodik (Nutzung des Frameworks incl. Templates)
Review/Optimierung des SAP BW-Datenmodells und der ETL-Prozesse
Projektmanagement für alle Projektphasen (Konzeption bis Betriebsübergabe)
SAP ERP (FI Ledger/AA), SAP EC-CS, Solution Manager, Business Content, SAP BW, Oracle, SharePoint, ARIS
Projektmanagementmethode: PRINCE2 und Scrum (Team- und Softwareentwicklungsprozesse)
Kritische Retrospektive aus Scrum-Sicht:
04/11-12/11
W&W Informatik Ludwigsburg
Funktion: Multiprojektmanagement / Testleitung
Aufbau PMO
Projektleitung: SAS-Migration/Metadaten 9.1.3 auf 9.2 (SAS-Mitarbeiter, interne Mitarbeiter) und Einführung DI-Studio für zentrales DWH und Data Marts unter z/OS und AIX
Übernahme im kritischen Projektstatus Laufzeit (20 Monate) und signifikantem Budgetüberzug mit erfolgreichem Abschluss nach fünf Monaten incl. Aufbau von Entwicklungs-, Test- und Produktionsplattform
OP-Liste aus Migration und Planung der Umsetzung
Etablierung des Releasemanagements im DWH-Umfeld
Analyse der Shell-Scripte und Überführung der ?Bypass-Lösung? in DI-Studio
DB2-Optimierung, Performanceoptimierung im SAS-Umfeld,
ITIL-Einführung im DWH-Umfeld incl. Testverfahren, PVCS, Clear Quest
Clarity-Projektmanagement-Tool
Projektleitung im Bereich CRM- und Kampagnenmanagement mit fünf Teilprojekten (SAS Kampagnenmanagement, SAS Base, DI-Studio, BI-Studio, HOST-basierte Systeme, DB2);
Review/Optimierung der Datenmodelle im SAS-DWH und Datamarts für Kampagnenmanagement und der Vertriebsreports
davon Freistellungsauftrag/Abgeltungssteuer (PL/1) mit OCR-Verarbeitung der Rückläufer und Adressabgleich mit über 400 PT
Agile Softwareentwicklung (SCRUM)
davon: Planung und Steuerung von ca. 30 Kampagnen/Aktionen
GAP-Analyse Bewirtschaftung Basis Warehouse, Data Mart und Kampagnen-Data-Mart (SAS-Kampagnenmanagement) in Ergänzung zur Migration
SAS 9.2 DI-Studio und BI-Studio, DB2, Charity, Clear Quest, SQS, PL/1, PVCS
Projektmanagementmethode: GPM-IPMA
04/11-06/11
TSG Vertriebsgesellschaft der DeutschenTelekom
Funktion: technische und fachliche Beratung (Remote) als Backup und Stabilisierung der dritten Planungsperiode (Forecast)
04/10-03/11 TSG Vertriebsgesellschaft der DeutschenTelekom
Funktionen: Projektleiter, Business Analysist, Softwareevaluierung und -beurteilung
Einführung Unternehmensplanung Controlling und Vertrieb mit den Planungskomponenten Budgetplanung, Forecast als rollierende innerjährige Planung, Mehrjahresplanung
Budgetverantwortung, Verantwortlich für die Ausschreibungen und Partnerauswahl zur Realisierung
Lenkungsausschuss
Lösungskonzept und Prozessoptimierung in den Planungsprozessen
PoC als Vorauswahl mit Expertenbewertung (SAS Planning, IBM Cognos Enterprise Planning, SAP Planung und Konsolidierung, Oracle Hyperion Essbase Planning, arcplan, Coperate Planning, Winterheller, Tagetik, Infor) und Bewertung (fachlich und technisch)
10-tätiger PoC je Anbieter: SAS und IBM Cognos
Entscheidungskriterien zur Auswahl und Auswahlentscheidung
Aufbau Data Mart zur Datenversorgung; Schnittstellen zu den zentralen
Planungssystemen des Konzerns
Aufbau einer zentralen Produktdatenbank mit komplexem Mapping von Tarifen und Produkten
Realisierung der Budgetplanung mit IBM TM1 Enterprise Planning mit Vertriebsplanung Mengen und Umsätze bis auf Shop- und Partnerebene, Verteilungsschlüssel, FTE-Planung; Planung der variablen Vergütung mit Punktesystem, Szenarien, Planungsvarianten, Planung des DB2 auf Shopebene
Aufbau einer zentralen technischen Infrastruktur, Top-down und bottom-up-Planung, Abstimmung der Planungsparameter mit Festnetz und T-Mobile, Einführung des Gegenstromverfahrens in Einbeziehung der Shops
Fachseitige Schulung und Unterstützung im Planungsprozess
Performanceoptimierung der TM1-Applikation und Architektur
Aufbau einer konsolidierten Produktdatenbank auf Basis SAS ERP als Konzernmaster mit Abbildung von Konditionen, Tarifen, Preise, variabler Vergütung und Führung paralleler Produkthierarchien
Schwerpunkte Consulting in Einführung und Optimierung von Planungsprozessen, Analyse, Testmanagement, Projektleitung und -management
IBM Cognos TM1 Enterprise Planning, Oracle 11g, Informatica Power Center, SAP ERP / BW, MS-Office, ARIS, MS-Projects
Projektmanagementmethode: PRINCE2 und SCRUM (Team- und Softwareentwicklungsprozesse)
11/06-07/10 VW AG Wolfsburg
ab Mitte Mai 2010 bis Ende Juli 2010 als Projektsupport
Funktionen: BI-Architekt, BI-Consultant, Projektleiter/Projektmanager
(Mulitprojektmanagement)
Beratungsleistung beim Aufbau und Etablierung: BI-Strategie, BI-Governance,
BI-CCs, BI-Architektur, Datenmanagement und Data Cleansing, BI-Konzil (fachlich getriebenes BI), BI-Projektmanagement
SAP-Competence Center (SAP BW, SAP CRM), Optimierung der Extraktoren/ Technologie aus SAP-Modulen (MM, CRM, FI, CO) zur Datenversorgung von SAP BW- und CRM-Applikationen
Konzept Migration SAP BW 3.5 auf 7.0, Optimierung von ABAP-Routinen mit Schwerpunkt ETL-Prozesse (ABAP OO)
Voruntersuchung/Analysen der fachlichen Anforderungen "Informationsbedarf" Sales
und After Sales; Business Case für Aufbau DWH und diverser BI-Lösungen sowie der Konsolidierung bestehender DWH-Lösungen mit internationaler Ausrichtung
Beschlussvorlage zur Umsetzung der Strategie unter "firmenpolitisch" schwierigen Konstellationen und Projektfreigabe
Funktion: ab Mai 2007 Projektleitung und -managementtechnisch und fachlich zum Aufbau eines Sales Gravitationszentrum (DWH) und diverser BI-Services (12 Teilprojekte bis 2010 im Produktionsbetrieb.
Ü Sechs Projekte mit IBM Cognos und Oracle EssBase, für granulare Analysen ROLAP z.B. Ausstattung der Fahrzeuge
Ü Fünf Projekte mit BO Web Intelligence und Crystal Report (ROLAP)
Ü Ein Projekt mit BO Web Intelligence und Ycelsius (ROLAP)
Ü DWH-Aufbau mit Input- und Storage-Layer sowie Output-Layern
Fachlicher Schwerpunkt: Vertrieb, Marketing und Kampagnen-Management im Neuwagen- und Gebrauchtwagengeschäft mit Budgetverantwortung
Beratungsleistung beim fachlichen Reportingdesign, Definition von KPIs und Realisierung von Dashboard-Anwendungen
Proof of Concepts Start 2007
Ü PoCs und Pilotprojekt "Planning and Simulation"
Ü PoC Oracle EssBase
Ü PoC IBM Cognos TM1
Ü PoCs Cognos/Oracle EssBase und BO Web Intelligence, Crystal Report, Voyager/Oracle EssBase
Ü PoC QlikView
Ü PoCs Dashbord-Werkzeuge (SAP BO Ycelsius, QlikView,
IBM Cognos)
Ü PoC SAP BW und BO (Crystal Report, Web Intelligence, Ycelsius)
Erweiterung des Auftrags zum Aufbau eines Gravitationszentrums (DWH) für After
Sales und diverser BI-Servicesund BI-Services ab Januar 2008
Konzept und Einführung: ITIL für DWH und BI-Services
Mitwirkung "BI-Strategie" (BI-Programm) des Konzerns
Umsetzung der BI-Strategie in BI-Projekten
Beratung zum Aufbau von BI-CCs: Datenmanagement, Businiss Objects, Oracle, Sun Grid Infrastruktur, IBM Cognos
Konzept Konsolidierungsstrategie der bestehenden DWH-Landschaft des Konzerns
Schwerpunkte Consulting, Datenmodellierung, Testmanagement Projektleitung und -management
SAP BW, SAP CRM, weitere SAP-Module, Oracle 10g /11g, Informatica Power Center, Oracle EssBase, IBM Cognos 8, Business Objects (Web Intelligence, Crystal Report, Ycelsius), ARIS, MS-Project, MS-Office, Mind Mapping, eRoom
Projektmanagementmethode: GPM-IPMA und SCRUM (Team- und Softwareentwicklungsprozesse)
05/06 - 12/06 T-Systems (Telekom AG)
Funktionen: Entwickler und Senior Consultant
Zentrales Einkaufsinformationssystem SAP BW, SAP FI und CO, MM
Migration der Stamm- und Bewegungsdaten vom HOST nach SAP MM / CO /FI
Anpassung der Extraktoren aus SAP FI, CO und MM
Stamm- und Bewegungsdaten (Kontrakte, Rechnungen, Bestellung (Bestellpositionen), Datenmodellierung (Mehrschichtenmodell, Harmonisierung)
Realisierung eines Masters (Basis für weitere 5 Telekom-Töchter)
Zusammenführung ?zentrales? Einkaufsinformationssystem mit KPI und Dashboard
Einführung ITIL-Prozesse
PoC: BI-Frontends für SAP BW (Cognos und BO)
Schwerpunkte: Konzept und Realisierung
SAP BW, FI, CO, MM Quellsystemanbindung R/3 (Extraktoren, generische
Extraktoren),ABAP OO,SAP Solution Manager, SAP ASAP-Modell
03/05 - 03/07 T-Systems (IKK Westfalen)
Funktionen: Entwicklung und Senior Consultant
SAP BW für Standard-Reporting, ad-hoc-Reporting, Segmentierung und
CRM-Integration
CRM für gesetzliche Krankenkassen, Quellsystem- und Informationsbedarfsanalysen, Entwicklung Delta-Verfahren
Blueprint und Datenmodell Krankenkasse CRM und BW
ABAP-Entwicklung von Funktionsbausteinen für ETL-Prozesse
BW-Realisierung als "Mehrschichtenmodell" (ODSe Rohdaten, ODSe Analyseschicht, Info Set, Multi Provider, Cubes, Multi Cubes, komplexe Prozessketten))
Cubes für KPI-Dashboard, "Standard"- und ?ad-hoc-Reporting? (BEx, WAS als Portallösung/Integration Netweaver)
Importe aus 110 Tabellen aus operativen Systemen nach SAP BW und CRM
SAP CRM (CustomerFactSheet mit BW-Integration, Segment Builder), der Geschäfts-partner ist Bestandteil des BW-Datenmodells. Anreicherung der Tabellen aus Quell-systemen um den Geschäftspartner, Reports um Opportunities, Aktvitäten und Kampagnen (Schwerpunkt DMP-Kampagnen)
Extraktoren-Erweiterung SAP CRM)
CRM Module: Business Partner, Business Partner Beziehungen, Aktivitäten (Kontakte, DMS etc.), Opportunities und Kampagnen
Test und Abnahme, Prozessketten (tägliche Beladung 7 Stunden) über Events/ABAP-Entwicklung
AS-Support und Einführung ILIL-Prozesse
Performanceoptimierung
Schwerpunkte: Konzept und Realisierung, Test und Testmanagement
ISKV (Informationssystem Krankenkassen und Rezept 300
SAP CRM, SAP BW, DB2, SQLServer mit Transact SQL, ABAP OO, BExAnalyzer,
Web, Application Designer, SAP Solution Manager,MS-Project,MS-Office, Visio
08/04 - 02/05 T-Mobile
Funktionen: Test, Qualitätssicherung und technische Abnahme
Management-Informationssystem (KPI und Dashbord)
Data Warehouse national/international
Schwerpunkte: Test und Realisierung, Testmanagement
SAP BW, SAP SEM-BPS, CO, FI, ABAP Objects, SAP Solution
Manager , Oracle 9i, PL/SQL, Toad, RationalRose/ClearCase/DDTS,
Hyperion Essbase, Cognos Serie 7
komplexe Schnittstellenlandschaft und komplexe Mapping-Verfahren
12/03 - 07/04 Conrad Elektronik
Funktion: Konzept und Realisierung
BW-Teilprojekte: Extraktion aus FI, CO, MM, SD, PSA)
ETL, Datenmodellierung, InfoCubes für Vertrieb und Marketing, Aufbau Vertriebs- und
Marketingreporting, Definition/Erweiterung von KPI
Schwerpunkte: Konzept und Realisierung, Test
SAP FI, CO, SD, MM, BW, ABAP/4, ABAP OO, Solution Manager, SAP Solution
Manager
08/02 - 12/03 Meckle-Ratiopharm
Funktionen: Entwickler und Senior Consultant
Analyse und Konzept SAP BW Vertriebsreporting
Blueprint SAP CRM und SAP BW
Realisierung SAP BW (Datenmodellierung, ETL, ODS, InfoProvider, Cubes (Reporting und KPI, Pozessketten, ABAP/4)
CRM-Module (Opportunities, Aktivitäten, Business Partner, Business Partner Beziehungen und Kampagnen
Konzept und Analyse für Call-Center-Lösung im Kontext SAP CRM-Integration
Schwerpunkte: Konzept und Realisierung, Test und Testmanagement
SAP CRM, SAP BW, Evaluierung (ACD, CTI, UNIFIED MESSAGING, IVR), ABAP/4
05/02 - 08/02 Sanofi-Synthelabo
Funktion: Projektleitung und Senior Management Consultant
Prozessanalyse Kampagnen- und Veranstaltungsmanagement
Analyse CRM-Architektur und Data Warehouse
Konzept Data Warehouse Einsatz von SAP BW
Konzept Vertriebsoptimierung: Multi-Channel-Vertriebssteuerung
Schwerpunkt: Consultant
ARIS, UML, MS-Office
01/02 - 04/02 Santander Bank
Funktion: Senior Consultant
Geschäftsprozess-Optimierung Kampagnen-und Responsemanagement,
sowie Interessenten- und Neukundenmanagement
Workflow-Optimierung
Schwerpunkt: Consulting
ARIS, UML, MS-Office
05/00 - 03/02 Dresdner Bank
Funktion: Gesamtprojektleitung / Senior Management Consultant
Gesamtkonzept Database Marketing
Gesamtkonzept Customer Relationship Management (SFA für den Filialbetrieb, Integration der bankspezifischen Beratungsmodule)
Call-Center und Kampagnen-Management) SIEBEL 2000 (mit Projektteam eines führendem Integrationsdienstleister)
Analyse IT-Architektur zentrales Data Warehouse Firmen- und Privatkunden
Einführung Kampagnenmanagement und Etablierung der Prozesse; Marketing-Automation
Zielgruppenanalyse mit SAS und SAS Enterprise Miner, Datenanreicherung soziodemografische Informationen
Customer Metric (Kennzahlen zur Definition von Zielgruppen)
Datenanalyse und Data-Cleansing
Schwerpunkte: Konzept, Datenmodellierung, Test und Testmanagement
DB2, SQL, SAS, Siebel, Powerbuilder, MS-Office
05/99 - 10/01 BFG AG heute SEB AG und SEBdirect
Funktion: Konzept und Gesamtprojektleitung
Strategie, Fach- und IT-Konzept, Werksvertrag mit Budgetverantwortung
Einführungsstrategie CRM, eCRM / Proof of Concept über vier Projektphasen
IT-Architektur CRM und zentrales Data Warehouse und Realisierung
Datenanalyse und Data-Cleansing
Adressmanagement (Workflow mit externem Dienstleister), Einführungskonzept für internes Adressmanagement
Multi-Channel-Vertriebssteuerung, Kampagnen-Management und Tool-Implementierung (siehe interne Projekte)
Kampagnen-Controlling
Marketing-Automation (Prozess- und Workflowoptimierung, Einführung und Etablierung neuer Prozesse)
Interessenten- und Neukundenmanagement
Response- und Kontaktmanagement/Reporting, Automatisierung von Reponse-Prozessen
Integration externer Daten (Sinus-Milieus, Microm)
Integration externer Dienstleister: Call-Center, Lettershop
Kundenbeziehungsmanagement, Zielgruppensegmentierung und Cluster
Customer Information Matrix als Kennzahlensystem
Integration Adressmanagement (Online-Abgleich)
Schwerpunkte: Konzept, Datenmodellierung und Gesamtprojektleitung, Test
und Testmanagement
Oracle, SQL, PL/SQL, SAS, ARIS, Visio, Java, XML/XSLm, Cognos Serie 7,
MS-Office
01/97 - 04/99 Deutsche Post AG
Funktion: Projektleitung / Senior Management Consultant
Consulting zur Einführung von SAP R/3: (FI, CO, MM, SD) und Migration aus
Altsystemen
Realisierung-Data-Warehouse und Data Marts für Brief und Fracht sowie
Einführung Sales Force Automation
Einführung Berichtswesen
Einführung KPI
Einführung Kampagnen-Management und ?Controlling
Data Cleansing-Projekt: SAP und SAP-Schnittstellen
Schwerpunkte: Konzept, Datenmodellierung, Projektleitung
Oracle, PL/SQL, SQL, SAS, SAP R/3 (FI, SD, SD, MM), SAP BW, Informatica
PowerCenter, ARIS, Hyperion EssBase, Express, MS-Offcie
SAP BW als Enterprise SAP Data Warehouse zur Versorgung der
Sparten-DWHs mit SAP Stamm- und Bewegungsdaten.
Eigenes Beratungsunternehmen
09/94 - 12/96 Deutsche Post AG
Funktion: Projektleitung /Senior Management Consultant
Consulting zur Einführung von SAP R/3 (FI, CO, MM, SD): Migration aus
Altsystemen
Elektronischer Datenaustausch mit Kunden und Partnern; EDS (elektronische
Einlieferungsliste für Kooperationskunden der Deutschen Post AG) und statistische
Auswertung
Neugestaltung in Marketing und Vertrieb (Key-Account-Management, Direct-Marketing
Center)
Konzept für Marketing- und Vertriebsinformationssysteme: Brief, Fracht, Philaletie und
Postzeitungsdienst, Berichtswesen Brief und Fracht
PoCs: BI-Frontend (Pilot, Express, Comshare, SAS, Cognos), BI-ETL-Tools
Schwerpunkte: Konzept, Datenmodellierung, Projektleitung
R/2, R/3 (FI, SD, CO), ABAP/4, ARIS, Oracle, SQL, PL/SQL
freiberufliche Tätigkeit bei Ploenzke Wiesbaden
08/93 - 08/94 Deutsche Post AG
Funktion: Projektleitung/Senior Management Consultant
Aufbau "Gesamtdeutsches Straßenverzeichnis"
Fach- und IT-Konzept: PPS Briefzentren, Logistik
Fach- und IT-Konzept Frachtleitcode
EDI-Einführung zur Verkehrstromplanung und Verkehrstromoptimierung
Schwerpunkte: Konzept, Datenmodellierung und Projektleitung
ADABAS, Oracle, Powerbuilder, SAS, PL/SQL, C++, Super Naturel
Ploenzke Kiedrich/Wiesbaden
06/92 - 07/93 Deutsche Post AG
Funktion: Senior Management Consultant
Umsetzung "neue fünfstellige Postleitzahl"
IT-Informationssystem "LOS (Leitzahlen-, Orts- und Straßenverzeichnis und deren
Historisierung)"
Beratungsleistung bei Unternehmen und Institutionen mit signifikant großen Datenmengen
Präsentation ?neue fünfstellige Postleitzahl? im Rahmen von Masterveranstaltungen der Deutschen Post AG
Schwerpunkte: Konzept, Datenmodellierung und Senior Management
Consultant
ADABAS, Super Naturel
Ploenzke Kiedrich/Wiesbaden
01/90 - 05/92 Deutsche Post AG
Funktion: Senior Management Consultant
Fach- und DV-Konzept: neues IT-System Postkrankenkasse
Konzept Reorganisation: SAP (Sozialwesen der Deutschen Post)
Planung Brief- und Frachtzentren mit Analyse der Verkehrsströme und statistische
Verfahren
Konzept: "fünfstelliges Postleitzahlensystem
Schwerpunkte: Konzept, Datenmodellierung und Senior Management Consultant
Predict-Case, Super Natrual, ADABAS, Oracle
Ploenzke Kiedrich/Wiesbaden
01/89 - 12/90Projekte: öffentliche Verwaltung, Deutsche Telekom, Deutsche Post und interne Projekte
Funktionen: Projektleiter- und Projektmanager, Senior Management Consultant
Diverse Projekte Deutsche Post und Telekom
Erfolgreiche Einführung und Mitwirkung "Reorganisation zentraler Bereiche in Stadtverwaltungen der neuen Bundesländer"
Aktive Mitgestaltung das ISOTEC-Verfahren als Standard aufzubauen
Schwerpunkte: Konzept, Datenmodellierung, Projektleitung
ISOTEC, Predict Case, Super Natural, Case/4/0, IEW, Oracle Case
Ploenzke Kiedrich/Wiesbaden
01/86 - 12/88 Deutsche Telekom und interne Projekte
Funktionen: Entwickler und Senior Consultant
Einsatz von Case-Tools in diversen Projekten, Evaluierung
Bewertung und Test
Mitwirkung am ISOTEC-Verfahren
Case-Tool-Einführung bei der Telekom mit Masterprojekt
Aktive Mitgestaltung das ISOTEC-Verfahren als Standard aufzubauen
Schwerpunkte: Konzept, Realisierung, Datenmodellierung
Predict Case, Case/4/0, IEW, Oracle Case, Cobol, C, C++
Citybank Düsseldorf
06/77 - 12/86 als Werkstudent ab 06/1977 bis 1982
ab 1982 in Funktionen als:
Anwendungsentwicklung
stell. Zweigstellenleiter
Abteilungsleiter: Verleiter: Verwaltung Region Mitte Controlling/Finanzen
Unternehmensinterne Projekte ? C.I.K. Consulting GmbH
01/99 ? 05/01 Kampagnenmanagement-Tool
Funktion: Federführung und Know-how-Träger beim fachlichen und IT-Konzept
zur Realisierung eines Kampagnenmanagement-Tool zur Mediaplanung
und Zielgruppenselektion mit bundesweit zwei Installationen
Schwerpunkt: Fachkonzept, Datenmodellierung, Gesamtprojektleitung
Oracle 8 und 8i, C++, PL/SQL, Cognos Powerplay und Impromptu, XML,
SAP R/3, SAS-IntegrationEnterpriseMiner,J2EE Websphere
Projektmanagement-Tool: MS-Project
Projektmanagement-Tool: Clarity mit Verknüpfung ClearQuest und SQS
Projektmanagement-Tool: SharePoint
Projektmanagement-Tool: SAP PS
UML
ARIS
Viso
arc42
ClearQuest
SQS
HP Quality Center
Mind Mapping
SAP ? CRM 6.0, BW > 8.0, SEM, Planning and Consolidation, HANA, EC-CS, BCA, FS-CD, CML, FI, CO, SD, MM (Erfahrungslevel bzw. aktuelles Know How ist modulabhängig)
IBM Cognos V10.1
IBM Cognos TM1 Enterprise Planning
Informatica Power Center
Apache Foundation Hadoop, Cloudera, Hortenworks, MapR, Oracle 12c/Exadata, SAP HANA
HDFS, WebHDFS, Map Reduce, YARN, Hue, Oozie, Cascading, Zookeeper, HBase, MongoDB, Oracle NoSQL Database (Exadata), Hive, Hive on Spark, Apache Drill, Pig, Spark SQL, Spark Streaming, Impala, Big SQL, Python, Strom Streaming, Kafka, Sqoop
Cloudera Manager, Hortenworks Ambari, MapR Control System
SAS DI- und BI ?Studio, SAS Visualisierung / Big Data-Integration
MS-Office
1999 ? 2002: Entwicklung einer Standardsoftware für Kampagnenmanagement, analytisches CRM und Mediaplanung (Java, J2EE, WebSphere, SAS)
Datenbanken und Frameworks
Leitende Funktionen
Coaching zwischen Marketing/Vetrieb/Controlling und IT
Know-How in den Unternehmensbereichen: Marketing/Vertrieb/Controlling
Grundsätzliche Hinweise zu Projektleitung und -management ? Funktionen.
Die Wahrnehmung der Funktion beinhaltet grundsätzlich folgende Projektmanagement-standards: