Deutschland, Niederlande & Belgien
Arbeitserlaubnis: Deutscher Staatsbürger
Weitere Länder: Weltweit einsetzbar.
Business Analyst & Data Management (Datenmodellierung & ETL – Routinen Anpassungen), Data Mining
Hierbei geht es um die Umsetzungen der durch die IDD Richtlinien vorgeschriebenen Kontrollprozesse mittels der SAS Software. Für diese Tätigkeit wurde ein Prozess mit den einzelnen Prüfschritten in ADONIS eingepflegt. Dies war auch ein Teil meiner Tätigkeit, das Einpflegen und Aktualisieren dieser Prüfschritte in ADONIS. Hinzu mußte die Datenqualität und Verbesserung des Datenbestandes im bestehenden DWH vorgenommen werden. Mein Tätigkeitsspektrum wurde um diese Tätigkeit erweitert. In Rahmen der Datenbeschaffung wurden bestehende Datenmodell erweitert & ETL konzeptionell mit aufgebaut.
Die Aufgabe beinhaltet die Unterstützung im Projekt IFRS 9 mit folgenden Tätigkeiten:
Als Projektstrategie wurde die Scrum Methode (Agile Projekt Methodik) gewählt. Mittels dieser Methodik wird dieses Projekt umgesetzt um Daten aufzubereiten die für Kontoscoring, Kreditrisiko, Berechnung von Risk Parametern (PD, LGD, EAD) & Mortgage nach dem IFRS9 Standard. Anpassung des bestehenden Datenmodels und Erweiterung & Testen der ETL Prozesse.
Business Analyst & Data Management (Datenmodellierung & ETL – Routinen Anpassungen), Data Mining
Aufnahme von fachlichen Anforderungen und entwickeln von Lösungen und Umsetzung durch einen Entwickler und teilweise selbst Umgesetzt. Thematisch handelt es sich um fachliche Anforderungen in Unfall-, Sach-, Rechtsschutz und Haftpflichtversicherungen. Produktauflösung KFZ. Die Produkterweiterung wurde in Datenmodellen eingepflegt und die zu erweiternden ETL-Routinen dokumentiert
Untersuchung von Kundenverhalten bei Online, App & Tablet Shopping, Customer Journey. Um das Kundenverhalten bei Cross-Channel und Cross Device Marketing & Advertising zu verstehen und gezielte Aktionen zu planen soll ein statistisches Verfahren entwickelt werden. Dieses Modell soll ein besseres Verständnis für das Record Linkage Problem liefern und Customer Journey. Meine Aufgabe besteht in der Entwicklung von Modellen zur Analyse von Daten und zur besseren Verständnis für das „Record Linkage Problem“, und Dynamische Attributionsmodelle. Dies wiederrum liefert einen Einblick in die typischen (Online-)Touchpoints des Users auf dem Weg zur Conversion. Die Kaufentscheidungsprozesse der Nutzer sollen transparenter werden und dabei den Werbetreibenden helfen den Einfluss der unterschiedlichen Online-Werbemaßnahmen auf die Conversion richtig zu beurteilen. Mathematische Analyse Werkzeuge wie, Cluster Analysis, Bayes‘sche Statistik, Maschinelles Lernen und Wahrscheinlichkeitstheoretische Konzepte bilden die Basis.
Rollen:
Aufgaben:
Meine Aufgabe bestand in der Weiterführung des bestehenden Reporting (auf Excel Think Cell Basis) und Aufbau & Überführung bestehender Reports in SAP BO mittels Web-Intelligence-Rich-Client, dass über einem BO Universum mit Daten beliefert werden soll. Teradata DWH Übernahme von bestehenden Reports, Verbesserung und Standardisierung existierender Reports. Diese Reports sollten mit SAP BI - SAP BO und Information Delivery Tool automatisiert werden.
Rollen:
Aufgaben:
Als BI Architekt habe ich eine bestehendes SAS DWH restrukturiert. Dabei soll das neue SAS DWH den neuen Sicherheitsrichtlinien für Informationssysteme in Banken entsprechen. Das bedeutet, dies sollte IT Governance und Audit Compliant Lösung sein. Das SAS System ist eine Mainframe Installation indem die Prozesse & Jobs in Batch Prozessen verarbeitet werden. Die Prozesse & Jobs sind JCL und SAS Base & SAS Macro Code aufgesetzt. Sowohl all diese Prozesse & Jobs als auch die Umstrukturierung muss den neuen IT Governance entsprechen und Audit konform aufgesetzt werden. Nach der Pilotierung soll dies in den einem Offshore Regelbetrieb überführt werden. Dabei werden die Business Rules überarbeitet & Datenhistorisierung überprüft und gegebenenfalls erweitert. Nach der Erfolgreichen Pilotierung und Inbetriebnahme des Mainframe DWH, habe ich dies an einem Offshore Team in Bangalore übergeben (Outsourcing). Konzeption, Design & Implementierung. Hierbei waren Datenmodellierung & ETL Routinen entwickelt ein Teil meiner Tätigkeit.
Rolle:
Aufgaben:
Dies ist eine Inhouse Projekt zur Erlernung von SAP BW Datenmodellierung, ETL, Reporting & Analyse und Programmierung in ABAP. Hierbei hatte ich Zugriff auf ein Lifesystem mit Beispiel Daten. Für die Programmierung wurde miniSAP installiert und in dieser Umgebung an Problemstellung getestet. Fehleranalyse innerhalb der bestehenden Entwicklungen sowie Behebung der Fehler.
Dies war eine Urlaubsvertretung und man brauchte jemanden, der ohne Einarbeitung Ad hoc Abfragen erstellen kann und Standard Reports in Excel nach dem die Daten durch Terdata SQL abfragen ermittelt wurden, erstellt.
Rolle:
Aufgaben:
Dies ist eine Inhouse Projekt zur Erlernung von SAP BW Datenmodellierung, ETL, Reporting & Analyse und Programmierung in ABAP. Hierbei hatte ich Zugriff auf ein Lifesystem mit Beispiel Daten. Für die Programmierung wurde miniSAP installiert und in dieser Umgebung an Problemstellung getestet. Fehleranalyse innerhalb der bestehenden Entwicklungen sowie Behebung der Fehler.
Aufnahme von Workorders, Fehleranalyse, Incidence- und Release Management für SAS Anwender im Bereich Data Mining & SAS Programmierung. ETL Anpassungen & Datenmodell Erweiterung.
Über Scheduler und Flow Manager organisieren, verbessern wir eine Job-Kette bestehend aus 380 Einzel Jobs die voneinander abhängig sind. Dabei geht es um Wartung, Fehleranalyse, Fehler Behebung und Weiterentwicklung von Jobs auf „request & incidence“ durch Fachbereich. So werden den Fachbereichen Daten zur Verfügung gestellt, die für Analysen von den Fachbereichen benötigt werden. Unteranderem auch im Bereich Maschinelles Lernen & Data Mining. Datenmodellierung und ETL Entwicklung waren die Kern Tätigkeiten bei dieser Supportaufgabe.
Rollen:
Aufgaben:
Teilprojektleitung bei der Evaluierung und Empfehlen von Data Mining Tool. Entwickelung von Response Modellen für analytisches Kampagne Management. Gelaufene Kampagnen analysieren und anhand dieser Resultate neue Kampagnen planen bzw. bei der Planung beratend mithelfen.
Durchführen und Erläutern fortgeschrittener statistischer Analysen: Durchführen verschiedener statistischen und Data Mining Techniken (inklusive Clustering Verfahren, Maschinelles Lernen, Decision Trees und Regressionsanalyse). Schulung & Coaching von Mitarbeitern der Abteilung Vertriebsteuerung und Controlling. Mittels der gewonnenen Erkenntnisse aus diesen Analysen sollte Kampagnen verbessert werden und ein besseres Verständnis für das Churn Verhalten der Kunden resultieren.
Entwickeln von Reports anhand von Kunden Anforderungen für die Controlling Abteilung. Risiko Berichte & Erfolgsrechnungsberichte.
Aus existierenden Excel Reports wurden Dimensionen Extrahiert und diese In SAS FM Studio angelegt. Nach Aufbau von Dimensionen und Kennzahlen wurde diese mittels DI Studio mit Daten gefüllt. Anschließend wurde Standardreports in Excel erstellt und diese mit FM Studio in Verbindung gebracht umso automatische Datenanlieferung für die Standard Reports zu gewährleisten.
Rolle:
Aufgaben:
28. Projekt
Zeitraum: (März 2012 ? Dezember 2012)
Branche: VW Financial Services
Ort: Braunschweig, Germany
Rolle: SAS Berater, Entwickler & Applikation Support.
Aufgabengebiet: Aufnahme von Workorders, Fehleranalyse, Incidence- und Release Management für SAS Anwender im Bereich Data Mining & SAS Programmierung.
Bemerkung: Über Scheduler und Flow Manager organisieren, verbessern wir eine Job-Kette bestehend aus 380 Einzel Jobs die voneinander abhängig sind. Dabei geht es um Wartung, Fehleranalyse, Fehler Behebung und Weiterentwicklung von Jobs auf request & incidence durch Fachbereich. So werden den Fachbereichen Daten zur Verfügung gestellt, die für Analysen von den Fachbereichen benötigt werden.
Technische
Umgebung: yED, , Mindjet Mind Manager, SAS Management Console, DI Studio
3.4, SAS Enterprise Guide, AIX, Windows, Plattform Flow Manager,
SAP BW
27. Projekt
Zeitraum: (März 2011 ? September 2011)
Branche: eprimo
Ort: Neu-Isenburg, Germany
Rolle: Data Mining Berater & Entwickler.
Aufgabengebiet: Teilprojektleitung bei der Evaluieren und Empfehlen von Data Mining Tool. Entwickelung von Response Modellen für analytisches Kampagne Management. Gelaufene Kampagnen analysieren und anhand dieser Resultate neue Kampagnen planen bzw. bei der Planung beratend mithelfen.
Bemerkung: Durchführen und Erläutern fortgeschrittener statistischer Analysen: Durchführen verschiedener statistischen und Data Mining Techniken (inklusive Clustering Verfahren, Decision Trees und Regressionsanalyse). Schulung & Coaching von Mitarbeitern der Abteilung Vertriebsteuerung und Controlling. Mittels der gewonnen Erkenntnisse aus diesen Analysen sollte Kampagnen verbessert werden und ein besseres Verständnis für das Churn Verhalten der Kunden resultieren.
Technische
Umgebung: KNIME, DynaMine, Mindjet Mind Manager, MS SQL Server, MS SQL
Server Studio, DynaCampaign(CRM Tool), SAP CRM, SPSS
Clemetine, SAP APD
26. Projekt
Zeitraum: (November 2010 ? Februar 2011)
Branche: SaarLB, Bank
Ort: Saarbrücken, Germany
Rolle: SAS Financial Management Report Entwickler.
SAS FM Studio & SAS DI Studio.
Aufgabengebiet: Entwickeln von Reports anhand von Kunden Anforderungen für die Controlling Abteilung. Risiko Berichte & Erfolgsrechnungsberichte.
Bemerkung: Aus existierenden Excel Reports wurden Dimensionen Extrahiert und diese In SAS FM Studio angelegt. Nach Aufbau von Dimensionen und Kennzahlen wurde diese mittels DI Studio mit Daten gefüllt. Anschließend wurde Standardreports in Excel erstellt und diese mit FM Studio in Verbindung gebracht umso automatische Datenanlieferung für die Standard Reports zu gewährleisten.
Technische
Umgebung: SAS FM Studio, SAS DI Studio & Enterprise Guide
Studium der Physik & Mathematik,
Abschluss Diplom & Promotion in theoretischer Physik
Studies:
Weiterbildung
01/2000
Datenmodellierung und Data Warehouse (in Oslo, Norwegen)
03/2000
Data Warehousing Essentials (a CBT Course)
03/2000
CIP Industrie Schulung
03/2001
Cognos Architect (on-site Training)
05/2001
SUMMIT-D (in Hamburg)
08/2001
IBM MQSeries, EAI Fundamental (IBM Zürich, Schweiz)
iCustomer Analytics (Almere, Holland)
06/2003
Maconomy (Kopenhagen, Dänemark)
12/2005
Mind Manager (Mind Business, Bonn)
05/2009
Mindjet Manager Re-Zertifizierung, Webinar
11/2011
Cognos TM1
02/2013
SAP BW ETL, SAP BW Reporting
01/2013 - 09/2013
SAP BW Daten Modellierung, ABAP - Grundlagen
08/2017 ? 09/2017
SAS Data Integration Studio (SAS DI Studio) 4.9
10/2017 ? 12/2017
Big Data Analytics & Hadoop (HDFS, Hbase, Hive)
Geschäftsprozesse/Querschnitt Prozesse
Management Summary
Durch meine bisherigen Tätigkeiten und Erfahrung bin ich gewohnt, interdisziplinär zu denken, anwenderspezifische Aspekte mit zu berücksichtigen und Systemlösungen zu registrieren sowie Verantwortung zu tragen und unternehmerisch zu handeln.
Zudem ermöglichen mir meine breit gefächerten Kenntnisse und meine bisherige
Tätigkeiten mich schnell in ein gegebenes technisches Problem hineinzudenken.
Meine schnelle Einarbeitungsfähigkeit, die Flexibilität und Teamqualitäten zeichnen
mich besonders aus.
Hinzu kommt, dass meine Kernkompetenz in Data Warehouse, Business Intelligence und Data Mining in Verbindung mit statistischer Datenanalyse liegt. Speziell habe ich mich in diesem Zusammenhang mit Response Modell Entwickelung und Regressionsanalysen für analytischen CRM beschäftigt.
In gegenwärtigen Projekten bringe ich immer mehr meine Fähigkeiten in Prädiktiver Analytik und in Angewandter Mathematik mit ein. Somit versuche ich immer mehr in die Gebiete Data Mining, Prädiktive Analytik & angewandte Mathematik zu verlagern. So konnte ich in Projekten Regressionsanalysen, Entscheidungsbäume, Survival Analysis, Bestandanalyse, Warteschlagen Analyse durchführen.
Die Prädiktive Analytik und statistische Datenanalyse dient der Verbesserung von Marketing Prozessen, CRM und Kampagnen. Auf diese Weise konnte ich mir auch ein solides Wissen in diesen Bereichen aufbauen. Hinzu kommt, dass ich meine Toolkenntnisse auf SAP BW ETL, SAP BW Modellierung und SAP BW Reporting erweitert habe.
In Rahmen meiner Tätigkeit in der Datenanalyse, DWH & BI hatte ich viel mit Daten Management, Daten Modellierung (Sybase Power Designer, ErWin Tool), ETL Entwickelung und Datenbeschaffung aus heterogenen Systemen zu tun. Hierbei habe ich eine Erfahrung von 10 Jahren.
Technologien und Interfaces
Datenmodellierung
Standard Software, BI Tools
Tools
Webserver
Methodische Kompetenzen
Business Know-How
Data Mining & Statistische Datenanalyse
Führungsqualitäten
"Non" IT-Kompetenzen
Mathematische Spezialkenntnisse (angewandte Mathematik)
Microsoft Standards:
Methoden:
Geschäftsprozesse/Querschnitt Prozesse:
Standard Software:
IT Solutions
Spezialkenntnisse:
Service Lines
IT Solutions
Professional Focus
Relevant Experience
Konferenzen, Workshops und Sommerschulen, Publikationen: weitere Informationen auf Anfrage
Deutschland, Niederlande & Belgien
Arbeitserlaubnis: Deutscher Staatsbürger
Weitere Länder: Weltweit einsetzbar.
Business Analyst & Data Management (Datenmodellierung & ETL – Routinen Anpassungen), Data Mining
Hierbei geht es um die Umsetzungen der durch die IDD Richtlinien vorgeschriebenen Kontrollprozesse mittels der SAS Software. Für diese Tätigkeit wurde ein Prozess mit den einzelnen Prüfschritten in ADONIS eingepflegt. Dies war auch ein Teil meiner Tätigkeit, das Einpflegen und Aktualisieren dieser Prüfschritte in ADONIS. Hinzu mußte die Datenqualität und Verbesserung des Datenbestandes im bestehenden DWH vorgenommen werden. Mein Tätigkeitsspektrum wurde um diese Tätigkeit erweitert. In Rahmen der Datenbeschaffung wurden bestehende Datenmodell erweitert & ETL konzeptionell mit aufgebaut.
Die Aufgabe beinhaltet die Unterstützung im Projekt IFRS 9 mit folgenden Tätigkeiten:
Als Projektstrategie wurde die Scrum Methode (Agile Projekt Methodik) gewählt. Mittels dieser Methodik wird dieses Projekt umgesetzt um Daten aufzubereiten die für Kontoscoring, Kreditrisiko, Berechnung von Risk Parametern (PD, LGD, EAD) & Mortgage nach dem IFRS9 Standard. Anpassung des bestehenden Datenmodels und Erweiterung & Testen der ETL Prozesse.
Business Analyst & Data Management (Datenmodellierung & ETL – Routinen Anpassungen), Data Mining
Aufnahme von fachlichen Anforderungen und entwickeln von Lösungen und Umsetzung durch einen Entwickler und teilweise selbst Umgesetzt. Thematisch handelt es sich um fachliche Anforderungen in Unfall-, Sach-, Rechtsschutz und Haftpflichtversicherungen. Produktauflösung KFZ. Die Produkterweiterung wurde in Datenmodellen eingepflegt und die zu erweiternden ETL-Routinen dokumentiert
Untersuchung von Kundenverhalten bei Online, App & Tablet Shopping, Customer Journey. Um das Kundenverhalten bei Cross-Channel und Cross Device Marketing & Advertising zu verstehen und gezielte Aktionen zu planen soll ein statistisches Verfahren entwickelt werden. Dieses Modell soll ein besseres Verständnis für das Record Linkage Problem liefern und Customer Journey. Meine Aufgabe besteht in der Entwicklung von Modellen zur Analyse von Daten und zur besseren Verständnis für das „Record Linkage Problem“, und Dynamische Attributionsmodelle. Dies wiederrum liefert einen Einblick in die typischen (Online-)Touchpoints des Users auf dem Weg zur Conversion. Die Kaufentscheidungsprozesse der Nutzer sollen transparenter werden und dabei den Werbetreibenden helfen den Einfluss der unterschiedlichen Online-Werbemaßnahmen auf die Conversion richtig zu beurteilen. Mathematische Analyse Werkzeuge wie, Cluster Analysis, Bayes‘sche Statistik, Maschinelles Lernen und Wahrscheinlichkeitstheoretische Konzepte bilden die Basis.
Rollen:
Aufgaben:
Meine Aufgabe bestand in der Weiterführung des bestehenden Reporting (auf Excel Think Cell Basis) und Aufbau & Überführung bestehender Reports in SAP BO mittels Web-Intelligence-Rich-Client, dass über einem BO Universum mit Daten beliefert werden soll. Teradata DWH Übernahme von bestehenden Reports, Verbesserung und Standardisierung existierender Reports. Diese Reports sollten mit SAP BI - SAP BO und Information Delivery Tool automatisiert werden.
Rollen:
Aufgaben:
Als BI Architekt habe ich eine bestehendes SAS DWH restrukturiert. Dabei soll das neue SAS DWH den neuen Sicherheitsrichtlinien für Informationssysteme in Banken entsprechen. Das bedeutet, dies sollte IT Governance und Audit Compliant Lösung sein. Das SAS System ist eine Mainframe Installation indem die Prozesse & Jobs in Batch Prozessen verarbeitet werden. Die Prozesse & Jobs sind JCL und SAS Base & SAS Macro Code aufgesetzt. Sowohl all diese Prozesse & Jobs als auch die Umstrukturierung muss den neuen IT Governance entsprechen und Audit konform aufgesetzt werden. Nach der Pilotierung soll dies in den einem Offshore Regelbetrieb überführt werden. Dabei werden die Business Rules überarbeitet & Datenhistorisierung überprüft und gegebenenfalls erweitert. Nach der Erfolgreichen Pilotierung und Inbetriebnahme des Mainframe DWH, habe ich dies an einem Offshore Team in Bangalore übergeben (Outsourcing). Konzeption, Design & Implementierung. Hierbei waren Datenmodellierung & ETL Routinen entwickelt ein Teil meiner Tätigkeit.
Rolle:
Aufgaben:
Dies ist eine Inhouse Projekt zur Erlernung von SAP BW Datenmodellierung, ETL, Reporting & Analyse und Programmierung in ABAP. Hierbei hatte ich Zugriff auf ein Lifesystem mit Beispiel Daten. Für die Programmierung wurde miniSAP installiert und in dieser Umgebung an Problemstellung getestet. Fehleranalyse innerhalb der bestehenden Entwicklungen sowie Behebung der Fehler.
Dies war eine Urlaubsvertretung und man brauchte jemanden, der ohne Einarbeitung Ad hoc Abfragen erstellen kann und Standard Reports in Excel nach dem die Daten durch Terdata SQL abfragen ermittelt wurden, erstellt.
Rolle:
Aufgaben:
Dies ist eine Inhouse Projekt zur Erlernung von SAP BW Datenmodellierung, ETL, Reporting & Analyse und Programmierung in ABAP. Hierbei hatte ich Zugriff auf ein Lifesystem mit Beispiel Daten. Für die Programmierung wurde miniSAP installiert und in dieser Umgebung an Problemstellung getestet. Fehleranalyse innerhalb der bestehenden Entwicklungen sowie Behebung der Fehler.
Aufnahme von Workorders, Fehleranalyse, Incidence- und Release Management für SAS Anwender im Bereich Data Mining & SAS Programmierung. ETL Anpassungen & Datenmodell Erweiterung.
Über Scheduler und Flow Manager organisieren, verbessern wir eine Job-Kette bestehend aus 380 Einzel Jobs die voneinander abhängig sind. Dabei geht es um Wartung, Fehleranalyse, Fehler Behebung und Weiterentwicklung von Jobs auf „request & incidence“ durch Fachbereich. So werden den Fachbereichen Daten zur Verfügung gestellt, die für Analysen von den Fachbereichen benötigt werden. Unteranderem auch im Bereich Maschinelles Lernen & Data Mining. Datenmodellierung und ETL Entwicklung waren die Kern Tätigkeiten bei dieser Supportaufgabe.
Rollen:
Aufgaben:
Teilprojektleitung bei der Evaluierung und Empfehlen von Data Mining Tool. Entwickelung von Response Modellen für analytisches Kampagne Management. Gelaufene Kampagnen analysieren und anhand dieser Resultate neue Kampagnen planen bzw. bei der Planung beratend mithelfen.
Durchführen und Erläutern fortgeschrittener statistischer Analysen: Durchführen verschiedener statistischen und Data Mining Techniken (inklusive Clustering Verfahren, Maschinelles Lernen, Decision Trees und Regressionsanalyse). Schulung & Coaching von Mitarbeitern der Abteilung Vertriebsteuerung und Controlling. Mittels der gewonnenen Erkenntnisse aus diesen Analysen sollte Kampagnen verbessert werden und ein besseres Verständnis für das Churn Verhalten der Kunden resultieren.
Entwickeln von Reports anhand von Kunden Anforderungen für die Controlling Abteilung. Risiko Berichte & Erfolgsrechnungsberichte.
Aus existierenden Excel Reports wurden Dimensionen Extrahiert und diese In SAS FM Studio angelegt. Nach Aufbau von Dimensionen und Kennzahlen wurde diese mittels DI Studio mit Daten gefüllt. Anschließend wurde Standardreports in Excel erstellt und diese mit FM Studio in Verbindung gebracht umso automatische Datenanlieferung für die Standard Reports zu gewährleisten.
Rolle:
Aufgaben:
28. Projekt
Zeitraum: (März 2012 ? Dezember 2012)
Branche: VW Financial Services
Ort: Braunschweig, Germany
Rolle: SAS Berater, Entwickler & Applikation Support.
Aufgabengebiet: Aufnahme von Workorders, Fehleranalyse, Incidence- und Release Management für SAS Anwender im Bereich Data Mining & SAS Programmierung.
Bemerkung: Über Scheduler und Flow Manager organisieren, verbessern wir eine Job-Kette bestehend aus 380 Einzel Jobs die voneinander abhängig sind. Dabei geht es um Wartung, Fehleranalyse, Fehler Behebung und Weiterentwicklung von Jobs auf request & incidence durch Fachbereich. So werden den Fachbereichen Daten zur Verfügung gestellt, die für Analysen von den Fachbereichen benötigt werden.
Technische
Umgebung: yED, , Mindjet Mind Manager, SAS Management Console, DI Studio
3.4, SAS Enterprise Guide, AIX, Windows, Plattform Flow Manager,
SAP BW
27. Projekt
Zeitraum: (März 2011 ? September 2011)
Branche: eprimo
Ort: Neu-Isenburg, Germany
Rolle: Data Mining Berater & Entwickler.
Aufgabengebiet: Teilprojektleitung bei der Evaluieren und Empfehlen von Data Mining Tool. Entwickelung von Response Modellen für analytisches Kampagne Management. Gelaufene Kampagnen analysieren und anhand dieser Resultate neue Kampagnen planen bzw. bei der Planung beratend mithelfen.
Bemerkung: Durchführen und Erläutern fortgeschrittener statistischer Analysen: Durchführen verschiedener statistischen und Data Mining Techniken (inklusive Clustering Verfahren, Decision Trees und Regressionsanalyse). Schulung & Coaching von Mitarbeitern der Abteilung Vertriebsteuerung und Controlling. Mittels der gewonnen Erkenntnisse aus diesen Analysen sollte Kampagnen verbessert werden und ein besseres Verständnis für das Churn Verhalten der Kunden resultieren.
Technische
Umgebung: KNIME, DynaMine, Mindjet Mind Manager, MS SQL Server, MS SQL
Server Studio, DynaCampaign(CRM Tool), SAP CRM, SPSS
Clemetine, SAP APD
26. Projekt
Zeitraum: (November 2010 ? Februar 2011)
Branche: SaarLB, Bank
Ort: Saarbrücken, Germany
Rolle: SAS Financial Management Report Entwickler.
SAS FM Studio & SAS DI Studio.
Aufgabengebiet: Entwickeln von Reports anhand von Kunden Anforderungen für die Controlling Abteilung. Risiko Berichte & Erfolgsrechnungsberichte.
Bemerkung: Aus existierenden Excel Reports wurden Dimensionen Extrahiert und diese In SAS FM Studio angelegt. Nach Aufbau von Dimensionen und Kennzahlen wurde diese mittels DI Studio mit Daten gefüllt. Anschließend wurde Standardreports in Excel erstellt und diese mit FM Studio in Verbindung gebracht umso automatische Datenanlieferung für die Standard Reports zu gewährleisten.
Technische
Umgebung: SAS FM Studio, SAS DI Studio & Enterprise Guide
Studium der Physik & Mathematik,
Abschluss Diplom & Promotion in theoretischer Physik
Studies:
Weiterbildung
01/2000
Datenmodellierung und Data Warehouse (in Oslo, Norwegen)
03/2000
Data Warehousing Essentials (a CBT Course)
03/2000
CIP Industrie Schulung
03/2001
Cognos Architect (on-site Training)
05/2001
SUMMIT-D (in Hamburg)
08/2001
IBM MQSeries, EAI Fundamental (IBM Zürich, Schweiz)
iCustomer Analytics (Almere, Holland)
06/2003
Maconomy (Kopenhagen, Dänemark)
12/2005
Mind Manager (Mind Business, Bonn)
05/2009
Mindjet Manager Re-Zertifizierung, Webinar
11/2011
Cognos TM1
02/2013
SAP BW ETL, SAP BW Reporting
01/2013 - 09/2013
SAP BW Daten Modellierung, ABAP - Grundlagen
08/2017 ? 09/2017
SAS Data Integration Studio (SAS DI Studio) 4.9
10/2017 ? 12/2017
Big Data Analytics & Hadoop (HDFS, Hbase, Hive)
Geschäftsprozesse/Querschnitt Prozesse
Management Summary
Durch meine bisherigen Tätigkeiten und Erfahrung bin ich gewohnt, interdisziplinär zu denken, anwenderspezifische Aspekte mit zu berücksichtigen und Systemlösungen zu registrieren sowie Verantwortung zu tragen und unternehmerisch zu handeln.
Zudem ermöglichen mir meine breit gefächerten Kenntnisse und meine bisherige
Tätigkeiten mich schnell in ein gegebenes technisches Problem hineinzudenken.
Meine schnelle Einarbeitungsfähigkeit, die Flexibilität und Teamqualitäten zeichnen
mich besonders aus.
Hinzu kommt, dass meine Kernkompetenz in Data Warehouse, Business Intelligence und Data Mining in Verbindung mit statistischer Datenanalyse liegt. Speziell habe ich mich in diesem Zusammenhang mit Response Modell Entwickelung und Regressionsanalysen für analytischen CRM beschäftigt.
In gegenwärtigen Projekten bringe ich immer mehr meine Fähigkeiten in Prädiktiver Analytik und in Angewandter Mathematik mit ein. Somit versuche ich immer mehr in die Gebiete Data Mining, Prädiktive Analytik & angewandte Mathematik zu verlagern. So konnte ich in Projekten Regressionsanalysen, Entscheidungsbäume, Survival Analysis, Bestandanalyse, Warteschlagen Analyse durchführen.
Die Prädiktive Analytik und statistische Datenanalyse dient der Verbesserung von Marketing Prozessen, CRM und Kampagnen. Auf diese Weise konnte ich mir auch ein solides Wissen in diesen Bereichen aufbauen. Hinzu kommt, dass ich meine Toolkenntnisse auf SAP BW ETL, SAP BW Modellierung und SAP BW Reporting erweitert habe.
In Rahmen meiner Tätigkeit in der Datenanalyse, DWH & BI hatte ich viel mit Daten Management, Daten Modellierung (Sybase Power Designer, ErWin Tool), ETL Entwickelung und Datenbeschaffung aus heterogenen Systemen zu tun. Hierbei habe ich eine Erfahrung von 10 Jahren.
Technologien und Interfaces
Datenmodellierung
Standard Software, BI Tools
Tools
Webserver
Methodische Kompetenzen
Business Know-How
Data Mining & Statistische Datenanalyse
Führungsqualitäten
"Non" IT-Kompetenzen
Mathematische Spezialkenntnisse (angewandte Mathematik)
Microsoft Standards:
Methoden:
Geschäftsprozesse/Querschnitt Prozesse:
Standard Software:
IT Solutions
Spezialkenntnisse:
Service Lines
IT Solutions
Professional Focus
Relevant Experience
Konferenzen, Workshops und Sommerschulen, Publikationen: weitere Informationen auf Anfrage