1 von 91.893 IT- und Engineering-Profilen

Fachlicher Schwerpunkt dieses Freiberuflers

SAS Expert: Programming, Advanced Analytics, Mining, Data Scientist. Diverse SAS Certifications. Bitte fragen Sie meinen CV an.1

verfügbar ab
01.03.2018
verfügbar zu
100 %
davon vor Ort
100 %
PLZ-Gebiet, Land

D0

D1

D2

D3

D4

D5

D6

D7

D8

D9

Österreich

Schweiz

Einsatzort unbestimmt

Kommentar

Schweiz: Arbeitserlaubnis liegt vor.

Projekte

10/2014 - 06/2017

2 Jahre 9 Monate

Diverse

Rolle
SAS Program Manager, SAS Data Mining Manager
Kunde
Versicherung
Einsatzort
NRW
Projektinhalte
  • In Team berufen, um ein strategisches Stornofrühwarnsystem basierend auf einem Data Mining-Ansatz (SAS EM) zu entwerfen und zu implementieren.
  • Backtesting von Vorhersagen im Rahmen eines Proof of Concept auf tatsächlich eingetretene Ereignisse (u.a. mittels ASEs, ROCs, Binning und Lift Charts). Überführung der PoC Ergebnisse in einen Business Case. Berechnung diverser KPIs einschl. zusätzlicher Gewinne und eingesparter Investitionen. Risikoanalyse verschiedener Szenarien der Nachhaltigkeit der Kunden-Investition. BC erzielte GO seitens Top-Management.
  • Reverse-Engineering eines strategischen Unternehmensreportingsystems für den Vertrieb (Außendienst): Portierung (Migration) dysfunktionaler ETL- und Analyse-Programme (SPSS) durch eine hoch-performante SAS Version, gleichzeitig Debugging, Tuning und Erweiterung.
  • Fraud-Aufdeckung: Identifizierung von Fraud durch Agenturen, z.B. durch gefälschte Adressangaben oder durch Mustererkennung in der Vertragsumdeckung

ab 10/2014:

Aufgaben und Erfolge: (1) Unterstützung der Konzernentwicklung durch Analyse einer Bonifikationsaktion auf aktuelle Versicherungsportfolios, z.B. ABC-, Topkunden-, und Sparten-Analysen, auch auf Organisationsebene (Einheit, Vertriebskanal, Vorjahr). (2) Selektion und Zufallsziehung gemäß Spezifikation von Kundendaten für ein Partner-Mailing inkl. technischer und statistischer Dokumentation. (3) Weitere: (i.) Mehrebenen- und zufallsbasierte Anonymisierung von SAS Datasets. (ii.) Phonetisch basierte Zusammenführung von Kundendaten aus verschiedenen SAS Quellen mittels eines Fuzzy Match. (iii.) Implementierung eines Topkunden-Schlüssels in Host (TSO) und allen Endsystemen einschliesslich Kommunikation, Test, Abnahme und Dokumentation aller organisatorischen, technischen, und personalen Schnittstellen. (iv.) Umwandlung der Funktionalität von Enterprise Guide/Miner Projekten in SAS Code, und umgekehrt

Produkte

SASv9.4

Enterprise Miner 12.1

Enterprise Guide 5.1/7.1

SPSS 24.

SAS Base

SAS Macro Facility

SAS/GRAPH.

Komplex. Host (z/OS)

Citrix

Windows. Datenvolumen: >75+ Mill. / 7

5e+7 Datenzeilen.

SAS Base

SAS Macro Facility

SAS/GRAPH;

SASv9.3

Enterprise Guide 5.1/6.1

Enterprise Miner 12.1

Komplex. Host (z/OS)

Citrix

Windows.

PROC SQL

SAS/STAT

Projekthistorie

2014: Entwicklung, Test und Ausführung von SAS Programmen zur statistischen Analyse von pharmazeutischen Daten aus dem Diabetes Umfeld

 

Firma/Institut:                           Pharma Intelligence Unternehmen im Raum Frankfurt, Deutschland

 

Aufgabe und Erfolge:

Entwicklung, Test und Ausführung von SAS Programmen zur statistischen Analyse von pharmazeutischen Daten aus dem Diabetes Umfeld. Wissenschaftliche Beratung umfasste statistische Analyse, Entwicklung und Test von komplexen ETL Routinen für den Zugriff, Verarbeitung und Analyse von Daten verschiedener Quellen und Formate, Diabetes-bezogener Input aus Studien betreut in der Vergangenheit für internationale Meetings, Überwachung der Qualität der Datenlieferungen von Drittanbietern bis hin zur Intervention, um Kunden vor schmutzigen Daten zu schützen, Prüfung der Performanz von SAS Programmen Dritter, und falls nötig, entsprechend Fehlerbehebung und Tuning dieser SAS-Programme. Rolle umfasste ebenfalls SAS Programmierung ohne Arbeitsbeschreibung, nur auf informellen "Zuruf". Zwischen-Feedback von Kollegen vor Ort ist durchweg positiv.

 

Sprachen:

SAS Base, SAS Macro Facility und PROC SQL.

 

Umgebung:

SAS v9.3 in einer Windows Umgebung.


2014: Analyse und Stabilisierung einer DWH Landschaft

 

Firma/ Institut:                          Versicherung im Raum München, Deutschland

Rolle:                                       "Task Force"(System Analyse und Management Consulting)

Aufgabe:

Wichtige Prozesse in der unternehmensweiten Systemlandschaft des Kunden schienen immer mehr Leistung, Zuverlässigkeit und Stabilität zu verlieren. Die allererste Priorität war, mögliche Ursachen des Bremsens dieser ausgewählten Prozesses analysieren, zuerst beschränkt auf die Analyse von Korn Shell-Skripten, SAS-Programmen und SAS Makros. Diese erste Analyse zeigte, dass der betroffene Prozess war nur ein Symptom, nicht die Ursache war. Die Rolle wurde erweitert, um Informationen über Ursachen zu sammeln, die möglicherweise das ganze System bedrohen. Ansätze involvierten die Identifizierung und Kommunikation mit Stakeholdern, das Sammeln und Validieren von Information, das Design einer Issue Map mit einer graphischen Lokalisierung der Bedrohungen und Risiken innerhalb des Systems des Kunden, und das Komprimieren komplexer Informationen auf knackige Zwischenergebnisse zur Präsentation vor dem höheren Management. Angewandte Methoden waren u.a.: Business Analysis (Stakeholder / Daten Flows, OEs, etc.), Downtime Threat/Impact Analysis, Risk Analysis, Architectural Analysis, Aufwandsschätzungen für das Project Mgmt zur Bekämpfung identifizierter Issues für Quick-Wins. Verantwortung der Rolle wechselte nochmals, um technische Konzepte, Road Maps, und Projektpläne zur Stabilisierung des unternehmensweiten Systems zu entwicklen einschliesslich "Leuchtturm"Lösungen mit Nachhaltigkeit auf Basis von state-of-the-art Hardware, Software und Computing vorzuschlagen.

Umgebung: Komplex. SAS v9.1.3 in Programmen, DB2 auf dem Host, Dateien in EBCDIC und anderen Formaten, diverse Scheduling- und Transfer-Systeme (UC4 etc.).

 

Erfolge:

Positives Feedback für das Umsetzen eines vielschichtigen Jobs in einer hochtaktigen Umgebung, das Lösen einiger Issues "im Vorübergehen", erfolgreiches Identifizieren von Bedrohungen (auch bislang unbekannter), und das Kommunizieren von Professionalität, Perspektive und Zuversicht. Kurzfristiger "Notfall" Vertrag verlängert, weitere Zusammenarbeit in Aussicht gestellt.

 

Tools:

u.a. SASv9.1.3, EGv4.2, MS Project v2013, MS Excel v2013, BIP (Batch Import Procedure) Tool v1.1.4, Alerting and Monitoring (AMT) Tool v1.6 (AZD)


2014: Entwicklung und Test von Jobs und Subjobs für ETL mit dem SAS Data Integration Studio 4.3. Schreiben und Testen von SAS Makros.

 

Firma/Institut :                                      Bank im Raum Düsseldorf, Deutschland

 

Tools und Umgebung:

DIS 4.3, Toad 5.0, DB2, und UltraEdit. Citrix Umgebung.


02/2013- 04/2013: Entwicklung und Testung von SAS-Makros für den Vergleich von Tarifen zweier erworbener und verschmolzener Versicherungsunternehmen (BK, UKB).

 

Firma/Institut :                          Versicherungskammer Bayern

Einsatzort:                                 München

 

Berufserfahrung:

Entwicklung und Testung von SAS-Makros für den Vergleich von Tarifen zweier erworbener und verschmolzener Versicherungsunternehmen (BK, UKB). Analysen zur Entwicklung der Versicherungstarife über die Zeit, die Wahrscheinlichkeit zu Versicherungen zu ändern, und der Vergleich der Tarife nach Geschlecht, Tarif, ausgewählte Alter, Anzahl der Tarife, durchschnittliche Schaden und komplexe andere versicherungsrelevanten Anforderungen. Analyse mit sogenannten "Steuertabellen": Importieren von Steuertabellen, Steuern komplexer ETL und Analysen (u.a. mittels Nested Loops) und Exportieren der SAS Ergebnisse direkt in benutzerdefinierte EXCEL auf einen Knopfdruck. Programmieren mit SAS Macro-Facility und PROC SQL. Wieder erfolgreiche Arbeit in einem SAS Projekt ohne Pflichten-Heft, nur "auf Zuruf", in einem sehr engen Zeitrahmen (Arbeitszeit enthielt mehrere durchgearbeitete Wochenenden). Ergebnisse erfolgreich validiert und gegenüber BAFin präsentiert. Referenz im Geschäftsgang.


11/2012 – 01/2013: Zusammenhang mit einer vielfältigen Aufgabe

 

Firma/Institut :                          IT.NRW / Statistische Landesamt

Einsatzort:                                 Düsseldor

 

Berufserfahrung:

Der Einsatz steht in direktem Zusammenhang mit einer vielfältigen Aufgabe, die die IT.NRW aus dem "Zensus 2011" übernommen hat.Für 1.440 Gemeinden bzw. Stadtteile sollen Zellbesetzungen (u.a. nach Nationalität und Geschlecht) mittels Iterative Proportional Fitting und verschiedener log-linearer Modelle an hochgerechnete Ränder angepasst werden.

Für jede Gemeinde wiederum sollen diese hochgerechneten Daten anhand mehrerer Gütekriterien daraufhin überprüft werden, inwieweit sie mit der Ausgangsverteilung der jeweiligen Gemeinde übereinstimmen.

Eine benutzerfreundliche Analyse (idealerweise: Visualisierung) soll die Entscheidung für das beste log-lineare Modell (und die damit verbundene statistische Begründung) aus den zahlreichen möglichen Modellvarianten erleichtern. Die Daten auf der Grundlage des besten Modells werden im "Zensus 2011" weiterverarbeitet werden.

Der Schwerpunkt des Arbeitseinsatzes lag auf der SAS Programmierung, schloss jedoch auch methodische Konzepte, wie auch die fachliche Diskussion ein. Technische Details zur Aufgabe sind nachfolgend aufgeführt.

Technisches Umfeld:

Systemumgebung:

Front-End: Enterprise Guide v4, Back-End: SAS 9.2 über CITRIX bzw. Server direkt.

 

Datasets

SAS Datasets (z.T. ORACLE, z.T Teradata), N: 100.000+. Größe: z.B. 250 GB.

 

Datenvolumen:

>5,50E+09 (5,5+ Milliarden) Datenzeilen (Hauptanwendung).

Programmiersprachen: SAS Macro Facility, darin SAS Base, PROC IML, SAS Hash Programming, PROC SQL, sowie die SAS Prozeduren MEANS, TABULATE und GRAPH.

Länge der beiden SAS Programme für die Hauptanwendung in DIN A4 Seiten: 60 (ETL: 40, Analyse: 20).

 

Programmausführung:

Hauptanwendung als SAS Stored Process direkt auf dem Server, Entwicklung und Testen auf CITRIX.

Laufzeiten:

z.B. 96 (sechsundneunzig) Stunden (Hauptanwendung), auf 4 Kerne verteilt.

Details zu Aufgabe und Umsetzung:

 

Hauptaufgabe (Stichworte):

Anpassung der Zellen an hochgerechnete Ränder für 1.440 Gemeinden in 65 Modellvarianten (Volumen: 5,5 Milliarden Datenzeilen), Visualisierung von insgesamt 93.600 Modellen und dem Mehrfachen an Goodness of Fit-Parametern. Das weitere Vorgehen folgt Bishop, Fienberg und Holland (2007): Modell-Vorauswahl durch Abgleich der geschätzten Tabelle mit Referenztabelle anhand AIC, Pearson Chi2und Log-Likelihood für die log-linearen Modelle 1 bis 65. Modell-Feinauswahl anhand minimaler Abweichung (Devianz) der vor-ausgewählten Modelle von den Zellbesetzungen der Referenztabelle (Kombinatorik aus Alter, Nationalität, Familienstand und Geschlecht), zusätzlich unter Berücksichtigung der Gemeindegröße zum Ausschluss von Schätzfehlern und ggf. disproportionale Zellhäufigkeiten. Eine Besonderheit dieser Anwendung ist, dass sie zahlreiche Funktionalitäten in ein einzelnes ETL Modul zusammenfasst, das als SAS Makro unüberwacht als Stored Process ausgeführt werden kann. Die SAS Admins der IT.NRW beurteilten dieses Makro gerade angesichts der hohen Datenlast als sehr performant. Dieses ETL Modul ist in der Tiefe ausgesprochen komplex und besteht im Wesentlichen aus zwei inhaltlich funktional disparaten Phasen: Die erste Phase liefert u.a. iterativ über PROC IML (CALL IPF) für jede Gemeinde für jedes der 65 Modelle die Datentabellen, die zweite Phase berechnet dafür gleichermaßen iterativ u.a. Goodness of Fit-Tests, deren essentiellen Parameter formatiert und als zentrale SAS Datasets aggregiert werden. Darüber hinaus legt dieses Makro u.a. Kriterien zur (nicht) erfolgreichen Konvergenz (u.a. Chi2, maximale Differenz, N Iterationen), sowie voreingestellte Stoppkriterien (maximale Differenz, maximale Iterationen) in eine separate SAS Datei ab. Das Modul mit dem Schwerpunkt Analyse führt neben den Goodness of Fit- auch Devianz-Werte in intuitiv interpretierbare Visualisierungen über. Ein „Cockpit“ mit diversen "Schaltern" erlaubt dabei die gewünschte Visualisierung festzulegen, wie auch den Input (Gemeinden, Bundesländer, alle) unterschiedlich fein einzustellen.

 

Aufgaben mit Schwerpunkt Methode, Mathematik und Statistik (Stichworte):

Bereitstellung der Randverteilungen und Apriori-Zellen.

Ableitung eines kriteriengeleiteten Konzepts nach Bishop et al. (2007): Zunächst Modell-Vorauswahl auf der Basis der gesamten Tabelle (z.B. anhand AIC), anschließend Modell-Feinauswahl anhand minimaler Abweichung (Devianz) von Ratios in ausgewählten Zellkombinationen Replikation log-linearer Modelle im Allgemeinen mit PROC GENMOD und CATMOD (Effekt-Kodierung PROC CATMOD, ML=IPF), sowie Replikation von SAS TS-131 im Besonderen (SAS Iterative Proportional Fitting Makros (IML, CALL IPF)Behebung des Problems struktureller Nullen für den CALL IPF Algorithmus (PROC IML) um eine Konstante (Korrektur nach Tomlinson; dadurch Konvergenz trotz vieler Leerzellen, bspw. > 50%).

Proportionales Splitten der Altersklassen (collapsing, expanding) u.a. mittels mehrstufigen Hash Programmings.

Implementieren einer proaktiven Maßnahme, um einen architektur-internen ORACLE Time-Out bei Volllast zu vermeiden

Prüfung und ggf. Trouble-Shooting von Third Party SAS Programmen.

 

Aufgaben mit Schwerpunkt Performanz (Stichworte):

Überführen mehrerer separater SAS Makros, Data Steps und Settings in ein einzelnes SAS Makro (Hauptanwendung).

Modulares Aufteilen dieses SAS Makros in eine ETL Funktion und eine Analyse Funktion: Umwandeln der ETL Funktion in ein stand-alone Modul, das z.B. als SAS Stored Process unüberwacht ausgeführt werden kann. Umwandeln der Analyse Funktion in ein Modul, das als SAS Makro über ein benutzerfreundliches „Cockpit“ die gewünschte Visualisierung unkompliziert abzufragen erlaubt.

Fortgeschrittenes, z.T. mehrstufiges, SAS Hash Programming anstelle von SAS Data Steps.

Abkürzung unnötig komplexer Data Steps durch performantere SQL Programme.

Prüfung von Multi-Threading Optionen zusammen mit den SAS Admins der IT.NRW.

Überprüfen und ggf. Nachsteuern von SAS Programmierungen auf grundlegende und fortgeschrittene Performanzoptimierungen (vgl. [Name auf Anfrage], 2011, 2012). 

Weitere Aufgaben:

Gegenprüfen bzw. Korrektur des Fachkonzepts (z.B. Grenzen der Altersklassen); Abgleich zwischen Fachkonzept und Umsetzung; Erstellung einer praxisorientierten Dokumentation.


04/2011 – 09/2011: Konzeptionaliserung eines Quality Intelligence Systems zur Bündelung, Analyse und Visualisierung von Produktionsdaten auf unternehmensweit verteilten Dashboards in Echtzeit

 

Firma/Institut :                          Wincor Nixdorf

EWinsatzort:                              Paderborn

 

Berufserfahrung:

Konzeptionaliserung eines Quality Intelligence Systems zur Bündelung, Analyse und Visualisierung von Produktionsdaten auf unternehmensweit verteilten Dashboards in Echtzeit. Dieses Quality Intelligence System dient dabei nicht nur dem Monitoring von Produkt- und Produktionsqualität, sondern: i. der Vorhersagevon Abweichungen, um schneller intervenieren, ii. als Knowledge Base, um besseroptimieren zu können. Präsentation dieses auf die örtlichen Geschäftsprozesse abgestimmten Konzepts vor Entscheidungsträgern. Demonstration mittels ad hoc Analysen von Produktionsdaten mittels JMP, SPSS, sowie SAS. Präsentation dieser „Appetizer Analysen“auf der Basis von klassischen Six Sigma Verfahren, sowie anspruchsvollerer Predictive Analytics Ansätze. Weitere Aufgaben: Projektmanagement: Überführen des QIS Konzepts in einen konkreten Projektplan, Definieren von Arbeitspaketen, Meeting mit Entscheidungs- und Bedenkenträgern. Knowledge Transfer/Interface: Kommunikation der Vor- und Nachteile verschiedener statistischer Ansätze, Sinn und Grenzen erzielter Ergebnisse (u.a. Forecasts, Decision Trees, oder auch diverser Regelkarten und KPIs), sowie Schnittstelle zwischen (u.a.) Fertigung, Qualitätssicherung, sowie Fertigungssupport.

Analyse Werkzeuge: JMPv8, SPSSv19, SAS 9.2(Windows), Minitab.


12/2010.-03/2011: Temporäre Leitung des Projekts ICS „Integrated Consumer Services“

 

Firma/Institut :                          Santander Consumer Bank (ISBAN DE)

Einsatzort:                                 Mönchengladbach

 

Berufserfahrung:

Temporäre Leitung des Projekts ICS „Integrated Consumer Services“. Zentrale Bündelung, Abfrage und Analyse von Kundendaten für Marketingmaßnahmen und Kreditentscheidungen. Im Rahmen von Basel II Audits u.a. Integration von tägl. Daten-Updates in einen bis dato monatl. aktualisierten Datenbestand. Weitere Aufgaben: Fehler-Analysen, Log-Analysen, Gap-Analysen, Koordination technischer Schnittstellen (SAS, ORACLE), SLAs für reliables Data Deployment, (Re)Programmierungen mit SAS Macro Facility, Analyse auf Performanz und Effizienz (Architektur, SAS Code, SAS Software Solutions als Alternative für proprietären SAS Code), Hard/Software Aufwandsschätzungen für performantere 24/7 front-end Availability. Datenvolumen: ca. 15 Mill. Datenzeilen. Systemumgebung: SAS 9.1.3(AIX, Windows).


08/2010. – 11/2010: Erstellung von Tabellen (Modelpoint- bzw. Rechnungsgrundlagendateien) mittels Datenbankabfragen

 

Firma/Institut :                          Bayrische Versicherungskammer

Einsatzort:                                 München

 

Berufserfahrung:

Erstellung von Tabellen (Modelpoint- bzw. Rechnungsgrundlagendateien) mittels Datenbankabfragen nach Vorgabe der „Mathematik Kranken“, Test der bereitgestellten Daten, und Transfer der aufbereiteten Daten für die Weiterverarbeitung in PROPHET. Anforderungen: Programmierungen mit SAS Macro Facility und PROC SQL auf Zuruf, Zusammenfassen, Vereinheitlichen und auch Beschleunigen von Makros wann immer möglich, Testing und Trouble-Shooting, Arbeiten auf dem Host (SAS8.2) und lokal (SAS9.1.2), Finden und Implementieren von Lösungen für spezielle Anforderungen, u.a. Makro zum Splitten für Multi-Threading.


06/2009 – 02/2010: Vizedirektor im Ressort Medien.

 

Firma/Institut :                          GfK Switzerland

Einsatzort:                                 Hergiswil, Switzerland.

 

Berufserfahrung:

  • Fact-based / Scientific Consulting für internationale Unternehmen ud Organisationen.
  • Management Consulting inkl. Business Intelligence, Data
  • Quality, Decision Support und Knowledge Generation mit SAS und SPSS.
  • Parallele Aktivititäten: Vorbereitung der Verteidigung meiner Dissertation.

10/2008 - 02/2009: TNT hs study

 

Firma/Institut :                          Roche Diagnostics,

Einsatzort:                                 Penzberg, Germany.

 

Berufserfahrung:

  • Makroprogrammierung mit SAS 9.1.3
  • Beratung und Unterstützung des Teams in SAS SQL UandSAS Tabulate Problemen.
  • ROC/AUC Analysisn mit komplexen SAS Makros
  • Beratung und Unterstützung in speziellen statistischen Fragen (z.B.PROC MIXED und PROC QUANTREG).
  • Roche® Role: “Statistician”.

08/2007-10/2008: Enterprise Package Solutions Specialist.

 

Firma/Institut :                          CSC Switzerland GmbH Bern Urdorf (ZH), Baar.

 

Berufserfahrung:

  • SAS / SPSS Advanced Analytics Expert.
  • Partner / Product Manager.

07/2006 - 12/2006 : Diverse Evaluationen landesweiter Mediennutzung   (Projekte HOTLINE, HOTLINE II, SESAM)

 

Firma/Institut :                          Ministerium

Branche:                                               Soziometrie / Evaluation.

 

Berufserfahrung:

  • wissenschaftlich fundierte Begleitung (Evaluation).
  • Beratung in Forschungsmethoden, Statistik und SPSS14.
  • Datenmanagement, Daten-, Analysequalität.
  • Entwicklung von SPSS-Programmen anhand des SAPs für
  • Reports und statis. Auswertung.
  • Validierung der SPSS Programme.

 

Systemumgebung:

SPSS V14, Windows XP.

 

Werkzeuge:

SPSS V14.


03/2006 - 06/2006 : Modellierung und Vorhersage diverser Verkaufs- und VVL-Parameter

 

Firma/Institut :                          Telekommunikation

 

Berufserfahrung:

  • Operativer Lead bei der wöchentlichen VVL Prognose.
  • Entwicklung univariater Vorhersagemodellen bis hin zu komplexen multivariaten Modellen(u.a. expolative Ansätze, Box-Jenkins-Ansätze,Interventions- und Transferfunktionsmodelle).
  • Automatisierung von Datenmigration, Datenmanagement und Datenanalyse.
  • Proof of concept: Vergleich der Präzision zweier Vorhersagesysteme.
  • Beschreibung, statistische Modellierung und Prognose von VVL und
  • Verkaufsparametern auf der Basis unterschiedlicher Granularität (Tages- und Monatsbasis), Definition (original vs. adjustierte Daten) und  Trainingszeiträume(Zeitreihenanalyse).
  • Überprüfung und Gewährleistung der Daten- und Vorhersagequalität.
  • Optimierung von Prognosen durch u.a. Berücksichtigung von Regressoren,Interventionen oder Saisonalen Dummies bzw. den Ausschluss von Störeffekten  wie z.B. Kalender-, Ziehungs- und Bereitstellungseffekten, z.B. Missings,   Ausreißer, usw.).
  • Dokumentation der Zeitreihenanalyse (Summary: Benefits & Limits).

 

Systemumgebung:

SAS V9.1.3., Windows XP/2003.

 

Tools :

SAS V9.1.3. (Time Series Forecasting System, SAS/ETS, SAS %FORECAST Makro),

KXEN KTS.


01/2006 - 02/2006 : Automatisierung

 

Firma/Institut :                          Controlling

 

Erfahrung:

utomatisierung komplexer Datenbankabfragen inkl. Datenmigration, Datenmanagement und Datenanalyse inkl. Date Integrity Checks (Data Quality, Data Constraints).

Automatisierte Ausgabe von Analysen, Berichten und Diagrammen.

 

Systemumgebung:

SAS V9.1.3., Windows XP.

 

Werkzeuge:

SAS V9.1.3, darin vorrangig Output Delivery System (HTML, pdf und rtf).

SAS Base, SAS GRAPH, SAS Macro Facility, SAS SQL und SAS STAT.


06/2005 - 12/2005: International.

 

Firma/Institut:                           Klinik / Branche: Multizentrische klinische Studie.

 

Berufserfahrung:

Code-Review (SPSS).

Professionelle Gewährleistung von Datenqualität hins.

  • Vollständigkeit, Einheitlichkeit, Duplikate, Missings uam.
  • wissenschaftlich fundierte Begleitung (Evaluation).
  • Beratung in Forschungsmethoden, Statistik und SPSS 11.
  • Datenmanagement, Daten-, Analysequalität.
  • Programmierung von Reports (Listen, Tabellen) für die statist. Auswertung.
  • Multivariate Auswertung.

 

Systemumgebung:

SPSS V13, Windows XP, Windows NT.

 

Werkzeuge:

SPSS V13.

Referenzen

Projekt Vorhersagemodelle zu Mobilfunk-Vertragsverlängerungen, 03/06 - 06/06
Referenz durch Telekommunikationsunternehmen (>3.000 MA) vom 06.11.06

"[...] Der Research Analyst hat seine Aufgaben auf der Grundlage eines umfassenden Sachwissens engagiert zu unserer vollen Zufriedenheit durchgeführt."

Branchen

Tätig in fast jeder Branche, z.T. überwiegend parallel und überlappend:

  • Statistik, Advanced Analytics, Data Mining: 20 Jahre
  • Statistische Programmierung mit SAS und SPSS: 20 Jahre
  • Anwendungsentwicklung (ETL, Datenmanagement): 20 Jahre
  • Banking/Finance/Insurance:  5 Jahre
  • Telekommunikation:  1 Jahr
  • Health/Pharma: 5 Jahre
  • (inkl. Alternative Medizin, multizentr. Studien, Health Studies, Pflegestudien, Therapieforschung)
  • Markt-, Medien-, Produktforschung (uam.): 5 Jahre
  • Tourismus, Traffic, Logistik: 3 Jahre
  • Consulting: 15 Jahre (inkl. Analyse, Beratung, Programmierung): 20 Jahre

Kompetenzen

Betriebssysteme
HPUX
Mac OS
MS-DOS
Unix
Windows

Datenbanken
Access
DB2
Filemaker
ODBC
Oracle
SAS
SQL
Teradata

Sprachkenntnisse
Deutsch
Englisch
gut
Italienisch
erweiterte Grundkenntnisse

Hardware
HP
IBM Großrechner
Macintosh
PC

Programmiersprachen
dBase
Grundkenntnisse
Makrosprachen
SAS Macro Programming Language, SPSS Macro Facility
Python
Python in SAS bzw. SPSS
SAS
Annotate, Base, Macro, Hash, D2, SQL, uam.
SAS Syntax
SPSS Syntax

Datenkommunikation
HTML
Internet
Intranet
WWW

Produkte / Standards / Erfahrungen

Management Focus:

Experience:

History of successfully managed scientific/business projects available.

 

Training:

Self-taught PMBOK know-how. "Catalyst" (CSC Switzerland). On the job.

 

Domains:

CEO of [Company name on request], self-owned company. Strategic Position in Media Research department at GfK Switzerland. Partner Manager at CSC Switzerland. Scientific / Programming Focus:

 

Produkte/Standards/Erfahrungen:

Über 20 Jahre lang intensive Auseinandersetzung mit Forschungsmethoden und Statistik in Praxis und Theorie: Designs, Mess-/Testtheorie, statistische Verfahren, Statistiksysteme (u.a. SAS und SPSS samt Benchmarktests), Vortrags- und Veröffentlichungspraxis. Zusätzlich zum eigenen SAS Buch also u.a. vertiefte Kenntnisse in Maßnahmen zur Sicherung von Datenqualität (Vollständigkeit, Einheitlichkeit, Duplikate, Missings; zu letzterem u.a. Mean Substitution, Hot deck, lineare Regression, EM, FIML) und professioneller multivariater Statistik, u.a. multiple Regression, binäre logistische Regression, multinomiale logistische Regression und ordinale Regression, Expertise in der Familie der Clusterverfahren, Algorithmen und Maße, Faktorenanalyse, Zeitreihenanalyse und zahlreicher nichtparametrischer Ansätze.

  • Schulungen und Kurse für SPSS, SAS und Forschungsmethoden und Statistik.
  • Statistische und grafische Datenanalyse mit SAS 9.3., JMP 9, sowie SPSS 21 und Clementine 12 bis 9.
  • Scientific Consulting (Wissenschafts-, Methodenberatung), darin v.a.  Definition of Data und Key Concepts, Model Specification und Data Transformation.
  • Data Entry und Data Management.
  • Qualitätskontrollen (Plausibilität: Validierung der Daten-, Analyse und Ergebnisqualität).
  • Expertise in quantitativen und qualitativen Forschungsmethoden.
  • Analyse, Statistik, Interpretation, und Evaluation.
  • Grafiken, Animationen und Präsentationen.
  • Planung und wiss. Begleitung (Monitoring) von Studien.
  • Auftragsanalysen, Auftragsforschung und Wissenschaftliche Begleitung.
  • Entwicklung und Aktualisierung professioneller Schulungs-, Vortrags- und Projektmaterialien  (SAS, SPSS, Statistik, Forschungsmethoden).
  • Umsetzung von u.a. ICH- und DeGEval-Standards.
  • o Zahlreiche Veröffentlichungen, u.a. Lehrbücher zu Datenanalyse mit SAS und Datenmanagement   mit SPSS.

 

Über 20 Jahren Erfahrung im Bereich SAS / SPSS Programmierung und Training (z.B.)

  • SAS® Base Syntax
  • SAS SQL® Software
  • SAS Macro Programming Language
  • SAS Annotate Programming Language
  • SAS / GRAPH® Software
  • SAS / STAT® Software
  • SAS / IML® Software
  • SAS / FSP® Software
  • SAS / ETS® Software
  • SAS / ACCESS® Software
  • SAS / CONNECT® Software
  • SAS / INSIGHT® Software
  • SAS / LAB® Software
  • SAS / Analyst Application
  • SAS / Enterprise Guide® Software
  • SAS / ASSIST® Software
  • SAS Time Series Forecasting System

Berechnung / Simulation / Versuch / Validierung
  • Advanced Analytics: u.a. Multi-Level-Modelling, multiple Regression, binäre logistische Regression, multinomiale logistische Regression und ordinale Regression, Expertise in der Familie der Clusterverfahren, Algorithmen und Maße, Faktorenanalyse, Zeitreihenanalyse und zahlreicher nichtparametrischer Ansätze.
  • Massgeschneiderte komplexe Berechnungen: U.a. Hochrechnung für Bundesrepublik Deutschland ("Zensus 2011") auf der Basis von Iterative Proportional Fitting.
  • Modelling and Simulation: Forecasts, Statistical Matching, Simulationen usw. (vgl. Beispiele im Kontext ihrer Projekte).
  • Maßnahmen zur Sicherung von Datenqualität (Vollständigkeit, Einheitlichkeit, Duplikate, Missings; zu letzterem u.a. Mean Substitution, Hot deck, lineare Regression, EM, FIML).
  • Planung, Begleitung, und Auswertung komplexer Studien (inkl. Pharma, Public, Market, Business etc.).

Design / Entwicklung / Konstruktion
  • Zu "Entwicklung" i.S.v. Modelling, Simulation und Analyse verweise ich gerne auf die aktuellen Projektbeschreibungen.

Aus- und Weiterbildung

06/2017 - 06/2017

1 Monat

SAS® Certified Advanced Programmer for SAS®9

Abschluss
SAS® Certified Advanced Programmer for SAS®9
Institution, Ort
SAS Institute, Cary NJ
Schwerpunkt
  • Fortgeschrittene Programmierung mit dem Data Step
  • Einsatz von effizienten Techniken zur Lösung komplexer Aufgabenstellungen.
  • Schreiben und Interpretieren von SQL Code.
  • Erstellen von Makros und der Verwendung der Macro Facilty.

03/2016 - 03/2016

1 Monat

SAS Base Programming for SAS 9

Abschluss
SAS Global Certification
Institution, Ort
SAS Institute

Ausbildungshistorie

07/2010

Promotion zum Dr.phil. an der Martin-Luther Universität Halle-Wittenberg, berufsbegeleitend, "Clusteranalyse mit SPSS" ("magna cum laude").

 

11/2008

Roche® Role “Statistician” bei Roche Diagnostics, Penzberg DE. 

 

11/2007

“Train the trainer”, SAS Institute, Heidelberg DE.

 

ab 1996

Selbständige Unternehmens- und Forschungsberatung.

 

1989 -1998

Diplom an Universität Heidelberg (Psychologie mit Schwerpunkt SAS, Forschungsmethoden und Statistik).

 

Weitere Ausbildungen und Trainings (Auswahl):

Diverse SAS Partner Universities (u.a. Anti-Money Laundry, Fraud Detection, SAS Marketing Automation, Business/Customer Intelligence, Risk, SWISS DRG), SAS Foren (CH), SAS KSFEs (DE), SPSS DIRECTIONs (u.a. Athen), E-Health Summits u.v.a.

×
×