IT Berater & Data Analyst (SAS Base/Macro, DWH, ETL, Anforderungsanalyse, Datenanalyse, Prozess- und Datenmigration, Branchenkenntnisse Finanzsektor)
Aktualisiert am 18.10.2021
Profil
Freiberufler / Selbstständiger
Remote-Arbeit
Verfügbar ab: 18.10.2021
Verfügbar zu: 100%
davon vor Ort: 80%
SAS Base
SAS Macro
ETL Prozesse
SQL
Data-Warehousing
Softwareentwicklung
Anforderungsanalyse
Datenmigration
Datenanalyse
Finanzbranche
Datenmanagement
Unix
Bulgarisch
Muttersprache
Deutsch
fließend in Wort und Schrift
Englisch
fließend in Wort und Schrift

Einsatzorte

Einsatzorte

Deutschland, Österreich, Schweiz
möglich

Projekte

Projekte

4 Jahre 5 Monate
2019-11 - heute

ETRM Operations & Development

Senior Technical Consultant
Senior Technical Consultant

Als Teil eines ETRM Operations and Development Team wurde ein Projekt bei einem der größten deutschen Energiekonzerne unterstützt.

  • Entwurf und Entwicklung von kundenspezifische Plug-ins innerhalb einer proprietären ETRM Plattform.
  • Design, Implementierung und Monitoring von Aufgaben und ihre Deadlines innerhalb des Teams sowie Qualitätssicherung und Lösung von Konfliktsituationen.
Energiekonzern
-
3 Jahre 5 Monate
2016-05 - 2019-09

Administrierung von periodischen DWH Prozessen

Core Datawarehouse Experte
Core Datawarehouse Experte

Ein Großteil von den im Core DWH laufenden periodischen SAS Datenlieferungsprozessen sind leider nicht produktiv. D.h. sie laufen außerhalb der modernen Corporate-Landschaft, also ohne automatisiertes Scheduling, Ticketing und offizielles Support im Fehlerfall etc. Das erfordert, dass diese zum Teil auch kritischen (z.B. aus regulatorischer Sicht) periodischen Prozesse beim Laufen überwacht werden. Diese Prozesse laufen wöchentlich, monatlich, zum Quartal usw. insbesondere an Sonn- und Feiertagen. Die Tätigkeit beinhaltet:

  • Ausführung sowie Monitoring von laufenden Prozessen im Core DWH.
  • Überprüfung der Datenlieferungen von diversen Kernbankensysteme (wie z.B. IBM AS400)
  • Im Fehlerfall: Manuelle Restdatenbereinigung und Neustart. Falls erforderlich – Wiederherstellung vom originalen Datenstand aus dem Corporate Backup.
Bank
Mönchengladbach
2 Jahre
2017-08 - 2019-07

Einführung von DSGVO (GDPR)

DWH Experte
DWH Experte

Mit der Einführung von DSGVO innerhalb Europa zum 25.05.2018 müssten auch alle im SAS Datawarehouse gespeicherten Daten im Einklang mit der neuen Gesetzgebung gebracht werden. Das ist keine triviale Aufgabe gewesen, auf Grund der Vielzahl von verschiedenen Systemen und Datenlieferungsprozesse, sowie das Alter von manchen Prozessen. Des Weiteren müssten alle Anpassungen mit den zuständigen Fachbereichen abgestimmt werden, die zum Teil Rechte und auch den Zugriff über viele historische Daten aufgeben mussten. In manchen Fällen hat die Anpassung von produktiven Prozessen in Bezug auf DSGVO Projekte von über 100 Personentagen erfordert.

  • Analyse von bestehenden SAS Prozessen innerhalb des DWH in Bezug auf die Anforderungen von DSGVO.
  • Erstellung eines Planes sowie Abstimmung mit den zuständigen Fachbereichen über die notwendigen Maßnahmen.
  • Entwurf und Implementierung der Änderungen unter enormen Zeitdruck, aufgrund des vorgeschriebenen Fertigstellungstermins.
  • Bereinigung und Löschung von historischen Daten
  • Deployment der Lösungen in Produktion.
Bank
Mönchengladbach
1 Jahr 3 Monate
2018-04 - 2019-06

Jährliche Abstimmung mit der Schufa (Daten Inventur)

Business Analyst/DWH Experte
Business Analyst/DWH Experte

Die Schufa stellt Unternehmen bei der Anbahnung von Geschäftsabschlüssen Informationen zur Bonität des Kunden anhand einer Vielzahl von Merkmalen bereit, die z.B. in eine Kreditentscheidung mit einfließen. Andererseits meldet das Unternehmen Veränderungen in den Merkmalen an das Unternehmen zurück. Im Laufe der Zeit ergeben sich jedoch Abweichungen zwischen den beim Unternehmen gespeicherten Daten und denjenigen bei der Schufa, welche zu Kundenbeschwerden führen können. Das kann jedoch die Reputation des Unternehmens beeinträchtigen. Deswegen wurde mit der Schufa ein jährlicher Datenabgleich vereinbart, um die Konsistenz der Daten in beiden Systemen zu gewährleisten. Dieser Abgleich bezieht sich jeweils auf unterschiedliche Merkmale. Das SAS Datawarehouse wird für die Erstellung der Inventur herangezogen. Im Einzelnen beinhaltete das:

  • Konzeptionierung eines jährlichen Stufenplans, d.h. welche Merkmale werden in welcher Phase abgeglichen.
  • Identifikation der Schufa relevanten Produkte (z.B. Verbraucherkredit, Finanzierung eines Autos, Warenfinanzierungen, Onlinehandel).
  • Entwicklung von SAS Programmen zur Identifikation der entsprechenden kundenbezogenen Merkmale unter Heranziehung der DWH Daten
  • Überprüfung anhand vom zuständigen Fachbereich vorgegebener Kriterien
  • Nach Freigabe durch den Fachbereich Erzeugung von Dateien, die an die Schufa übermittelt werden
  • Schufa sendet nach Abgleich Dateien zurück, die die Abweichungen enthalten
  • Korrektur der Daten in beiden Systemen nach Abstimmung durch den Fachbereich
Bank
Mönchengladbach
1 Jahr 8 Monate
2016-07 - 2018-02

Transformation von alten ?Legacy? SAS Prozessen, Modernisierung der DWH Landschaft

ETL Experte
ETL Experte

Es gibt eine Reihe von alten “Legacy” SAS Prozessen, die von den Fachbereichen der Bank selbst entwickelt wurden. Diese sind leider ungeeignet in die produktive Corporate Landschaft direkt deployed zu werden. Ein großes Problem dabei ist zum Beispiel die Inkompatibilität mit einem automatisierten Scheduling-System (z.B. Control-M), das zum Teil eine aufwendige Anpassung erfordert. Des Weiteren sind diese alten SAS-Programme angesichts der aktuellen Corporate Programmierungs- und Deployment-Richtlinien anpassungsbedürftig. Ein großes Thema ist dabei häufig die Einhaltung der zum Teil gesetzlich vorgegebenen  Datenspeicherungsfristen bzw. das Housekeeping. Zum Teil müssen diese Prozesse komplett neu programmiert werden. Im Wesentlichen beinhaltet dies:

  • Analyse der SAS (bzw. Unix Shell) Programme des alten Prozesses inklusive Datenströme, Datenlieferungen etc.
  • Anpassung und zum Teil Neuentwicklung des alten Prozesses in enger Zusammenarbeit mit dem zuständigen Fachbereich der Bank.
  • Entwurf und Implementierung vom automatisierten Scheduling unter Control-M.
  • Implementierung eines monatlichen Historisierungsprozesses unter Berücksichtigung der vorgegebenen Speichrungsfristen.
  • Entwurf und Implementierung von periodischem Houskeeping.
  • Integration einer Neustart-Funktion im Fehlerfall.
  • Deployment der Lösung in Produktion.  
Bank
Mönchengladbach
7 Monate
2016-10 - 2017-04

Einführung von IBM IGC (InfoSphere Information Governance Catalog)

Datenexperte
Datenexperte

In einem großen, „historisch gewachsenen“ Datawarehouse System verliert man oft den Überblick über die gespeicherten Daten. Manchmal kommt es vor, dass auch Daten und ganze Prozesse bzw. Lieferketten dupliziert werden. Dabei entstehen unnötige Datenredundanzen. Ziel des Projektes war ein bereichsübergreifendes Data-Lineage über eine Reihe von im DWH gespeicherten Daten zu erstellen, anhand von automatischer Auswertung der zuständigen SAS Programme, Metadaten, Logdateien etc. Das sollte unter Einsatz  des Tools InfoSphere Information Governance Catalog der Firma IBM erfolgen. Das Projekt beinhaltete:

  • Durchführung einer Machbarkeitsstudie (Proof of Concept).
  • Analyse der betroffenen SAS Prozesse und ihre Metadaten.
  • Extraktion und Analyse deren Logdateien.
  • Unterstützung des externen IGC Teams bei der Einpflege der Daten im Tool.
  • Analyse und Validierung der Ergebnisse.
  • Unterstützung der Fachabteilungen der Bank beim Einsatz des erstellten Data-Lineage.
  • Deployment der erforderlichen Änderungen in Produktion.
Bank
Mönchengladbach
1 Jahr 9 Monate
2014-10 - 2016-06

Pflege und Anpassung von Schnittstellen

DWH & ETL Experte
DWH & ETL Experte

Eine Reihe von Systemen liefert ihre Daten an das SAS Datawarehouse und stellt diese der Fachabteilungen zur Verfügung zwecks Analyse, Regelwerkevaluierung, Erfüllung von regulatorischen Anforderungen, Reporting etc. Ein wichtiges Teil davon sind die Daten der verschiedenen Kredit-Entscheidungssysteme sowie (online) Kredit-Antragssysteme. Diese sind vor allem aus regulatorischer Sicht sehr wichtig. Bei jeder Änderung eines Moduls dieser Systeme (z.B. die Einführung einer neuen von EZB vorgeschriebenen Score-Karte) müssen die Auswirkungen auf das DWH überprüft werden und gegebenenfalls die DWH Datenlieferungsprozesse bzw. deren Schnittstellen angepasst werden.

  • Analyse der Auswirkung auf die bestehenden SAS Prozessen
  • Implementierung von den neuen Anforderungen bzw. Anpassung der bestehenden Schnittstellen in enger Kooperation mit der zuständigen Fachabteilung
  • Anpassung von Metadaten
  • Deployment der Änderungen in Produktion.
  • Durchführung von Massentests falls angefordert.
Bank
Mönchengladbach
1 Jahr 9 Monate
2014-08 - 2016-04

Externe Prüfungen

Datenexperte
Datenexperte

Prüfungen von externen Auditoren (PwC, Deloitte etc.) sowie Prüfungen aufgrund regulatorischer Anforderungen (BaFin, EZB, Bundesbank, EdB etc.) finden regelmäßig statt. Dabei müssen Daten aus allen Kernbankensystemen abhängig von den Anforderungen der Auditoren extrahiert werden. In der Regel müssen die folgenden Schritte durchgeführt werden:

  • Anforderungsanalyse zusammen mit dem zuständigen Fachbereich
  • Erstellung eines Datenextraktionsplans
  • Entwicklung der dazugehörigen SAS Programme zur Datenextraktion
  • Prüfung von Stichproben der Datenextraktion mit den an dem Audit beteiligten Fachbereichen
  • Erstellung der Datenextraktionen und Reports
  • Implementierung von kurzfristigen Ad-Hoc Anpassungen nach Anforderungen von den Auditoren  

Beispiele für solche externe Prüfungen:

  • Jährliche Anti-Geldwäsche Prüfung (Die Anforderungen ändern sich jedes Jahr)
  • Prüfungen von dem Deutschen Einlagensicherungsfonds (EdB)
  • BaFin Prüfungen gemäß §44 KWG
  • Außenwirtschaftsprüfung der Bundesbank    
Bank
Mönchengladbach
1 Jahr 8 Monate
2013-02 - 2014-09

Wartung vom Core Datawarehouse

Technical Datenanalyst
Technical Datenanalyst

Tätig als Experte für diverse Core DWH Prozesse, third-level support und andere Incidents, die im Corporate Tool zur Verwaltung von Serviceanfragen aufgezeichnet wurden.

  • Analyse des Incidents
  • Erstellung eines Lösungsvorschlags
  • Falls erforderlich Implementierung einer Softwarelösung bzw. Anpassung bestehender Software
  • Deployment der Lösung in Produktion  
Bank
Mönchengladbach
9 Monate
2013-11 - 2014-07

SAS Implementierung ? Validierung von RSV Kündigungen

Technical & Business Analyst
Technical & Business Analyst

Das Projekt wurde von der Versicherungsabteilung initiiert und bezog sich auf die entweder durch den Kunden oder durch die Bank vorzeitig gekündigte RSVs (Restschuldversicherungen). Im Falle der Kündigung einer RSV ist die Rückerstattung für den Kunden unter Berücksichtigung der gesetzlichen Regelungen zu berechnen. Dies geschieht durch den Versicherer, der monatliche Listen an die Versicherungsabteilung liefert, die Einzelheiten zu den Verträgen und der entsprechenden Rückerstattungen enthalten. Aufgrund einer Audit-Anforderung muss die Bank jedoch eine interne Prüfungsmöglichkeit einrichten, um die von dem Drittanbieter berechneten Rückerstattungen zu validieren. Es wurde beschlossen, die bereits vorhandenen Daten im Datawarehouse, in dem alle Versicherungsverträge gespeichert sind, für die Neuberechnung der Rückerstattungen zu verwenden und sie mit den vom Versicherer berechneten Werten zu vergleichen. Diese Validierung sollte als ein periodischer monatlicher Prozess produktiv gesetzt werden.

  • Implementierung eines periodischen ETL-Prozesses zum Einlesen der vom Drittanbieter gelieferten Daten
  • Selektion der gekündigten RSV‘s im DWH
  • Anwendung von verschiedenen Algorithmen zwecks Neuberechnung der Rückerstattung
  • Implementierung mehrerer Reports für die Fachabteilung, basierend auf die erzeugten Daten.
  • Deployment in Produktion.
Bank
Mönchengladbach

Aus- und Weiterbildung

Aus- und Weiterbildung

4 Jahre 3 Monate
2005-10 - 2009-12

Studium der Anwendungsorientierten Informatik

Bachelor of Science, Studium Universität Heidelberg
Bachelor of Science
Studium Universität Heidelberg
  • Vertiefung Datenbanksysteme
  • Data Warehousing
  • Data Mining
  • Nebenfach: Volkswirtschaftslehre

Kompetenzen

Kompetenzen

Top-Skills

SAS Base SAS Macro ETL Prozesse SQL Data-Warehousing Softwareentwicklung Anforderungsanalyse Datenmigration Datenanalyse Finanzbranche Datenmanagement Unix

Produkte / Standards / Erfahrungen / Methoden

Erfahrungen

  • System und Netzwerkadministration: Windows, Unix, Mac OS X (sehr gut)
  • Microsoft Office, Visio, Project (sehr gut)
  • XML (sehr gut)
  • UML (gut)

Entwicklungsumgebungen und Tools:

  • SAS 9.2
  • SAS Enterprise Guide
  • Eclipse
  • Microsoft Visual Studio
  • Matlab
  • Redmine
  • HP Application Lifecycle Management
  • InfoSphere Information Governance Catalog
  • Remedy
  • Service Now
  • Git
  • Enterprise Architect
  • Tableau
  • Power BI
  • Confluence
  • Control?M
  • Xcode
  • Hadoop
  • Docker
  • Jupyter Notebook
  • RStudio
  • OpenLink Endur
  • Microsoft Azure
  • Amazon Web Services
  • Xcode

Programmiersprachen

C++
gut
Cobol
Grundkenntnisse
Easytrieve
Grundkenntnisse
HTML
gut
Java
gut
JavaScript
gut
Latex
gut
Matlab
gut
Perl
sehr gut
Python
sehr gut
R
gut
Ruby
Grundkenntnisse
SAS Base
sehr gut
SAS Macro
sehr gut
Swift
Grundkenntnisse
Unix Shell
gut
VBA
gut

Datenbanken

Access
gut
Couchbase/N1QL
sehr gut
DB2
Grundkenntnisse
Microsoft SQL Server
gut
MySQL
sehr gut
Oracle PL SQL
gut
PostgreSQL
gut
SQLite
sehr gut

Einsatzorte

Einsatzorte

Deutschland, Österreich, Schweiz
möglich

Projekte

Projekte

4 Jahre 5 Monate
2019-11 - heute

ETRM Operations & Development

Senior Technical Consultant
Senior Technical Consultant

Als Teil eines ETRM Operations and Development Team wurde ein Projekt bei einem der größten deutschen Energiekonzerne unterstützt.

  • Entwurf und Entwicklung von kundenspezifische Plug-ins innerhalb einer proprietären ETRM Plattform.
  • Design, Implementierung und Monitoring von Aufgaben und ihre Deadlines innerhalb des Teams sowie Qualitätssicherung und Lösung von Konfliktsituationen.
Energiekonzern
-
3 Jahre 5 Monate
2016-05 - 2019-09

Administrierung von periodischen DWH Prozessen

Core Datawarehouse Experte
Core Datawarehouse Experte

Ein Großteil von den im Core DWH laufenden periodischen SAS Datenlieferungsprozessen sind leider nicht produktiv. D.h. sie laufen außerhalb der modernen Corporate-Landschaft, also ohne automatisiertes Scheduling, Ticketing und offizielles Support im Fehlerfall etc. Das erfordert, dass diese zum Teil auch kritischen (z.B. aus regulatorischer Sicht) periodischen Prozesse beim Laufen überwacht werden. Diese Prozesse laufen wöchentlich, monatlich, zum Quartal usw. insbesondere an Sonn- und Feiertagen. Die Tätigkeit beinhaltet:

  • Ausführung sowie Monitoring von laufenden Prozessen im Core DWH.
  • Überprüfung der Datenlieferungen von diversen Kernbankensysteme (wie z.B. IBM AS400)
  • Im Fehlerfall: Manuelle Restdatenbereinigung und Neustart. Falls erforderlich – Wiederherstellung vom originalen Datenstand aus dem Corporate Backup.
Bank
Mönchengladbach
2 Jahre
2017-08 - 2019-07

Einführung von DSGVO (GDPR)

DWH Experte
DWH Experte

Mit der Einführung von DSGVO innerhalb Europa zum 25.05.2018 müssten auch alle im SAS Datawarehouse gespeicherten Daten im Einklang mit der neuen Gesetzgebung gebracht werden. Das ist keine triviale Aufgabe gewesen, auf Grund der Vielzahl von verschiedenen Systemen und Datenlieferungsprozesse, sowie das Alter von manchen Prozessen. Des Weiteren müssten alle Anpassungen mit den zuständigen Fachbereichen abgestimmt werden, die zum Teil Rechte und auch den Zugriff über viele historische Daten aufgeben mussten. In manchen Fällen hat die Anpassung von produktiven Prozessen in Bezug auf DSGVO Projekte von über 100 Personentagen erfordert.

  • Analyse von bestehenden SAS Prozessen innerhalb des DWH in Bezug auf die Anforderungen von DSGVO.
  • Erstellung eines Planes sowie Abstimmung mit den zuständigen Fachbereichen über die notwendigen Maßnahmen.
  • Entwurf und Implementierung der Änderungen unter enormen Zeitdruck, aufgrund des vorgeschriebenen Fertigstellungstermins.
  • Bereinigung und Löschung von historischen Daten
  • Deployment der Lösungen in Produktion.
Bank
Mönchengladbach
1 Jahr 3 Monate
2018-04 - 2019-06

Jährliche Abstimmung mit der Schufa (Daten Inventur)

Business Analyst/DWH Experte
Business Analyst/DWH Experte

Die Schufa stellt Unternehmen bei der Anbahnung von Geschäftsabschlüssen Informationen zur Bonität des Kunden anhand einer Vielzahl von Merkmalen bereit, die z.B. in eine Kreditentscheidung mit einfließen. Andererseits meldet das Unternehmen Veränderungen in den Merkmalen an das Unternehmen zurück. Im Laufe der Zeit ergeben sich jedoch Abweichungen zwischen den beim Unternehmen gespeicherten Daten und denjenigen bei der Schufa, welche zu Kundenbeschwerden führen können. Das kann jedoch die Reputation des Unternehmens beeinträchtigen. Deswegen wurde mit der Schufa ein jährlicher Datenabgleich vereinbart, um die Konsistenz der Daten in beiden Systemen zu gewährleisten. Dieser Abgleich bezieht sich jeweils auf unterschiedliche Merkmale. Das SAS Datawarehouse wird für die Erstellung der Inventur herangezogen. Im Einzelnen beinhaltete das:

  • Konzeptionierung eines jährlichen Stufenplans, d.h. welche Merkmale werden in welcher Phase abgeglichen.
  • Identifikation der Schufa relevanten Produkte (z.B. Verbraucherkredit, Finanzierung eines Autos, Warenfinanzierungen, Onlinehandel).
  • Entwicklung von SAS Programmen zur Identifikation der entsprechenden kundenbezogenen Merkmale unter Heranziehung der DWH Daten
  • Überprüfung anhand vom zuständigen Fachbereich vorgegebener Kriterien
  • Nach Freigabe durch den Fachbereich Erzeugung von Dateien, die an die Schufa übermittelt werden
  • Schufa sendet nach Abgleich Dateien zurück, die die Abweichungen enthalten
  • Korrektur der Daten in beiden Systemen nach Abstimmung durch den Fachbereich
Bank
Mönchengladbach
1 Jahr 8 Monate
2016-07 - 2018-02

Transformation von alten ?Legacy? SAS Prozessen, Modernisierung der DWH Landschaft

ETL Experte
ETL Experte

Es gibt eine Reihe von alten “Legacy” SAS Prozessen, die von den Fachbereichen der Bank selbst entwickelt wurden. Diese sind leider ungeeignet in die produktive Corporate Landschaft direkt deployed zu werden. Ein großes Problem dabei ist zum Beispiel die Inkompatibilität mit einem automatisierten Scheduling-System (z.B. Control-M), das zum Teil eine aufwendige Anpassung erfordert. Des Weiteren sind diese alten SAS-Programme angesichts der aktuellen Corporate Programmierungs- und Deployment-Richtlinien anpassungsbedürftig. Ein großes Thema ist dabei häufig die Einhaltung der zum Teil gesetzlich vorgegebenen  Datenspeicherungsfristen bzw. das Housekeeping. Zum Teil müssen diese Prozesse komplett neu programmiert werden. Im Wesentlichen beinhaltet dies:

  • Analyse der SAS (bzw. Unix Shell) Programme des alten Prozesses inklusive Datenströme, Datenlieferungen etc.
  • Anpassung und zum Teil Neuentwicklung des alten Prozesses in enger Zusammenarbeit mit dem zuständigen Fachbereich der Bank.
  • Entwurf und Implementierung vom automatisierten Scheduling unter Control-M.
  • Implementierung eines monatlichen Historisierungsprozesses unter Berücksichtigung der vorgegebenen Speichrungsfristen.
  • Entwurf und Implementierung von periodischem Houskeeping.
  • Integration einer Neustart-Funktion im Fehlerfall.
  • Deployment der Lösung in Produktion.  
Bank
Mönchengladbach
7 Monate
2016-10 - 2017-04

Einführung von IBM IGC (InfoSphere Information Governance Catalog)

Datenexperte
Datenexperte

In einem großen, „historisch gewachsenen“ Datawarehouse System verliert man oft den Überblick über die gespeicherten Daten. Manchmal kommt es vor, dass auch Daten und ganze Prozesse bzw. Lieferketten dupliziert werden. Dabei entstehen unnötige Datenredundanzen. Ziel des Projektes war ein bereichsübergreifendes Data-Lineage über eine Reihe von im DWH gespeicherten Daten zu erstellen, anhand von automatischer Auswertung der zuständigen SAS Programme, Metadaten, Logdateien etc. Das sollte unter Einsatz  des Tools InfoSphere Information Governance Catalog der Firma IBM erfolgen. Das Projekt beinhaltete:

  • Durchführung einer Machbarkeitsstudie (Proof of Concept).
  • Analyse der betroffenen SAS Prozesse und ihre Metadaten.
  • Extraktion und Analyse deren Logdateien.
  • Unterstützung des externen IGC Teams bei der Einpflege der Daten im Tool.
  • Analyse und Validierung der Ergebnisse.
  • Unterstützung der Fachabteilungen der Bank beim Einsatz des erstellten Data-Lineage.
  • Deployment der erforderlichen Änderungen in Produktion.
Bank
Mönchengladbach
1 Jahr 9 Monate
2014-10 - 2016-06

Pflege und Anpassung von Schnittstellen

DWH & ETL Experte
DWH & ETL Experte

Eine Reihe von Systemen liefert ihre Daten an das SAS Datawarehouse und stellt diese der Fachabteilungen zur Verfügung zwecks Analyse, Regelwerkevaluierung, Erfüllung von regulatorischen Anforderungen, Reporting etc. Ein wichtiges Teil davon sind die Daten der verschiedenen Kredit-Entscheidungssysteme sowie (online) Kredit-Antragssysteme. Diese sind vor allem aus regulatorischer Sicht sehr wichtig. Bei jeder Änderung eines Moduls dieser Systeme (z.B. die Einführung einer neuen von EZB vorgeschriebenen Score-Karte) müssen die Auswirkungen auf das DWH überprüft werden und gegebenenfalls die DWH Datenlieferungsprozesse bzw. deren Schnittstellen angepasst werden.

  • Analyse der Auswirkung auf die bestehenden SAS Prozessen
  • Implementierung von den neuen Anforderungen bzw. Anpassung der bestehenden Schnittstellen in enger Kooperation mit der zuständigen Fachabteilung
  • Anpassung von Metadaten
  • Deployment der Änderungen in Produktion.
  • Durchführung von Massentests falls angefordert.
Bank
Mönchengladbach
1 Jahr 9 Monate
2014-08 - 2016-04

Externe Prüfungen

Datenexperte
Datenexperte

Prüfungen von externen Auditoren (PwC, Deloitte etc.) sowie Prüfungen aufgrund regulatorischer Anforderungen (BaFin, EZB, Bundesbank, EdB etc.) finden regelmäßig statt. Dabei müssen Daten aus allen Kernbankensystemen abhängig von den Anforderungen der Auditoren extrahiert werden. In der Regel müssen die folgenden Schritte durchgeführt werden:

  • Anforderungsanalyse zusammen mit dem zuständigen Fachbereich
  • Erstellung eines Datenextraktionsplans
  • Entwicklung der dazugehörigen SAS Programme zur Datenextraktion
  • Prüfung von Stichproben der Datenextraktion mit den an dem Audit beteiligten Fachbereichen
  • Erstellung der Datenextraktionen und Reports
  • Implementierung von kurzfristigen Ad-Hoc Anpassungen nach Anforderungen von den Auditoren  

Beispiele für solche externe Prüfungen:

  • Jährliche Anti-Geldwäsche Prüfung (Die Anforderungen ändern sich jedes Jahr)
  • Prüfungen von dem Deutschen Einlagensicherungsfonds (EdB)
  • BaFin Prüfungen gemäß §44 KWG
  • Außenwirtschaftsprüfung der Bundesbank    
Bank
Mönchengladbach
1 Jahr 8 Monate
2013-02 - 2014-09

Wartung vom Core Datawarehouse

Technical Datenanalyst
Technical Datenanalyst

Tätig als Experte für diverse Core DWH Prozesse, third-level support und andere Incidents, die im Corporate Tool zur Verwaltung von Serviceanfragen aufgezeichnet wurden.

  • Analyse des Incidents
  • Erstellung eines Lösungsvorschlags
  • Falls erforderlich Implementierung einer Softwarelösung bzw. Anpassung bestehender Software
  • Deployment der Lösung in Produktion  
Bank
Mönchengladbach
9 Monate
2013-11 - 2014-07

SAS Implementierung ? Validierung von RSV Kündigungen

Technical & Business Analyst
Technical & Business Analyst

Das Projekt wurde von der Versicherungsabteilung initiiert und bezog sich auf die entweder durch den Kunden oder durch die Bank vorzeitig gekündigte RSVs (Restschuldversicherungen). Im Falle der Kündigung einer RSV ist die Rückerstattung für den Kunden unter Berücksichtigung der gesetzlichen Regelungen zu berechnen. Dies geschieht durch den Versicherer, der monatliche Listen an die Versicherungsabteilung liefert, die Einzelheiten zu den Verträgen und der entsprechenden Rückerstattungen enthalten. Aufgrund einer Audit-Anforderung muss die Bank jedoch eine interne Prüfungsmöglichkeit einrichten, um die von dem Drittanbieter berechneten Rückerstattungen zu validieren. Es wurde beschlossen, die bereits vorhandenen Daten im Datawarehouse, in dem alle Versicherungsverträge gespeichert sind, für die Neuberechnung der Rückerstattungen zu verwenden und sie mit den vom Versicherer berechneten Werten zu vergleichen. Diese Validierung sollte als ein periodischer monatlicher Prozess produktiv gesetzt werden.

  • Implementierung eines periodischen ETL-Prozesses zum Einlesen der vom Drittanbieter gelieferten Daten
  • Selektion der gekündigten RSV‘s im DWH
  • Anwendung von verschiedenen Algorithmen zwecks Neuberechnung der Rückerstattung
  • Implementierung mehrerer Reports für die Fachabteilung, basierend auf die erzeugten Daten.
  • Deployment in Produktion.
Bank
Mönchengladbach

Aus- und Weiterbildung

Aus- und Weiterbildung

4 Jahre 3 Monate
2005-10 - 2009-12

Studium der Anwendungsorientierten Informatik

Bachelor of Science, Studium Universität Heidelberg
Bachelor of Science
Studium Universität Heidelberg
  • Vertiefung Datenbanksysteme
  • Data Warehousing
  • Data Mining
  • Nebenfach: Volkswirtschaftslehre

Kompetenzen

Kompetenzen

Top-Skills

SAS Base SAS Macro ETL Prozesse SQL Data-Warehousing Softwareentwicklung Anforderungsanalyse Datenmigration Datenanalyse Finanzbranche Datenmanagement Unix

Produkte / Standards / Erfahrungen / Methoden

Erfahrungen

  • System und Netzwerkadministration: Windows, Unix, Mac OS X (sehr gut)
  • Microsoft Office, Visio, Project (sehr gut)
  • XML (sehr gut)
  • UML (gut)

Entwicklungsumgebungen und Tools:

  • SAS 9.2
  • SAS Enterprise Guide
  • Eclipse
  • Microsoft Visual Studio
  • Matlab
  • Redmine
  • HP Application Lifecycle Management
  • InfoSphere Information Governance Catalog
  • Remedy
  • Service Now
  • Git
  • Enterprise Architect
  • Tableau
  • Power BI
  • Confluence
  • Control?M
  • Xcode
  • Hadoop
  • Docker
  • Jupyter Notebook
  • RStudio
  • OpenLink Endur
  • Microsoft Azure
  • Amazon Web Services
  • Xcode

Programmiersprachen

C++
gut
Cobol
Grundkenntnisse
Easytrieve
Grundkenntnisse
HTML
gut
Java
gut
JavaScript
gut
Latex
gut
Matlab
gut
Perl
sehr gut
Python
sehr gut
R
gut
Ruby
Grundkenntnisse
SAS Base
sehr gut
SAS Macro
sehr gut
Swift
Grundkenntnisse
Unix Shell
gut
VBA
gut

Datenbanken

Access
gut
Couchbase/N1QL
sehr gut
DB2
Grundkenntnisse
Microsoft SQL Server
gut
MySQL
sehr gut
Oracle PL SQL
gut
PostgreSQL
gut
SQLite
sehr gut

Vertrauen Sie auf GULP

Im Bereich Freelancing
Im Bereich Arbeitnehmerüberlassung / Personalvermittlung

Fragen?

Rufen Sie uns an +49 89 500316-300 oder schreiben Sie uns:

Das GULP Freelancer-Portal

Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.