a Randstad company

Projektleiter, Interim Manager, Enterprise Architect (Data Governance, Business Intelligence, Smart Data Analytics, Data Quality Management)

Profil
Top-Skills
Data Governance, Data Quality Management, data driven Business Model Development
Verfügbar ab
04.03.2023
Aktuell verfügbar - Der Experte steht für neue Projektangebote zur Verfügung.
Verfügbar zu
100%
davon vor Ort
100%
Einsatzorte

PLZ-Gebiete
Länder
Ganz Deutschland, Österreich, Schweiz

prefered locations of work are Hannover, Hamburg, Berlin.

Remote-Arbeit
möglich
Art des Profiles
Freiberufler / Selbstständiger
Der Experte ist als Einzelperson freiberuflich oder selbstständig tätig.

1 Jahr 5 Monate

2021-10

heute

Aufbau eine Datenmanagement Organisation parallel zur SAP S/4 Migration

Data Governance Manager Germany DAMA Scrum
Rolle
Data Governance Manager Germany
Projektinhalte
Parallel zur Migration von SAP auf S/4 ist im Rahmen eines Programms eine Datenmanagement Organisation aufzubauen.
  • Data Governance
  • Data Quality Management
  • Data Architecture and Design
  • Metadata Management
  • Data Security Management
  • Master and Reference Data Management
Produkte
SAP S/4 SAP MDG
Kenntnisse
DAMA Scrum
Kunde
Industriekonzern
Einsatzort
Aschaffenburg
1 Jahr 9 Monate

2020-10

2022-06

Kundendaten Management Optimierung nach Migration

Data Management Consultant DAMA DQM Data Governance ...
Rolle
Data Management Consultant
Projektinhalte

Datenmanagement

  • Metadatenmanagement
  • Datenqualtätsmanagement
  • Datenanforderungsmanagement
  • Datenanalysen
  • Daten Incident und Problemmanagement
Produkte
Tableau
Kenntnisse
DAMA DQM Data Governance Data Lineages Data Services SQL
Kunde
Bank
Einsatzort
Düsseldorf
2 Jahre 7 Monate

2019-06

2021-12

Customer Data Transparency

Management Consulting im Bereich ?Datenmanagement"
Rolle
Management Consulting im Bereich ?Datenmanagement"
Projektinhalte
  • Scope Definition für das Projekt überarbeiten, schärfen, abstimmen und verabschieden lassen, Umsetzungsplanung, Erarbeitung fachlicher Goverance Regeln, Mitwirkung bei der Konzeption der Fach- und IT-Architektur, Einkauf Dienstleistungen und Services
    • Definition, Konzeption und Umsetzung eines praktischen Data Governance Frameworks (inkl. strategischer Ausrichtung, Richtlinien und Policies, einschl. Datenqualität für das gesamte Kundendatenmanagement)
    • Definition, Konzeption und Umsetzung zentraler und dezentraler Daten Managment Rollen und Verantwortlichkeiten
    • Definition, Konzeption und Umsetzung eines Prozessmodells für eine neu zu schaffende Daten Management Organisation (Daten, Meta Daten, Master Daten Management und Datenqualitätsmanagement inkl. übergreifender Prozesse zur Anbindung der Regionen (50 Länder weltweit)
    • Formulierung von Anforderungen an eine strategische Ausrichtung einer Daten Management Organisation
    • Harmonisierung der Anforderungen zwischen den Projekten im Konzern mit Bezug zu Kundendaten
Kunde
Internationaler Industriekonzern
7 Monate

2019-12

2020-06

Aufbau einer Datenmanagement Organisation

Interim Manager (Head of Data)
Rolle
Interim Manager (Head of Data)
Projektinhalte
  • Aufgabenbereich einer neu zu gründenden Datenmanagement Organisation erarbeiten, schärfen, abstimmen und verabschieden lassen, Umsetzungsplanung für Auf- und Ausbau, Vorgabe von Prozessen, Rollenbeschreibungen, Ernennung von Data Ownern, Anleitung zur Erarbeitung fachlicher Inhalte, Konzeption der Fach- und IT-Architektur für ein Datenmanagement-Environment, Einkauf von Dienstleistungen und Services
    • Definition, Konzeption und Umsetzung eines praktischen Data Governance Frameworks (inkl. strategischer Ausrichtung, Richtlinien und Policies, einschl. Datenqualität für das gesamte Kundendatenmanagement)
    • Definition, Konzeption und Umsetzung eines Prozessmodells für eine neu zu schaffende Daten Management Organisation (Daten, Meta Daten, Master Daten Management und Datenqualitätsmanagement inkl. übergreifender Prozesse zur Anbindung der Auslandsstandorte (USA, Kanada und Mexiko)
    • Harmonisierung der Anforderungen zwischen den Projekten im Konzern mit Bezug zu verschiedenen Datendomänen
Kunde
Internationaler Industriekonzern
1 Jahr 4 Monate

2018-09

2019-12

Bereichsaufbau Data Management Services

Head of Data Governance (Interim Management) Datenstrategie Data Governance Data Ownership ...
Rolle
Head of Data Governance (Interim Management)
Projektinhalte

Aufbau eines neu etablierten Bereiches mit den Schwerpunkten:

 

  • Datenstrategie erarbeiten (abgeleitet aus der Geschäftsstrategie und harmonisiert mit der IT-Strategie)
  • Data Governance etablieren
  • Data Ownerships und Data Stewardships vergeben, einschl. Enablement der Rolleninhaber
  • Datenarchitektur neu gestalten inkl. Big Data und Data Lake
  • Fachliches unternehmensweites Datenmodell entwickeln
  • Metadatenmanagement etablieren
  • Datenqualitätsmanagement etablieren
  • Master Data Management etablieren
  • Refernce Data Management etablieren
  • Data Lifecycle Management etablieren
  • DSGVO als Bestandteil der Data Governance etablieren

Zusätzlich Konzeption und Bereitstellung eines für Data Analytics-Teams nutzbaren Data Layers mit einer real-time / near-time Datenversorgung aus internen und externen Datenquellen.

Produkte
Informatica PowerCenter Informatica EDC Informatica IDQ AXON
Kenntnisse
Datenstrategie Data Governance Data Ownership Data Stewardship Datenarchitektur Data Architecture Big Data Data Lake Datenmodellierung Unternehmensweites Datenmodell Metadatenmanagement Datenqualitätsmanagement Master Data Management Reference Data Management Data Lifecycle Management DSGVO Data Analytics Datenversorgung
Kunde
Bank
Einsatzort
Eschborn, Taunus
3 Jahre 8 Monate

2016-05

2019-12

Umsetzung BCBS 239 relevanter Themen im Datenkontext

Projektleiter Projektmanagement Prozessmanagement Softwareeinführungsprozess ...
Rolle
Projektleiter
Projektinhalte
  • Operationalisierung einer neu zu etablierenden Daten Management Organisation
    • Definition, Konzeption und Umsetzung eines praktischen Data Governance Frameworks (inkl. strategischer Ausrichtung, Richtlinien und Policies für das gesamte Risikodatenmanagement)
    • Definition, Konzeption und Umsetzung zentraler und dezentraler Daten Managment Rollen und Verantwortlichkeiten (vom Chief Data Management Officer als Direct Report, über zentrale Daten Management Rollen bis zu dezentralen Data Ownerships) in der Landesbankengruppe inkl. Töchter und outgesourcter Services (AT9 – MaRisk)
    • Definition, Konzeption und Umsetzung eines Prozessmodells für eine neu zu schaffende Daten Management Organisation (Daten, Meta Daten, Master Daten Management und Datenqualitätsmanagement inkl. übergreifender Prozesse zur Anbindung der Töchter und Einbindung in bestehende Prozessmodelle, wie z.B. den Softwareeinführungprozess, MaRisk AT 8.2 etc.
    • Integration von Validierungs- und Reviewprozessen im Datenumfeld zur Sicherstellung der nachhaltigen BCBS 239 Compliance
    • Definition, Konzeption und Umsetzung von Daten Management Richtlinien
    • Formulierung von Anforderungen an eine strategische Ausrichtung einer Daten Management Organisation
    • Harmonisierung der Anforderungen zwischen dem BCBS 239 Programm und dem ISMS Projekt
  • Schaffung von Transparenz im Risikodatenhaushalt
    • Fachliche Konzeption eines Data Dictionaries (inkl. eines Business Glossars, eines Datenmanagement Glossars, einer fachlichen und einer technischen Data Lineage, eines fachlichen und eines technischen Datenmodells für den Risikodatenhaushalt der Bank (Säulen I + II))
    • Fachliche Konzeption eines Metadatenmodells
    • Fachliche Konzeption der Automation der Sammlung von Metadaten für technische Datenmodelle und technische Lineages
  • Verbesserung der Risikodatenaggregation
    • Fachliche Konzeption von Single Identifiern für Geschäftspartner, Konten und Sicherheiten (übergreifend, inkl. Töchter)
    • Fachliche Konzeption von einheitlichen Benennungskonventionen für Produkte etc. (übergreifend inkl. Töchter)
    • Fachliche und methodische Konzeption zur Verbesserung der Risikodatenaggregation im zentralen Risikodatenauswertungsbestand
    • Fachliche Konzeption zur Ablösung nicht BCBS 239-konformer Datenquellen und zur Integration in den zentralen Risikodatenauswertungsbestand
  • Verbesserung der Datenqualität
    • Definition, Konzeption und Umsetzung von Datenqualitätsmanagement Richtlinien
    • Entwicklung eines Datenqualitätsmanagement Rahmenwerks zur gruppenweiten Festlegung von Defintionen und Zielsetzungen
    • Fachliche Konzeption eines DQ-Werkzeugs mit Integration in die IT-Landschaft der jeweiligen Institute einschl. des Zusammenspiels zur Aggregation von DQ-Metriken für die DQ-Berichterstattung
    • Fachliche Konzeption von DQ-Regelwerken zur qualitativen Verbesserung von Risikodaten, inkl. DQ auf Aggregationsebenen (Plausibilisierungen, Überleitungsrechnungen etc.) in operativen Systemen sowie im Data Warehouse.
  • Bewertung von Datenmanagement Anforderungen im Rahmen der Digitalisierung von Reportingprozessen
    • Ermittlung von Potentialen, Erarbeitung von Business Cases für die Digitalisierung von Reportingprozessen
Produkte
IBM Infosphere Information Server IBM InfoSphere DataStage ASG Rochade
Kenntnisse
Projektmanagement Prozessmanagement Softwareeinführungsprozess IT-Architektur Management DQM Toolauswahl und -einführung MDM-Toolauswahl und -einführung Datenqualitätsmanagement Metadatenmanagement Masterdatenmanagement Referenzdatenmanagement Data Governance Data Lifecycle Management
Kunde
Deutsche Landesbank
Einsatzort
Hannover
1 Jahr 6 Monate

2017-10

2019-03

Umsetzung von BCBS 239

Management Consultant, Data Governance Experte IT-Architektur Facharchitektur Gap-Analyse ...
Rolle
Management Consultant, Data Governance Experte
Projektinhalte
  • Tätigkeit als Management Consultant, Data Governance Experte, seit 10/2018 auch Head of Data Governance (Interim Management):
    • Definition eines BCBS 239 Zielbildes als Grundlage für eine GAP-Analyse
    • Durchführung einer GAP-Analyse (Interviews/ Workshops)
    • Kurzgutachten über das aktuell genutzte Data Warehouse
    • Analyse der laufenden Projekte auf deckungsgleiche oder ähnliche Inhalte
    • Erarbeitung einer agilen Projektplanung für die Umsetzung von BCBS 239
    • Vorstellung und Abstimmung der Planung im Steuerungskreis (F1)
    • Erarbeitung einer Datenstrategie für den Finanzdienstleister unter Berücksichtigung der Neuausrichtung des Geschäftsmodells sowie der aktuellen regulatorischen Anforderungen (u.A. BCBS 239, AnaCredit, IFRS 9, MARisk, etc.)
    • Erarbeitung von Richtlinien für die Data Governance, das Metadaten- und das Datenqualitätsmanagement sowie für das Referenzdaten- und Masterdatenmanagement
    • Validierung der Inhalte des DSGVO-Projektes und Analyse der gleichartigen Anforderungen (z.B. Vergabe von Data Ownerships, regelbasierte Datennanlysen etc.)
    • Erstellung von Anforderungskatalogen und Moderation der Toolauswahl für die Unterstützung des Metadaten- und des Datenqualitätsmanagements
  • Zusätzlich Übernahme der Posititon des Head of Data Governance zum 1. Oktober 2018 im Interim Management:
    • Definition, Konzeption und Umsetzung eines praktischen Data Governance Frameworks (inkl. Datenstrategie, Code of Conduct, Richtlinien und Policies für das Datenmanagement, Umsetzung von Data Owner- und Stewardships etc.) unter Berücksichtigung von Anforderungen zum Ausbau des Datenmanagements zur besseren Unterstützung des datengetriebenen Geschäftsmodells sowie von regulatorischen Anforderungen
    • Definition, Konzeption und Umsetzung eines Data Layers für Data Analytics Teams (mit real-time und near-time Datenversorgung, inkl. outgesourcter Datenzulieferungen)
    • Mitwirkung bei der Entwicklung eines Projektportfolios für die digitale Transformation
Produkte
Informatica PowerCenter Informatica IDQ Informatica EDC AXON
Kenntnisse
IT-Architektur Facharchitektur Gap-Analyse Zielbildentwicklung Methodenentwicklung Data Governance Datenqualitätsmanagement Metadatenmanagement Datenarchitektur fachliche Datenmodellierung Master Data Management Referenzdatenmanagement Data Life Cycle Management Proof of Concept
Kunde
Spezialfinanzierer
1 Jahr 1 Monat

2015-09

2016-09

Entwicklung von gemeinsamen Service Angeboten

Software Architekt/ Data Governance Experte
Rolle
Software Architekt/ Data Governance Experte
Projektinhalte
  • Projekt: Entwicklung von gemeinsamen Service Angeboten für den deutschen Markt zum Thema DQM und speziell für das Thema BCBS 239
    • Erstellung einer Übersicht über mögliche aktuelle Einsatzgebiete der Informatica Produkte im Bankenkontext
    • Abgleich der Einsatzgebiete mit vorhandenen Methoden der Informatica
    • Individualisierung der Methoden für den deutschen Bankenmarkt
    • Anreicherung der technisch geprägten Methoden mit bankfachlichem Background
    • Gemeinsamer Entwurf von Hands on Workshops für Bankkunden
    • Gemeinsamer Entwurf von Markteingmaterial (u.A. auch für das Thema BCBS 239)
    • Wahrnehmung gemeinsamer Vertriebstermine
Kunde
Softwarehersteller (Informatica)
5 Monate

2016-02

2016-06

Einführung eines Datenqualitätsmanagements

Data Governance Experte
Rolle
Data Governance Experte
Projektinhalte
  • Beratung des Bereiches Org./IT bei der Einführung eines Datenqualitätsmanagements in Anlehnung an BCBS 239 / MaRisk 6.0 (Leitlinien, Prozesse, Rollen, Systemnutzung (agree/Fiducia))
  • Strukturierung der Herangehensweise und Qualifizierung der Arbeitspakete
  • Vorbereitung und Moderation von Workshops zur Prüfregelwerksentwicklung, einschließlich DQ-Kennzahlenbildung
  • Erarbeitung von Vorlagen und Templates (z.B. für die Qualitätssicherung von Prüfregeln, die Berechnung von Business Cases für Bereinigungsaktionen, etc.), Ablauf- und Rollenbeschreibungen, Entwürfe für ein Online Dashboard und einen DQ-Report etc
Kunde
Genossenschaftsbank
8 Monate

2015-11

2016-06

Erstellung eines Praxisleitfadens

Projekt Manager/ Autor/ Data Governance Experte
Rolle
Projekt Manager/ Autor/ Data Governance Experte
Projektinhalte
  • Projekt: Erstellung eines Praxisleitfadens für Sparkassen und Genossenschaftsbanken für den Umgang mit MaRisk AT 4.3.4 unter besonderer Berücksichtigung der outgesourcten Kernbankensysteme
    • Entwicklung des Inhaltsverzeichnisses
    • Aufteilung der Themen
    • Bereitstellung des methodischen Leitfadens von der strategischen Ausrichtung bis zur technischen Umsetzung
    • Chancen und Risiken
    • Planungs- und Umsetzungsfehler, die es zu vermeiden gilt
    • Erfahrungsberichte
Kunde
Finanz Colloquium Heidelberg
2 Monate

2015-11

2015-12

Erarbeitung der Auswirkungen von BCBS 239

Software Architekt/ Data Governance Experte
Rolle
Software Architekt/ Data Governance Experte
Projektinhalte
  • Projekt: Erarbeitung der Auswirkungen von BCBS 239 auf den Dienstleister in Bezug auf die Bereitstellung der Datenschnittstelle zu bankeigenen Datawarehouses (Landesbankenschnittstelle)
    • Erstellung einer groben Übersicht über relevante BCBS 239 Anforderungen im Kontext der angebotenen Leistung (Datawarehouse-Schnittstelle)
    • Zwischenstand hat Tragweite aufgezeigt und wird zu neuer Ausschreibung führen
Kunde
Rechenzentrum der Sparkassen
4 Monate

2015-09

2015-12

Entwicklung einer Architektur

Software Architekt
Rolle
Software Architekt
Projektinhalte
  • Projekt: Entwicklung eines ersten Entwurfs einer Architektur für die Abwicklung der externen Meldungen im Bereich der Kapitalmarktgeschäfte
    • Erstellung einer Übersicht über alle regulatorischen Anforderungen
    • Markt bezüglich verfügbarer Kauflösungen analysieren
    • Abstimmung/Ideensammlung mit anderen Banken initiieren
    • Überprüfung bestehender Bausteine auf Konformität
    • Überprüfung bestehender Bausteine auf Qualitäts- und Datenqualitätsstandards/ -anforderungen
    • Make or Buy Lösungen gegenüberstellen, Prüfung von Outsourcingmöglichkeiten
    • Vorschlag für das Architekturboard erarbeiten
Kunde
Deutsche Landesbank
5 Monate

2015-06

2015-10

Entwicklung einer Zielplatform

Teilprojekt Manager (Technik)/ Software Architekt
Rolle
Teilprojekt Manager (Technik)/ Software Architekt
Projektinhalte
  • Projekt: Entwicklung einer Zielplatform für die das Projekt „Digitalisierung 2020“ – Die IT-Zukunft des Unternehmens
  • Darstellung der aktuellen Problemstellungen in der bestehenden IT-Landschaft
  • Abgrenzung der Problemstellungen im Anwendungskontext
  • Formulierung von IT-Aufträgen für Quick Wins
  • Marktanalyse und Identifikation neuer IT-Trends mit Relevanz für den Auftraggeber
  • Visualisierung und Formulierung einer Zielarchitektur für die IT-Umgebung der Zukunft zur Vorlage im Vorstand des Verbandes und im Strategiekreis der Verbandsmitglieder (Krankenkassen)
  • Überarbeitung des Sicherheitskonzeptes für die künftige Zielarchitektur auf Basis von ISO 27000 ff. (u.A. in Bezug auf die Nutzung von Cloud Umgebungen)
Kunde
Krankenkassen Verband
10 Monate

2014-09

2015-06

Migration des Kernbankensystems (agree/ Fiducia)

Software Architekt, Data Governance Experte
Rolle
Software Architekt, Data Governance Experte
Projektinhalte
  • Begutachtung der Datenmigrationsmaßnahmen (Aufbau und Ablauf) und Überprüfung der angebotenen Leistungen des Rechenzentrums
  • Erarbeitung von Verbesserungsvorschlägen für die Datenmigration zur Vermeidung von Datenverlusten und zur Vermeidung von Ressourcenverschwendung
  • Aufklärung des Projektteams über Chancen und Risiken bei einer Datenmigration, inkl. der Vermittlung der Einsicht auf bankfachlicher Ebene
  • Entwurf eines Vorgehensmodell zur parallel zur Migration laufenden Einführung von Datenqualitätsmanagement basierend auf Grundlagen der BCBS 239
  • Erarbeitung einer Roadmap für die Einführung von Datenqualitätsmanagement gem. heutiger Anforderungen mit Blick auf den Ausbau in Richtung BCBS 239
  • Auditierung von Prozessen (Datenqualitätsmaßnahmen der Datenmigration nach CMMI)
  • Fachliche und technische Harmonisierung der Bestandsanalyse (IDA-Auswertungen) und der Datenkontrolle (GVM-System) zur Sicherstellung der Ergebnisse für die Gesamtbanksteuerung und des Controllings (Requirements Engineering)
  • Erarbeitung von Regelwerken zur Datenqualitätssicherung von Kreditnehmereinheiten und Automation der Datenanalyse (Requirements Engineering)
  • Erarbeitung von Regelwerken zur Bildung von DQ-Kennzahlen, wie z.B. Rating Coverage (Requirements Engineering), Konzeption eines Dashboards
  • Erarbeitung eines Konzeptes für die Abbildung der Historiendaten für die Datenqualitätsanpassungen (DWH)
Kunde
Genossenschaftsbank
2 Jahre

2013-01

2014-12

Neustart Kernbankensystem (agree/ Fiducia)

Projekt Manager, Anforderungsmanager und Data Governance Experte
Rolle
Projekt Manager, Anforderungsmanager und Data Governance Experte
Projektinhalte
  • Tätigkeit als Interimsmanager für das neu aufzubauende Projektportfoliomanagement, das neu aufzubauende Anforderungsmanagement sowie als Data Governance Experte mit den Schwerpunkten:
    • Moderation der Anforderungsworkshops zu den Themen Gesamtbanksteuerung, Controlling, Kredit und Datenservice in Verbindung mit Datenqualität und BCBS 239
    • Auditierung von Datenqualitätsmaßnahmen der Datenmigration (CMMI + IREB)
    • Auditierung der Kreditprozesse mit Fachbereich und Revision (CMMI + IREB)
    • Auditierung von Schnittstellen zum dezentralen (outgesourcten) IT-Management hinsichtlich zu vereinbarender SLA bzw. erforderlicher ordnungsgemäßer Mitwirkung des Kunden (Eigenleistungen) auf Basis von ITIL V3 sowie Überprüfung und Anpassung der Outsourcing-Verträge mit externen Dienstleistern (MARisk – AT9)
    • Auditierung von IT-Sicherheitsprozessen, Ergänzung fehlender Komponenten inkl. zu vereinbarender SLA mit externen IT-Dienstleistern des Kunden auf Basis von ITIL V3
    • Fachliche und technische Harmonisierung der Bestandsanalyse (IDA-Auswertungen) und der Datenkontrolle (GVM-System) zur Sicherstellung der Ergebnisse für die Gesamtbanksteuerung und des Controllings (Requirements Engineering, Requirements Management und Test Management ISTQB)
    • Einführung Projektmanagementmethoden (Auf Basis PMI) und Anforderungsmanagement (Basis Requirements Engineering)
    • Unterstützung der Erarbeitung von Checklisten gem. AT9 MaRisk für die laufende Prüfung des IT-Betriebs der Kernbankenanwendungen (Requirements Engineering)
    • Erarbeitung eines BCM Konzeptes (Ausfall einzelner Services, Systeme sowie Wiederanlauf bei Komplettausfall)
    • Erarbeitung und Umsetzung von Regelwerken zur Datenqualitätssicherung von Kreditnehmereinheiten und Automation der Datenanalyse (Requirements Engineering, Requirements inkl. Release Management und Test Management ISTQB)
    • Erarbeitung von Regelwerken zur Bildung von DQ-Kennzahlen, wie z.B. Rating Coverage (Requirements Engineering, Requirements inkl. Release Management und Test Management ISTQB)
    • Erarbeitung eines Konzeptes für die Abbildung der Historiendaten für die Datenqualitätsanpassungen (DWH)
    • Konzeption eines DQ-Dashboards für die Darstellung der aktuellen fachlichen DQ-Zustände
Kunde
Privatbank
9 Monate

2012-04

2012-12

Anforderungsmanagement (Cobit5)

Anforderungsmanager
Rolle
Anforderungsmanager
Projektinhalte
  • Anforderungsmanagement (Abwesenheitsvertretung) für den Bereich Auftragsmanagement, Kreditabwicklung (Requirements Engineering in Jira)
  • Erarbeitung der Anforderungen für die Automatisierung des Aufgabenmanagements gem. §18 KWG
  • IT-Bebauungsplanung für den Masterkreditprozess
Kunde
Deutsche Landesbank
4 Monate

2011-12

2012-03

Konzeption einer DQM-Branchenlösung

Interimsmanager - Projektmanagement -Anforderungsmanagement
Rolle
Interimsmanager - Projektmanagement -Anforderungsmanagement
Projektinhalte
  • Interimsmanager für das Projektmanagement, das Anforderungsmanagement und die Data Governance (einschl. ETL und DWH)
  • Fachliche und technische Konzeption einer risiko- und wertorientierten DQM-Plattform zur automatisierten Analyse, Profiling, Cleansing, zur Berechnung von DQ-Business Cases sowie zur Darstellung von „standardisierten“ DQ-Kennzahlen einer Bank als Dashboardfunktionalität (Requirements Engineering)
  • Generische Anbindung an Datenquellsysteme über virtuelle Datenschichten, Mappings und ETL-Funktionalität
  • Formulierung eines Angebots für Kunden der Finanzindustrie, einschl. Software as a Service, Data Quality as a Service, etc. unter Beachtung der MARisk-Konformität
Kunde
Softwarehersteller (DQM-Plattform)
2 Jahre 3 Monate

2009-09

2011-11

Umsetzung eines Migrationsprojekts

Projektleiter, Software Architekt, Data Governance Experte
Rolle
Projektleiter, Software Architekt, Data Governance Experte
Projektinhalte
  • Projekt: Umsetzung eines Migrationsprojekts (Austausch eines Kernbankensystems, OSPlus)
  • Organisation und Aufbau revisionssicherer Dokumentation für das Teilprojekt Datenmigration
  • Organisation und Aufbau des Projektmanagement Offices (Basis PMI)
  • Konzeption und Unterstützung des Test Managements bei der Fehleranalyse (HPQC)
  • Hauptansprechpartner der Fachbereiche für die Migration der Daten
  • Aufbau einer Datenqualitätsmanagement – Infrastruktur (Prozess, Organisation, IT) für ein Migrationsprojekt
  • Profiling und Analyse von Datenbeständen zur Identifikation von Datenqualitätsproblemen (Personendaten inkl. Rating, Sicherheiten und Kredit)
  • Erarbeitung möglicher Bereinigungsvorgehen teilweise mit Business Case Betrachtungen
  • Durchführung von maschinellen und Koordination von manuellen Bereinigungsmaßnahmen
  • Schnittstelle zum RZ bzw. Daten Ownern zwecks Anbindung an DQM-Plattform
  • Historisierung der Bereinigungsmaßnahmen im DWH, Aufbau eines Dashboards für Migrationskennzahlen
Kunde
Deutsche Landesbank

weitere Projekte gern auf Anfrage

Dipl. Fachwirt für Arbeitsmarktforschung und -politik

  • Interimsmanager
  • Programm Manager
  • Projekt Manager
  • Daten Architekt
  • Data Governance Experte
  • DQM Experte

Deutsch
Englisch verhandlungssicher in Wort und Schrift (Auslandsaufenthalt)

Top Skills
Data Governance, Data Quality Management, data driven Business Model Development
Schwerpunkte
Data Governance Data Lifecycle Management Data Ownership / Data Stewardship Datenarchitektur Datenmodellierung Datenqualitätsmanagement Datenstrategie Funktionsarchitektur IT-Architektur Management Masterdatenmanagement Metadatenmanagement Projektmanagement Prozessmanagement Reference Data Management
Aufgabenbereiche
Proof of Concept Zielbildentwicklung
Produkte / Standards / Erfahrungen / Methoden
ASG Rochade AXON DAMA DSGVO Gap-Analyse IBM Infosphere Information Server Informatica EDC Informatica IDQ Informatica PowerCenter Master Data Management

Technische Kenntnisse

  • Anforderungsmanagement und Test-Tools: HP QualityCenter (Test + Defect Tracking), IBM Requirements Composer, Redmine, Jira, Confluence
  • Programmierung: Java, JavaScript, ActionScript, PHP, HTML5, SQL
  • Portal-Plattformen: IBM Websphere, IBM Websphere Portal, Microsoft Sharepoint
  • Kernbankensysteme: agree (inkl. VR-Control), OSPlus, Kordoba, Avaloq
  • Banksysteme: SAP Bankanalyzer (BA 8.0), SAP CML (Customer & Mortgage Loans), SAP CMS (Securities), SAP BCA (Customer and Accounts), SAP Geschäftspartner (Whole Sale Customers), SAP DM (Deposits), Schufa Schatten-DB
  • ERP-Systeme: SAP ERP, SAP S/4, Oracle
  • ETL-Tools : Informatica PowerCenter 8.x, Informatica PowerCenter 9.x, SAP BusinessObjects Data Services 4.0 (Data Integrator), IBM Data Stage
  • Metadaten-Tools: ASG Rochade, IBM Data Governance Catalog, Informatica
  • Data Integration and Analytics Plattform: IBM Cognos
  • DQ-Tools : Informatica Secure at Source und Axon, SAP Data Services, IBM Infosphere Information Server, SAS
  • Datenmodellierungs-Tools: Sybase Power Designer, IBM Rational Data Architect
  • Datenbanken/Warehouses: Oracle, DB2, SAP BW, Sybase (IQ + ASE), MySQL

Methodische Kenntnisse

  • (Groß-)Projekt Management, Off-Shore- und Multiprojektmanagement mit PMI- und AVM- Ausbildung, SCRUM Master, Projekt-Audits und Critical Situation Management, Durchführung von Migrations- und Konsolidierungsprojekten
  • Entwicklung und Durchführung des Anforderungsmanagement (Requirements Engineering und Requirements Management) einschließlich Schnittstellenbeschreibungen (IREB)
  • Datenmanagement: DAMA
  • Software Architektur (ISAQB, TOGAF, Zachman Enterprise Framework)
  • Prozessorientiertes IT-Management (Cobit5 und ITIL V3) einschl. RZ-Betrieb
  • IT-Sicherheitsmanagement (ISO 27000 ff., BSI Grundschutz, etc.)
  • Zertifizierter Datenschutzbeauftragter (DSGVO)
  • Business Case Betrachtungen, Management Reporting
  • Entwicklung von Datenarchitekturen, fachliche Datenmodellierung (ER-Modelle) dimensionale Datenmodellierung (Data Vault 2.0, Star Schema, Snow Flake, etc.), Data Warehouse (Datenselektion, Datenveränderung, Datenhistorisierung, Datenversionierung), Modellierung von Business Views und Data Marts, Datenmigration, Datenprofiling und ?analyse, Mapping von Daten, Entwicklung fachlicher DQ-Regelwerke, Entwicklung von DQ-Kennzahlen, Simulation von DQ-basierenden Business Cases
  • Anwendungsentwicklungsprozesse und -methoden, Entwicklung von Anwendungsarchitekturen
  • Führungskräfte-, Mitarbeiter- und Projektmanagement-Coaching
  • Business und Service Prozess Design und Reengineering (nach Hammer, Davenport, Diebold und IBM Unternehmensberatung), Prozessautitierung und -design nach CMMI
  • Qualitätsmanagement SixSigma
  • Test Management (ISTQB)

Fachliche Kenntnisse

  • Branchen-KnowHow im Bereich von Banken, Versicherungen, Industrie, ÖPNV-Anbietern, Online-Ticket-Shop-Betreibern, Softwareherstellern, Consultancies und öffentlicher Dienst.
  • KnowHow im Bereich von BCBS 239, IFRS9, AnaCredit, FATCA, EMIR, AO, GWG, KWG, MaRisk, KYC

Profil

  • Hat mehr als 30 Jahre Projekterfahrung, ist sowohl auf der Seite des Kunden als auch auf Dienstleisterseite tätig gewesen. Verfügt über das erforderliche fachliche und technische Knowhow in mehreren Bereichen der Finanzindustrie, der Industrie sowie des öffentlichen Dienstes und über die erforderlichen methodischen Fähigkeiten als Interimsmanager, Programm Manager, Projekt Manager, Daten Architekt, Data Governance Experte und als Business Development Experte im Rahmen der digitalen Transformation.
  • Besondere Stärken: Stets korrekte Personalanleitung mit durchweg positivem Feedback, sachliches Handling von kritischen Situationen, ausgeprägtes analytisches Verständnis, zielgerichtetes ergebnisorientiertes Arbeiten unter Beachtung betriebswirtschaftlicher Grundsätze, Aufbau und Beschreibung von Prozessen, Funktions-, Daten- und IT-Architekturen, praxisorientiertes Vorgehen beim Aufbau von Programmen oder Projekten, Entwicklung von digitalen Geschäftsmodellen, Business Case Betrachtungen und Risiko Management, umfangreiches methodisches Wissen in den Bereichen Programm und Projekt Management, Prozess Management, IT-Architektur Management, Anforderungsmanagement, Anwendungsentwicklung, IT-System Management, Data Governance, Daten-, Datenarchitektur- und Datenqualitätsmanagement. Darüberhinaus langjähriges Knowhow bei der Verhandlung von Verträgen mit externen Dienstleistern und Monitoring der Leistungserbringung anhand von SLA und KPIs.
  • Bevorzugter Einsatz: Intensive Erfahrung bei Einsätzen in Projekten der Finanzindustrie, der Industrie oder des öffentlichen Dienstes, Übernahme von Programmen oder Projekten in kritischen Zuständen, Einwicklungsprojekte im Rahmen der digitalen Transformation, Aufbau oder Nutzung von Methoden, Design und Dokumentation von Datenmanagement-Prozessen, Aufbau von Organisationsstrukturen für Data Service Center, Anforderungsmanagement bei Anwendungsenwicklungsprojekten oder Datenanforderungsmanagement, bei Migrationsprojekten besonders im Bereich der Datenmigration und mehrfacher Einsatz als Data Governance Experte und als Head of Data oder Head of Data Governance in Linienfunktion. Gutes Netzwerk zu Herstellern von IT-Lösungen (Informatica, SAP/Sybase, IBM, andere) sowie zu ehemaligen Kollegen und Projektmitarbeitern oder Kunden in Banken, Versicherungen, Versicherungsmaklern, Industrieunternehmen etc.
  • Kreativer Kopf, innovative Lösungsansätze insbesondere in schwierigen Situationen, stark im Coaching von Führungskräften und Mitarbeitern und beim Auflösen von Konflikten, ruhiges sicheres Auftreten, vermittelt Autorität. Kann, muss aber nicht in erster Reihe stehen.
Datenbanken
Access CRM Data Mart Data Mining Data Warehouse DB2 IBM InfoSphere DataStage Lotus Notes MS SQL Server MySQL ODBC
auch JDBC/ODBC-Bridge
Oracle SQL Sybase SAP S/4 SAP MDG
Datenkommunikation
Data Analytics Datenversorgung Ethernet LDAP SMTP SNMP TCP/IP
Berechnung / Simulation / Versuch / Validierung
Data Lineages DQM

Business Case Betrachtungen mit Monte Carlo Simulation

Design / Entwicklung / Konstruktion
Big Data Data Architecture Data Lake Data Services Datenarchitektur Datenmodellierung Datenstrategie Facharchitektur fachliche Datenmodellierung IT-Architektur Reference Data Management Tableau Unternehmensweites Datenmodell

Lastenhefterstellung nach DIN 69905, Pflichtenhefterstellung,

Personalverantwortung
Data Ownership Data Stewardship

Banken
Versicherungen
Financial Services
Softwarehersteller
Pharmahersteller
Behörden (öffentlicher Dienst)
Sozialversicherung (Krankenkassen, Agentur für Arbeit, Berufsgenossenschaften, Rentenversicherung)
Consulting
Automobilhersteller
Industrieunternehmen
Ihr Kontakt zu Gulp

Fragen? Rufen Sie uns an +49 89 500316-300 oder schreiben Sie uns:

Jetzt bei GULP Direkt registrieren und Freelancer kontaktieren