Aufbau eines einheitlichen internen Berichtswesen. Dazu Entwicklung von Prozessen und Aufbau von entsprechenden Strukturen. Datenmodellierung und Entwicklung von DataStage Mapping über die Schichtenarchitektur. Bereitstellung der Stammdaten innerhalb einer SCD2 Dimension und der Bewegungsdaten im Faktenmodell. Performance Optimierung bei großen Datenmengen über massive Parallelisierung und Objekt Installationen von neuen Entscheidungsbäume im DataStage Kern über Deg2Code.
Klärung der fachlichen Vorgaben. Durchführung von Beratung des Kunden und Analysen zur Funktionalität des DWH (alt und neu). Erstellung eines DV-Konzepts auf Basis der fachlichen Vorgaben mit Erstellung von Programmen auf Basis der fachlichen Vorgaben und des DV-Konzepts entsprechend der Programmierrichtlinien des alten bzw. neuen DWH. Erstellung von ETL-Workflows (Informatica, PL/SQL, SQL), Datenmodellerweiterungen und Patchen. Durchführung von Beratung des Kunden und Analysen zur Funktionalität des DWH (alt und neu). Analysen auf Fehlersituationen.
Weiterentwicklung bestehender Bankprozesse sowie Aufbau neuer Schnittstellen zum Reporting realisiert. Fehleranalysen und Fehlerbereinigungen über HotFixes. Strategien zu Verbesserung der Performance im bestehenden System.
Weiterentwicklung und Vorbereitung des Regulatory Reporting (JEG 2018).
Migration einer Talend-Lösung zum Kampagnenmanagement aus dem bestehenden „Alt“ System in einen zentralen DataLake. Dazu Reverse Engineering der bestehenden Software/ Strategien, Design/ Modellierung der neuen Datenbasis, Entwicklung von Transformationsprozessen und Migration der vorhandenen Daten sowie Abstimmung mit den betroffenen Fachbereichen und Präsentation der Ergebnisse.
Migration von DataStage 8.5 Prozessen auf DataStage 11.5 unter Ansatz aktueller Prozessmethoden. Neu-/ Weiterentwicklung von Schnittstellen aus dem Bereich Marketing und Regulatorik.
Weiterentwicklung von bestehenden DataMart Strukturen durch Erweiterungen und Neuanlagen. Wertpapieranalysen und Erstellung von Depotstatistiken. Identifizierung meldepflichtiger Wertpapierbestände des Kundengeschäftes nach HGB und IFRS. Einarbeitung des Kordoba Abzuges in BAIS (Meldesystem der Firma BSM) mit den täglichen Cash- Flow Daten. Erweiterungen der Währungsstammdaten für die Commercial Banking Geschäfte als auch für die institutionellen Fremdwährungsgeschäfte. Rücktransport von SAP Bank Analyzer/ BW Daten in das DWH als tagesaktueller historisierter DataMart aufgebaut.
Konzernmigration aller bereitgestellter Stammdaten im Bereich der Personen, Verträge, Konto, Depot und Kreditkarten. Dazu technische Designs (TD und FDD) entwickelt und mit den jeweiligen Fachbereichen beider Banken mit den erstellten Fachkonzepten abgestimmt. Implementierung und Koordination aller am Thema beteiligten Entwicklereinheiten und Durchführung der Integrationstests mit Abnahme der Fachbereiche. Dazu enge Zusammenarbeit mit der Projektleitung und den IT - Verantwortlichen beider Banken. Aufbau der Jobnetze zur effektiven Steuerung der Migrationssoftware gestaltet.
Testvorbereitung und Go-Live Begleitung für das Regulatory Reporting (JEG 2017).
Konzeption und Entwicklung einer „Regulation on Energy Market Integrity and Transparency“ (REMIT) nach TRUM Spezifikationen an die Regulierungsbehörde „Agency for the Cooperation of Energy Regulators“ (ACER).
Funktionssicherung des DWH der Deutschen Post (DHL) AG. Hierzu neue Beladungsarchitekturen in Teilbereichen konzeptioniert und umgesetzt. Datenquellen (operativ) aus Terradata entsprechend der DataCube Anforderungen neu zusammengefasst und zur Herstellung der COGNOS Reports mit PowerCenter aus vorherigen SQL Server Applikationen heraus migriert.
Fachlicher Aufbau eines neuen Warehouse innerhalb der Bereiche Schadensmanagement, Vertragswesen, Partnerdaten mit vertrieblichen Leistungsberechnungen. Dazu über Monate hinweg Konzeptionen und Testverfahren mit den beauftragenden Fachbereichen (DVK) erstellt. Analyse spezieller Themen zu einzelnen Produktgruppen durchgeführt und bewertet (wie Versicherungssummenermittlung, GDV Berichte und FI Meldungen mit Provisionsberichten). Definition erweiterter Geschäftsvorfälle in Kooperation mit Produktdesignern der Häuser von SV, SVS und HFK. Aufbau technischer/ fachlicher Architekturebenen mit Durchführung von Abstimmungsmaßnahmen zum Change- und Änderungsmanagement. Unterstützung der Projektleitung in Hinblick auf wesentliche Architekturentscheidungen zur Schaffung einer einheitlichen Datengrundlage im Vertrieb und aller Vertrags/ Deckung Bereichen. Architektur und Planung einer voll historisierten Datensicht mittels DTB (Doppelt Temporale Beziehungen).
Fachliche Basel II Rating Anforderungen im Rahmen von Restrukturierungsmaßnahmen neu definiert und technisch beschrieben.
Fachkonzeptionen erweitert und neu bewertet. Fachabteilungen dazu spezifisch interviewt und Ergebnisse ausgewertet. Neugestaltung der Konzeptionen unter Accenture UseCase Methode durchgeführt. DataCleansing von Datenbeständen weiterentwickelt.
Anschluss neuer Datenquellen an den Warehouse. Verbesserung der Ladeverfahren in Funktion und Performance. Ratingsystem Determination und Risikobewertung neu/ erweitert geplant und realisiert.
Realisierung von ETL Prozessen auf Oracle 9i. Fachliches Umfeld ist hierbei das Kerngeschäft mit Hypotheken und Anleihen. Technische Konzeption und Architektur dieser Prozesse im Schichtenmodell geschaffen. Spezifikas zu dieser Thematik technisch analysiert und umgesetzt. Entwicklung einer einheitlichen Datenbasis unter Einsatz von Maßnahmen zur DQM/ Abstimmung und Veredlung. Planung von optimierenden Techniken bezüglich der Lade-/ und Verarbeitungsgeschwindigkeit.
Fachliche Basel II und USGAAP Daten/ Rating Anforderungen im Rahmen des Dresdner Bank Einsatzes unter DB2 EEE analysiert und technisch realisiert.
Erstellen von DataMarts aus ODS/ Exposure Daten zum Reporting hin.
Optimierung und Entwicklung neuer ETL - Prozesse innerhalb des Themas CLARIFY (Kundenmarketing). Hierzu internationale Ebene mit Frankreich/ Paris zur Integration aller Bank/ Kunden Aktivitäten im globalen System gepflegt.
Datenmodelling, Einführung und Reporting des CLARIFY basierenden DataWarehouse realisiert und durchgeführt.
Verbesserung bestehender Prozesse hinsichtlich der Performance und Ersatz „alter“ Lösungen unter PL/SQL und Shell Scripting durch Informatica Prozesse
Konzeption und Realisierung von ETL – Prozessen auf MS SQL Server. Aufbau eines Meta Daten Systems zur Steuerung und Dokumentation der Prozesse. Migration bisheriger Verfahren unter Berücksichtigung von Kundenzentrik und Mandantenfähigkeiten. Datenmodellierung innerhalb dimensionierter Modelle mittels ERWIN. Zentrale Steuerungen über Control-M und Workflow Manager von Informatica 6.2 realisiert. Erstellung und Administration des Berechtigungs – und Security Konzeptes für Informatica. Parameterisierungskonzepte zur Ladekommunikation mit „outbound“ Systemen definiert und entwickelt. Reportingunterstützung unter BRIO Software mittels spezieller Aggregationen (Data Marts) konzeptionell, als auch bei technischer Bildung und Befüllung. Administration und Installation der Informatica Software.
Performanceoptimierungen technischer und fachlicher (Modellpflege) Art.
Konzeption und Realisierung von ETL – Prozessen auf Oracle 9i. QM und Testverfahren auf Basis integrativer Lösungen erarbeitet. Installationen und Optimierungen der Informatica Software auf verteilten Umgebungen durchgeführt und überwacht. Unterstützung der zentralen Testteams durch Koordination der Entwicklungsarbeiten und Aufbau der unterschiedlichen QM/ Produktionsumgebungen. Perl basierte Steuerung über eine T_SYSTEM Toolbox erweitert, welche dem CommonDataModell folgt. CR basierte Änderungen in Informatica Processing (Mapping) durchgeführt.
Konzeption und Realisierung von ETL – Prozessen auf einer DB EEE Datenbank. Berücksichtigungen von mehrdimensionalen Verfahren im Data Warehouse. Der ETL wird ausschließlich über INFORMATICA realisiert. Analyse und Erstellung von COGNOS Würfeln aus den bereitgestellten Daten. Internationale Ausrichtung des Projektes durch Einbeziehung von Daten aus UK, Schweden und Benelux Staaten. Verantwortung und Unterstützung des Project Office im technischen Prozessumfeld. Konzeption und Einführung von Test- und QS Maßnahmen zur Produktionseinführung. Weitere Reportgenerierungen über BRIO zur eigenen BI. Hierzu technische Beratung bei Bildung und Befüllung weiterer „Vor“ Aggregationen (materialized Views) aus diversen DataMart Systemen.
Konzeption und Beratung zur Fertigung und Verfahrenssicherstellung einer DataWarehouse Datenbank. Die Datenbankgröße hatte bereits nach Einführung des Produktionsbetriebs (ETL – Initialzündung) eine Größe von 1 Terra überschritten. Beratung und Lösung ablauftechnischer und programm-technischer Probleme, Ablösung von unwirtschaftlichen Prozessen durch geeignete Oracle Objects (8i) – Verfahren. Performance - Tuning aller Prozesse, laufende Verbesserungen der Datenbank und des Oracle*Net im produktiven Betrieb.
Hinzufügen neuer Datenquellen und deren Integration in das Gesamtsystem in enger Kooperation mit Business Analysten und COGNOS Spezialisten. Sicherstellung des Zugriffes auf den Warehouse aus allen Zeitzonen der Welt (Europa, Asien, Nord/ Süd Amerika) heraus. Erfahrung in der Arbeit in einem internationalen Team ( 6 beteiligte Nationen).
Analyse und Beratung zur Erstellung eines DataWarehouse im Umfeld von Aktiengeschäften. Dazu von Micro Strategy auf Version 6.0 ausgebildet und zertifiziert worden (Umfasste eine gezielte Datenmodellierungsausbildung unter OLAP/ ROLAP Architekturen). Prozessketten-Analyse zum Qualitätsmanagement überführender Informatica - Prozesse (ETL) definiert, programmiert und verfahrenstechnisch (high data quality) kontrolliert. Einpflege der Daten in ein (hoch)-dimensioniertes Data Warehouse Modell (Datenmodellpflege) von Micro Strategy.
Hierauf basierend Business Logic Reports mit Micro Strategy Version 6.0 als auch später mit Version 7.0 erstellt, angepasst und aus Sicht der Performance getestet und optimiert. Tuning und Optimierung der Datenbank Prozesse.
Einsatz des IBM eigenen IIW (International Insurance World) Datenmodells mit spezieller Weiterentwicklung in den (IIX) … for AXA.
Erstellung des DataWarehouse mit ERWIN DataModeller unter Oracle 8i. Entwicklung und Einsatz von Meta Daten zur Kontrolle aller laufenden ETL – Prozesse.
Analyse und Lösung hochspezieller versicherungsmathematischer ETL -Probleme (chaidings (Ansetzung komplexer Wahrscheinlichkeitsverfahren zur Vervollständigung fehlender Versicherungsdaten), checkDependencies, not Delivering Strategien, ...) mittels Informatica und PL/SQL.
Erzeugung von hochdimensionierten CRM’s über Imformatica POWER Center und spezieller Oracle Methoden.
Weitere Projekte gerne auf Anfrage
Schulabschluss: Abitur
Hochschule: Technische Hochschule Köln
Studium: Wirtschaftsinformatik
Studienabschluss: Diplom Informatiker
IT Architekt, DWH Experte und - Developer, Migrationsexperte in Bank und Versicherung, ETL Design mit Informatica PowerCenter 10.1, sowie IBM InfoSphere DataStage 11.7 und Talend Open Studio for Data Integration
Agilität nach SCRUM, Regulatorik und Banksteuerungssystem BAIS
Projekt Erfahrung seit:
1989
freiberuflich seit:
1996
Einsatzmöglichkeit:
Data Scientist, DWH Experte und - Developer, Migration und Reporting in Bank und Versicherung, ETL Design mit Informatica PowerCenter 10.4 sowie IBM InfoSphere DataStage 11.7 und Talend Open Studio for Data Integration.
Aufbau eines einheitlichen internen Berichtswesen. Dazu Entwicklung von Prozessen und Aufbau von entsprechenden Strukturen. Datenmodellierung und Entwicklung von DataStage Mapping über die Schichtenarchitektur. Bereitstellung der Stammdaten innerhalb einer SCD2 Dimension und der Bewegungsdaten im Faktenmodell. Performance Optimierung bei großen Datenmengen über massive Parallelisierung und Objekt Installationen von neuen Entscheidungsbäume im DataStage Kern über Deg2Code.
Klärung der fachlichen Vorgaben. Durchführung von Beratung des Kunden und Analysen zur Funktionalität des DWH (alt und neu). Erstellung eines DV-Konzepts auf Basis der fachlichen Vorgaben mit Erstellung von Programmen auf Basis der fachlichen Vorgaben und des DV-Konzepts entsprechend der Programmierrichtlinien des alten bzw. neuen DWH. Erstellung von ETL-Workflows (Informatica, PL/SQL, SQL), Datenmodellerweiterungen und Patchen. Durchführung von Beratung des Kunden und Analysen zur Funktionalität des DWH (alt und neu). Analysen auf Fehlersituationen.
Weiterentwicklung bestehender Bankprozesse sowie Aufbau neuer Schnittstellen zum Reporting realisiert. Fehleranalysen und Fehlerbereinigungen über HotFixes. Strategien zu Verbesserung der Performance im bestehenden System.
Weiterentwicklung und Vorbereitung des Regulatory Reporting (JEG 2018).
Migration einer Talend-Lösung zum Kampagnenmanagement aus dem bestehenden „Alt“ System in einen zentralen DataLake. Dazu Reverse Engineering der bestehenden Software/ Strategien, Design/ Modellierung der neuen Datenbasis, Entwicklung von Transformationsprozessen und Migration der vorhandenen Daten sowie Abstimmung mit den betroffenen Fachbereichen und Präsentation der Ergebnisse.
Migration von DataStage 8.5 Prozessen auf DataStage 11.5 unter Ansatz aktueller Prozessmethoden. Neu-/ Weiterentwicklung von Schnittstellen aus dem Bereich Marketing und Regulatorik.
Weiterentwicklung von bestehenden DataMart Strukturen durch Erweiterungen und Neuanlagen. Wertpapieranalysen und Erstellung von Depotstatistiken. Identifizierung meldepflichtiger Wertpapierbestände des Kundengeschäftes nach HGB und IFRS. Einarbeitung des Kordoba Abzuges in BAIS (Meldesystem der Firma BSM) mit den täglichen Cash- Flow Daten. Erweiterungen der Währungsstammdaten für die Commercial Banking Geschäfte als auch für die institutionellen Fremdwährungsgeschäfte. Rücktransport von SAP Bank Analyzer/ BW Daten in das DWH als tagesaktueller historisierter DataMart aufgebaut.
Konzernmigration aller bereitgestellter Stammdaten im Bereich der Personen, Verträge, Konto, Depot und Kreditkarten. Dazu technische Designs (TD und FDD) entwickelt und mit den jeweiligen Fachbereichen beider Banken mit den erstellten Fachkonzepten abgestimmt. Implementierung und Koordination aller am Thema beteiligten Entwicklereinheiten und Durchführung der Integrationstests mit Abnahme der Fachbereiche. Dazu enge Zusammenarbeit mit der Projektleitung und den IT - Verantwortlichen beider Banken. Aufbau der Jobnetze zur effektiven Steuerung der Migrationssoftware gestaltet.
Testvorbereitung und Go-Live Begleitung für das Regulatory Reporting (JEG 2017).
Konzeption und Entwicklung einer „Regulation on Energy Market Integrity and Transparency“ (REMIT) nach TRUM Spezifikationen an die Regulierungsbehörde „Agency for the Cooperation of Energy Regulators“ (ACER).
Funktionssicherung des DWH der Deutschen Post (DHL) AG. Hierzu neue Beladungsarchitekturen in Teilbereichen konzeptioniert und umgesetzt. Datenquellen (operativ) aus Terradata entsprechend der DataCube Anforderungen neu zusammengefasst und zur Herstellung der COGNOS Reports mit PowerCenter aus vorherigen SQL Server Applikationen heraus migriert.
Fachlicher Aufbau eines neuen Warehouse innerhalb der Bereiche Schadensmanagement, Vertragswesen, Partnerdaten mit vertrieblichen Leistungsberechnungen. Dazu über Monate hinweg Konzeptionen und Testverfahren mit den beauftragenden Fachbereichen (DVK) erstellt. Analyse spezieller Themen zu einzelnen Produktgruppen durchgeführt und bewertet (wie Versicherungssummenermittlung, GDV Berichte und FI Meldungen mit Provisionsberichten). Definition erweiterter Geschäftsvorfälle in Kooperation mit Produktdesignern der Häuser von SV, SVS und HFK. Aufbau technischer/ fachlicher Architekturebenen mit Durchführung von Abstimmungsmaßnahmen zum Change- und Änderungsmanagement. Unterstützung der Projektleitung in Hinblick auf wesentliche Architekturentscheidungen zur Schaffung einer einheitlichen Datengrundlage im Vertrieb und aller Vertrags/ Deckung Bereichen. Architektur und Planung einer voll historisierten Datensicht mittels DTB (Doppelt Temporale Beziehungen).
Fachliche Basel II Rating Anforderungen im Rahmen von Restrukturierungsmaßnahmen neu definiert und technisch beschrieben.
Fachkonzeptionen erweitert und neu bewertet. Fachabteilungen dazu spezifisch interviewt und Ergebnisse ausgewertet. Neugestaltung der Konzeptionen unter Accenture UseCase Methode durchgeführt. DataCleansing von Datenbeständen weiterentwickelt.
Anschluss neuer Datenquellen an den Warehouse. Verbesserung der Ladeverfahren in Funktion und Performance. Ratingsystem Determination und Risikobewertung neu/ erweitert geplant und realisiert.
Realisierung von ETL Prozessen auf Oracle 9i. Fachliches Umfeld ist hierbei das Kerngeschäft mit Hypotheken und Anleihen. Technische Konzeption und Architektur dieser Prozesse im Schichtenmodell geschaffen. Spezifikas zu dieser Thematik technisch analysiert und umgesetzt. Entwicklung einer einheitlichen Datenbasis unter Einsatz von Maßnahmen zur DQM/ Abstimmung und Veredlung. Planung von optimierenden Techniken bezüglich der Lade-/ und Verarbeitungsgeschwindigkeit.
Fachliche Basel II und USGAAP Daten/ Rating Anforderungen im Rahmen des Dresdner Bank Einsatzes unter DB2 EEE analysiert und technisch realisiert.
Erstellen von DataMarts aus ODS/ Exposure Daten zum Reporting hin.
Optimierung und Entwicklung neuer ETL - Prozesse innerhalb des Themas CLARIFY (Kundenmarketing). Hierzu internationale Ebene mit Frankreich/ Paris zur Integration aller Bank/ Kunden Aktivitäten im globalen System gepflegt.
Datenmodelling, Einführung und Reporting des CLARIFY basierenden DataWarehouse realisiert und durchgeführt.
Verbesserung bestehender Prozesse hinsichtlich der Performance und Ersatz „alter“ Lösungen unter PL/SQL und Shell Scripting durch Informatica Prozesse
Konzeption und Realisierung von ETL – Prozessen auf MS SQL Server. Aufbau eines Meta Daten Systems zur Steuerung und Dokumentation der Prozesse. Migration bisheriger Verfahren unter Berücksichtigung von Kundenzentrik und Mandantenfähigkeiten. Datenmodellierung innerhalb dimensionierter Modelle mittels ERWIN. Zentrale Steuerungen über Control-M und Workflow Manager von Informatica 6.2 realisiert. Erstellung und Administration des Berechtigungs – und Security Konzeptes für Informatica. Parameterisierungskonzepte zur Ladekommunikation mit „outbound“ Systemen definiert und entwickelt. Reportingunterstützung unter BRIO Software mittels spezieller Aggregationen (Data Marts) konzeptionell, als auch bei technischer Bildung und Befüllung. Administration und Installation der Informatica Software.
Performanceoptimierungen technischer und fachlicher (Modellpflege) Art.
Konzeption und Realisierung von ETL – Prozessen auf Oracle 9i. QM und Testverfahren auf Basis integrativer Lösungen erarbeitet. Installationen und Optimierungen der Informatica Software auf verteilten Umgebungen durchgeführt und überwacht. Unterstützung der zentralen Testteams durch Koordination der Entwicklungsarbeiten und Aufbau der unterschiedlichen QM/ Produktionsumgebungen. Perl basierte Steuerung über eine T_SYSTEM Toolbox erweitert, welche dem CommonDataModell folgt. CR basierte Änderungen in Informatica Processing (Mapping) durchgeführt.
Konzeption und Realisierung von ETL – Prozessen auf einer DB EEE Datenbank. Berücksichtigungen von mehrdimensionalen Verfahren im Data Warehouse. Der ETL wird ausschließlich über INFORMATICA realisiert. Analyse und Erstellung von COGNOS Würfeln aus den bereitgestellten Daten. Internationale Ausrichtung des Projektes durch Einbeziehung von Daten aus UK, Schweden und Benelux Staaten. Verantwortung und Unterstützung des Project Office im technischen Prozessumfeld. Konzeption und Einführung von Test- und QS Maßnahmen zur Produktionseinführung. Weitere Reportgenerierungen über BRIO zur eigenen BI. Hierzu technische Beratung bei Bildung und Befüllung weiterer „Vor“ Aggregationen (materialized Views) aus diversen DataMart Systemen.
Konzeption und Beratung zur Fertigung und Verfahrenssicherstellung einer DataWarehouse Datenbank. Die Datenbankgröße hatte bereits nach Einführung des Produktionsbetriebs (ETL – Initialzündung) eine Größe von 1 Terra überschritten. Beratung und Lösung ablauftechnischer und programm-technischer Probleme, Ablösung von unwirtschaftlichen Prozessen durch geeignete Oracle Objects (8i) – Verfahren. Performance - Tuning aller Prozesse, laufende Verbesserungen der Datenbank und des Oracle*Net im produktiven Betrieb.
Hinzufügen neuer Datenquellen und deren Integration in das Gesamtsystem in enger Kooperation mit Business Analysten und COGNOS Spezialisten. Sicherstellung des Zugriffes auf den Warehouse aus allen Zeitzonen der Welt (Europa, Asien, Nord/ Süd Amerika) heraus. Erfahrung in der Arbeit in einem internationalen Team ( 6 beteiligte Nationen).
Analyse und Beratung zur Erstellung eines DataWarehouse im Umfeld von Aktiengeschäften. Dazu von Micro Strategy auf Version 6.0 ausgebildet und zertifiziert worden (Umfasste eine gezielte Datenmodellierungsausbildung unter OLAP/ ROLAP Architekturen). Prozessketten-Analyse zum Qualitätsmanagement überführender Informatica - Prozesse (ETL) definiert, programmiert und verfahrenstechnisch (high data quality) kontrolliert. Einpflege der Daten in ein (hoch)-dimensioniertes Data Warehouse Modell (Datenmodellpflege) von Micro Strategy.
Hierauf basierend Business Logic Reports mit Micro Strategy Version 6.0 als auch später mit Version 7.0 erstellt, angepasst und aus Sicht der Performance getestet und optimiert. Tuning und Optimierung der Datenbank Prozesse.
Einsatz des IBM eigenen IIW (International Insurance World) Datenmodells mit spezieller Weiterentwicklung in den (IIX) … for AXA.
Erstellung des DataWarehouse mit ERWIN DataModeller unter Oracle 8i. Entwicklung und Einsatz von Meta Daten zur Kontrolle aller laufenden ETL – Prozesse.
Analyse und Lösung hochspezieller versicherungsmathematischer ETL -Probleme (chaidings (Ansetzung komplexer Wahrscheinlichkeitsverfahren zur Vervollständigung fehlender Versicherungsdaten), checkDependencies, not Delivering Strategien, ...) mittels Informatica und PL/SQL.
Erzeugung von hochdimensionierten CRM’s über Imformatica POWER Center und spezieller Oracle Methoden.
Weitere Projekte gerne auf Anfrage
Schulabschluss: Abitur
Hochschule: Technische Hochschule Köln
Studium: Wirtschaftsinformatik
Studienabschluss: Diplom Informatiker
IT Architekt, DWH Experte und - Developer, Migrationsexperte in Bank und Versicherung, ETL Design mit Informatica PowerCenter 10.1, sowie IBM InfoSphere DataStage 11.7 und Talend Open Studio for Data Integration
Agilität nach SCRUM, Regulatorik und Banksteuerungssystem BAIS
Projekt Erfahrung seit:
1989
freiberuflich seit:
1996
Einsatzmöglichkeit:
Data Scientist, DWH Experte und - Developer, Migration und Reporting in Bank und Versicherung, ETL Design mit Informatica PowerCenter 10.4 sowie IBM InfoSphere DataStage 11.7 und Talend Open Studio for Data Integration.