Business Intelligence (BI), DWH, ETL, Informatica, Pentaho (BI-Suite), Talend, KPI, Oracle, DB2, PowerExchange, Big Data, Hadoop, Cloudera, UC-4
Aktualisiert am 19.02.2020
Profil
Freiberufler / Selbstständiger
Verfügbar ab: 07.09.2020
Verfügbar zu: 80%
davon vor Ort: 80%
Deutsch
Muttersprache
Englisch
fließend
Französisch
Grundkenntnisse

Einsatzorte

Einsatzorte

Würzburg (+150km) Frankfurt am Main (+100km) Nürnberg (+100km) Stuttgart (+100km) Mainz (+50km) Wiesbaden (+50km) Ingolstadt (+50km) Essen (+75km) Ibbenbüren (+75km) Cochem (+75km) Bonn (+75km) Soest (+50km) Darmstadt (+75km) Homburg (Saar) (+50km) Tübingen (+100km) Titisee-Neustadt (+75km) München (+100km) Mindelheim (+100km) Erlangen (+100km) Deggendorf (+75km)
nicht möglich

Projekte

Projekte

10 Monate
2017-10 - 2018-07

BigData & Advanced Analytics

  • Administration und allgemeine technische Unterstützung des Projektes BigData & Advanced Analytics.
  • Unterstützung der Test- und Entwicklungsteams.
  • Administration (Installation, Berechtigungen-LDAP, Services, Connections, Deployments) der Informatica Installationen (Big Data Management 10.1.1)
  • Unterstützung der Test/Entwicklungsteams für ETL Strecken mit Informatica Developer
  • Administration des HDFS-Clusters
  • Unix Administration der HDFS Nodes
  • Monitoring / Entwicklung von UC-4 Jobs und Scheduling
Commerzbank AG
5 Jahre 1 Monat
2013-07 - 2018-07

SAPfin DIS Administration

  • Administration und allgemeine technische Unterstützung des Projektes SAPFIN DIS (Datenintegrationsschicht). Aufbau von verschiedenen Informatica-Umgebungen (Sandbox, Entwicklung, Test, Preprod) und die Administration. Mitarbeit/Beratung bei der Erstellung von Konzepten.
  • Unterstützung des Testteams und des Entwicklungsteams.
  • Administration (Installation, Berechtigungen-LDAP, Services, Connections, Deployments) der Informatica Installationen (Power Center 9.6.1, Power Exchange 9.6.1 for DB2 z/OS, Metadata Manager, Informatica Analyst)
  • Verantwortung der Informatica-CORE-Objekte (Sources, Targets, Connections, Berechtigungen, Services)
  • Maßgebliche Mitwirkung Konzepte (Berechtigungskonzept, Vorgehen Initialload, Betriebshandbuch, Batchkonzept)
  • Entwicklung von Informatica Workflows zur Replikation (PowerExchange CDC) der Produktion in eine Testumgebung
  • Unterstützung und Debugging von Testergebnissen
  • Optimierung der vorhandenen Administrationsprozesse
  • Synchronisierung zweier Entwicklungsumgebungen
  • Qualitätssicherung der Berechtigungen auf DB2 Umgebungen
KFW Bankengruppe
9 Monate
2012-09 - 2013-05

Neuerstellung eines DWH

Konzeption und Implementierung eines DWH für ein Internetportal. Integration/ETL von 8 Schnittstellen mittels Informatica Power Center (DB und Flatfiles) Modellierung eines Data-Vaults für den CORE-Layer.
Analyse von Quellsystemen, Data-Profiling, Erstellung von ETL-Strecken mit Informatica 9.5.1. Mitarbeit bei Erstellung von Konzepten und eines ETL-Frameworks.

Analyse Quellsysteme (DB2, MS SQL – Server, Flatfiles)

  • Data Profiling (Informatica Data Analyst)
  • Entwicklung ETL-Strecken (Power Center 9.5.1, Sybase Bulk-Load)
  • ETL-Framework (DB-Modellierung, ETL-Workflows, Shell-Scripting mit Cygwin)
  • Erstellung Konzepte (Entwicklerrichtlinie, Berechtigungskonzept, Vorgehen Initialload)
  • Administration Sybase IQ
  • DB-Modellierung eines Datamart-Prototypen
Hotel Reservierungs Service GmbH
2 Jahre 4 Monate
2010-05 - 2012-08

Neuerstellung eines DWH

Ein bestehendes Reporting-System mit zugrundeliegendem Flottenmanagement-System und DWH (eher Datamart) sollte auf ein neues Flottenmanagement-System und DWH umgestellt werden.
Hauptgrund für die Änderungen waren neue/erweiterte Anforderungen und Einsparung von Lizenzkosten. Fachlich mussten Automobilherstellerdaten mit den Endkunden zusammengeführt (ETL Integration) und ein Reporting von Leasingkosten gewährleistet werden. Für den Kundenenduser (Der Kunde der Leasinggesellschaft) musste das Berechtigungskonzept für Pentaho weiterentwickelt werden.

  • Migration von Altdatenbeständen mittels Informatica und Pentaho Data Integrator
  • Ablösung von Schnittstellen mit Informatica PowerCenter 8.X zu Pentaho Data Integrator 3.7 und 4.X (KETTLE)
  • Datenbankmodellierung des neuen DWH
  • Datenbankmodellierung des Metadaten-Layers (Reporting Meta-Daten, ETL-Framework)
  • Profiling der Quellsysteme
  • ETL-Entwicklung für das DWH inklusive Monitoring der Produktivumgebung
  • Datenbankadministration Oracle 10.X (User/Schemata, Tablespaces, globale Parameter)
  • Datenbankadministration MySQL (Installation, Schemata anlegen) für Mantis Bug Tracker System
  • JIRA als Projektmanagementtool
  • Konzeption und Erstellung von Pentaho-Listenreports (Parameterauswahl, Design, SQL des Resultsets, Tuning)
  • Erstellung von Mondrian-Reports (XML-Definition) und Business Modellen (XML-Definition mit dem Meta-Data-Editor)
  • Erweitern des bestehenden User-Berechtigungskonzeptes von Pentaho
  • Erweiterung/Einschränkung von Testdaten für Kunden-Simulationszugriff
HPI GmbH
2 Jahre 9 Monate
2007-08 - 2010-04

Weiterentwicklung Betrieb DWH

Integration von Auftragsdaten in das bestehende CORE-DWH. Versorgung der Data-Marts mit relevanten Daten(Reporting Star-Schemata bzw. Snow-Flake Schemata) Tuning von bestehenden ETL-Jobs wg. großen Datenmengen. Integration von operativen Logistikdaten (Sendungsmengen, Laufzeiten) in das bestehende DWH.
Einerseits wurden Ist-Auswertungen durchgeführt (KPI´s), andererseits wurde eine Sendungsmengenprognose für die kommenden 7 Tage berechnet. Am Ende der Tätigkeit war ein Management-Cockpit (Dashboard) Teil meiner Aufgabe mit Berechnung von Ampeln/Warnhinweisen etc. nach vorgegebenen (teilweise dynamisch / customized) Grenzwerten.

  • Datenintegration (Informatica PC 8.1.1 und 8.6) von Auftragsdaten in das zentrale DWH / Monitoring der Produktivumgebung
  • Implementierung von Tracking- und Tracing-Lösungen für ein DWH
  • Nutzung von Parallelisierung von Sessions (DB Partitionierung & Key-Driven)
  • Administration und Steuerung (Parameterfiles, Cron-Jobs) von ETL-Jobs mittels Informatica und kundeneigener Steuerungslösung (eigenes DB-Schema).
  • Datenmodellierung und Design in Oracle 10.X
  • Weiterentwicklung/Monitoring eines DWH, Anbindung von zusätzlichen Schnittstellen mit PowerCenter 8.X
  • Berechnung von Bedarfsprognosen mittels Informatica und PL/SQL im Bereich Logistik
  • Datenbereitstellung für BusinessObjects Dashboards für das Auftrags- und Logistikmanagement
  • Analyse der Datenqualität im Bereich Tracking und Tracing zur Kontrolle von fachlichen Annahmen / Beseitigung von operativen Fehlern
Deutsche Post AG
3 Monate
2009-05 - 2009-07

Entwicklung Schnittstelle

Integration/ETL von Daten (CSV-Dateien) zur Risikoeinschätzung in das bestehende DWH.

  • Anbindung einer externen Dateischnittstelle mit Hilfe von Informatica Power Center 8.X
  • Analyse der Quelldatenqualität
  • Datenbankmodellierung mit MS SQL Server (Erweitern von Tabellen, Erstellung von Indices)
  • Nutzung des bestehenden Error-Handlings für ETL-Prozesse
Landesbank Baden-Württemberg
10 Monate
2006-10 - 2007-07

Integration von Investmentbankingdaten

Integration von Investmentbankingdaten (Buchungen von Derivaten) in ein globales Gateway, das später weltweit eingesetzt werden sollte.
Entwicklung von Schnittstellen – Templates, also Mappings und Workflows (Informatica Power Center 7.X)) für Daten Derivierung, Datenvalidierung, Errorhandling Framework (sowohl Informatica- als auch Datenbank- gestützt) und Error Reporting.

Diese sollten später für jedes Land wiederverwendbar genutzt werden, um ein einheitliches Vorgehen und Architektur zu gewährleisten.

  • Vorbereitung und Einbindung unterschiedlichster (> 100) Referenzdatenquellen
  • Integration unterschiedlicher Source-Systeme
  • Informatica Power Center 7.X mit SAP Power-Connector (RFC)
  • Oracle 10.X Modellierung
  • UNIX (Betriebssystem) Scripting
  • Anbindung einer Java Messaging Service Schnittstelle in Informatica 7.X (Connector)
Deutsche Bank AG

Aus- und Weiterbildung

Aus- und Weiterbildung

Zertifizierung in Informatica 8.X Developer und Administrator

09/2006

Studium der Wirtschaftsinformatik an der University of Applied Sciences
Thema der Diplomarbeit: ?Validierung eines ERP-Systems: Roll-Out-Szenarien?

06/2000

Abitur am Friedrich-Koenig-Gymnasium in Würzburg

Position

Position

ETL-Entwicklung (Informatica, Pentaho) gerne auch andere ETL Tools (Data Stage, Talend, SSIS, BODI)

Informatica PowerCenter, Informatica PowerExchange, Informatica  Data Quality und Informatica Big Data.

Datenbank-Entwicklung (Oracle, DB2, MySQL, MS-SQL Server, Sybase IQ)

Erstellung/Weiterentwicklung von DWH, Datamarts und Data Lakes.

Datenmigration und Datenintegration.

Datenqualität (Data Quality Gates, Reference Data)

Schnittsellen zu SAP Systemen (SAP-BW, SAP-ERP, SAP-Bank Analyzer)

Administration von Informatica und allgemeine Administration eines Data-Warehouses (Datenbanken / Compliances, Prozessunterstützung).

Kompetenzen

Kompetenzen

Schwerpunkte

Analyse, Konzepterstellung und Implementierung von ETL und BI-Lösungen
ETL-Developer und Business Analyst für Data Warehousing / Big Data und Business Intelligence

Produkte / Standards / Erfahrungen / Methoden

  • ETL Entwicklung für DWH / Datamarts mit Informatica, Pentaho Data Integrator (Kettle) oder PL/SQL.
  • Oracle Datenbank-Modellierung und Datenbank-Administration. 
  • Datenintegration und Datenmigration mit Berücksichtigung der Datenqualität.
  • Erstellung von KPI´s im Bereich Logistik / Automotive.

Kompetenzen

Methoden

  • Data Warehousing,
  • Data Marts,
  • Business Intelligence,
  • Projektmanagement
  • Datenmodellierung,
  • Geschäftsprozessanalyse,
  • Collaboration Management,

Modellierungswerkzeuge

  • Sybase Powerdesigner
  • Enterprise Architect
  • ERwin

ETL

  • Informatica 10.X ca. 10 Jahre Erfahrung,
  • Informatica 8.X (Informatica zertifizierter Developer und Administrator)
  • Informatica Metadata Manager 9.X und Data Analyst 9.X
  • Pentaho Data Integrator (PDI, bzw. Kettle) 3.X und 4.X
  • Talend (nur evaluiert)

Reporting

  • Pentaho Reporting im Kundenprojekt,
  • Mondrian (Pentaho Analysis Services) im Kundenprojekt,
  • Pentaho Business Model im Kundenprojekt,
  • SAP Business Objects (im Projekt als User),
  • SAP-BW (im Studium als Nutzer),
  • Cognos

Diverses

  • HP Quality Center, HP Service Manager, HP ALM
  • Mantis Bug Tracker,
  • Sharepoint Portal Server,
  • Aris/Visio (Geschäftsprozesse)

Beruflicher Werdegang

05/2010 - heute

Selbstständiger Consultant & Business Analyst im Bereich Data Warehousing und Business Intelligence

10/2006 ? 04/2010

Consultant für Data Warehousing und Business Intelligence bei der In-Factory GmbH in Winterthur in der Schweiz

02/2006 ? 09/2006

Anfertigung der Diplomarbeit bei der Tectura AG in Rimpar bei Würzburg

09/2004 ? 03/2005

2. Fachpraktikum: bei der Robert Bosch GmbH im Werk Rutesheim bei Leonberg mit anschließender Werksstudententätigkeit

10/2002 ? 03/2003

1. Fachpraktikum im Fraunhofer Institut für Silicatforschung in Würzburg (ISC) mit anschließender Tätigkeit als Hilfswissenschaftler

Betriebssysteme

Linux
Redhat
SUN OS, Solaris
Unix
Solaris
Windows
2003 und 2008 Server; XP, 7

Programmiersprachen

Java
Grundkenntnisse
JavaScript
Grundkenntnisse
PHP
Grundkenntnisse
PL/SQL
Grundkenntnisse
PL/SQL
Scriptsprachen
Shell Bash
Shell
Grundkenntnisse, Cygwin
SQL
XML

Scripting ist meist kein Problem, ist aber durch die Mannigfaltigkeit immer wieder neu zu entwickeln.

Datenbanken

DB-2-LUW
DWH-DB
DB2
Grundkenntnisse, ETL
DB2-z/OS
DB-Visualizer
MS SQL Server
Datenmodellierung, Administration, ETL
MySQL
Datenmodellierung, Administration, ETL
ODBC
Einrichtung, Administration
Oracle
11.X & 10.X (TOAD, Navigator, Developer) als DWH-DB
Quest
Toad, SQL-Navigator
SQL
Fortgeschrittene bis tiefe Kenntnisse
Sybase
IQ, ETL, Grundkenntnisse, Administration

Datenkommunikation

Ethernet
Administration
Internet, Intranet
Administration
Router
Administration
TCP/IP
Administration
Windows Netzwerk
Administration

Design / Entwicklung / Konstruktion

Informatica Power Center 8.6

Branchen

Branchen

  • Logistik
  • Automotive
  • Banken/Finanzdienstleistungen

Einsatzorte

Einsatzorte

Würzburg (+150km) Frankfurt am Main (+100km) Nürnberg (+100km) Stuttgart (+100km) Mainz (+50km) Wiesbaden (+50km) Ingolstadt (+50km) Essen (+75km) Ibbenbüren (+75km) Cochem (+75km) Bonn (+75km) Soest (+50km) Darmstadt (+75km) Homburg (Saar) (+50km) Tübingen (+100km) Titisee-Neustadt (+75km) München (+100km) Mindelheim (+100km) Erlangen (+100km) Deggendorf (+75km)
nicht möglich

Projekte

Projekte

10 Monate
2017-10 - 2018-07

BigData & Advanced Analytics

  • Administration und allgemeine technische Unterstützung des Projektes BigData & Advanced Analytics.
  • Unterstützung der Test- und Entwicklungsteams.
  • Administration (Installation, Berechtigungen-LDAP, Services, Connections, Deployments) der Informatica Installationen (Big Data Management 10.1.1)
  • Unterstützung der Test/Entwicklungsteams für ETL Strecken mit Informatica Developer
  • Administration des HDFS-Clusters
  • Unix Administration der HDFS Nodes
  • Monitoring / Entwicklung von UC-4 Jobs und Scheduling
Commerzbank AG
5 Jahre 1 Monat
2013-07 - 2018-07

SAPfin DIS Administration

  • Administration und allgemeine technische Unterstützung des Projektes SAPFIN DIS (Datenintegrationsschicht). Aufbau von verschiedenen Informatica-Umgebungen (Sandbox, Entwicklung, Test, Preprod) und die Administration. Mitarbeit/Beratung bei der Erstellung von Konzepten.
  • Unterstützung des Testteams und des Entwicklungsteams.
  • Administration (Installation, Berechtigungen-LDAP, Services, Connections, Deployments) der Informatica Installationen (Power Center 9.6.1, Power Exchange 9.6.1 for DB2 z/OS, Metadata Manager, Informatica Analyst)
  • Verantwortung der Informatica-CORE-Objekte (Sources, Targets, Connections, Berechtigungen, Services)
  • Maßgebliche Mitwirkung Konzepte (Berechtigungskonzept, Vorgehen Initialload, Betriebshandbuch, Batchkonzept)
  • Entwicklung von Informatica Workflows zur Replikation (PowerExchange CDC) der Produktion in eine Testumgebung
  • Unterstützung und Debugging von Testergebnissen
  • Optimierung der vorhandenen Administrationsprozesse
  • Synchronisierung zweier Entwicklungsumgebungen
  • Qualitätssicherung der Berechtigungen auf DB2 Umgebungen
KFW Bankengruppe
9 Monate
2012-09 - 2013-05

Neuerstellung eines DWH

Konzeption und Implementierung eines DWH für ein Internetportal. Integration/ETL von 8 Schnittstellen mittels Informatica Power Center (DB und Flatfiles) Modellierung eines Data-Vaults für den CORE-Layer.
Analyse von Quellsystemen, Data-Profiling, Erstellung von ETL-Strecken mit Informatica 9.5.1. Mitarbeit bei Erstellung von Konzepten und eines ETL-Frameworks.

Analyse Quellsysteme (DB2, MS SQL – Server, Flatfiles)

  • Data Profiling (Informatica Data Analyst)
  • Entwicklung ETL-Strecken (Power Center 9.5.1, Sybase Bulk-Load)
  • ETL-Framework (DB-Modellierung, ETL-Workflows, Shell-Scripting mit Cygwin)
  • Erstellung Konzepte (Entwicklerrichtlinie, Berechtigungskonzept, Vorgehen Initialload)
  • Administration Sybase IQ
  • DB-Modellierung eines Datamart-Prototypen
Hotel Reservierungs Service GmbH
2 Jahre 4 Monate
2010-05 - 2012-08

Neuerstellung eines DWH

Ein bestehendes Reporting-System mit zugrundeliegendem Flottenmanagement-System und DWH (eher Datamart) sollte auf ein neues Flottenmanagement-System und DWH umgestellt werden.
Hauptgrund für die Änderungen waren neue/erweiterte Anforderungen und Einsparung von Lizenzkosten. Fachlich mussten Automobilherstellerdaten mit den Endkunden zusammengeführt (ETL Integration) und ein Reporting von Leasingkosten gewährleistet werden. Für den Kundenenduser (Der Kunde der Leasinggesellschaft) musste das Berechtigungskonzept für Pentaho weiterentwickelt werden.

  • Migration von Altdatenbeständen mittels Informatica und Pentaho Data Integrator
  • Ablösung von Schnittstellen mit Informatica PowerCenter 8.X zu Pentaho Data Integrator 3.7 und 4.X (KETTLE)
  • Datenbankmodellierung des neuen DWH
  • Datenbankmodellierung des Metadaten-Layers (Reporting Meta-Daten, ETL-Framework)
  • Profiling der Quellsysteme
  • ETL-Entwicklung für das DWH inklusive Monitoring der Produktivumgebung
  • Datenbankadministration Oracle 10.X (User/Schemata, Tablespaces, globale Parameter)
  • Datenbankadministration MySQL (Installation, Schemata anlegen) für Mantis Bug Tracker System
  • JIRA als Projektmanagementtool
  • Konzeption und Erstellung von Pentaho-Listenreports (Parameterauswahl, Design, SQL des Resultsets, Tuning)
  • Erstellung von Mondrian-Reports (XML-Definition) und Business Modellen (XML-Definition mit dem Meta-Data-Editor)
  • Erweitern des bestehenden User-Berechtigungskonzeptes von Pentaho
  • Erweiterung/Einschränkung von Testdaten für Kunden-Simulationszugriff
HPI GmbH
2 Jahre 9 Monate
2007-08 - 2010-04

Weiterentwicklung Betrieb DWH

Integration von Auftragsdaten in das bestehende CORE-DWH. Versorgung der Data-Marts mit relevanten Daten(Reporting Star-Schemata bzw. Snow-Flake Schemata) Tuning von bestehenden ETL-Jobs wg. großen Datenmengen. Integration von operativen Logistikdaten (Sendungsmengen, Laufzeiten) in das bestehende DWH.
Einerseits wurden Ist-Auswertungen durchgeführt (KPI´s), andererseits wurde eine Sendungsmengenprognose für die kommenden 7 Tage berechnet. Am Ende der Tätigkeit war ein Management-Cockpit (Dashboard) Teil meiner Aufgabe mit Berechnung von Ampeln/Warnhinweisen etc. nach vorgegebenen (teilweise dynamisch / customized) Grenzwerten.

  • Datenintegration (Informatica PC 8.1.1 und 8.6) von Auftragsdaten in das zentrale DWH / Monitoring der Produktivumgebung
  • Implementierung von Tracking- und Tracing-Lösungen für ein DWH
  • Nutzung von Parallelisierung von Sessions (DB Partitionierung & Key-Driven)
  • Administration und Steuerung (Parameterfiles, Cron-Jobs) von ETL-Jobs mittels Informatica und kundeneigener Steuerungslösung (eigenes DB-Schema).
  • Datenmodellierung und Design in Oracle 10.X
  • Weiterentwicklung/Monitoring eines DWH, Anbindung von zusätzlichen Schnittstellen mit PowerCenter 8.X
  • Berechnung von Bedarfsprognosen mittels Informatica und PL/SQL im Bereich Logistik
  • Datenbereitstellung für BusinessObjects Dashboards für das Auftrags- und Logistikmanagement
  • Analyse der Datenqualität im Bereich Tracking und Tracing zur Kontrolle von fachlichen Annahmen / Beseitigung von operativen Fehlern
Deutsche Post AG
3 Monate
2009-05 - 2009-07

Entwicklung Schnittstelle

Integration/ETL von Daten (CSV-Dateien) zur Risikoeinschätzung in das bestehende DWH.

  • Anbindung einer externen Dateischnittstelle mit Hilfe von Informatica Power Center 8.X
  • Analyse der Quelldatenqualität
  • Datenbankmodellierung mit MS SQL Server (Erweitern von Tabellen, Erstellung von Indices)
  • Nutzung des bestehenden Error-Handlings für ETL-Prozesse
Landesbank Baden-Württemberg
10 Monate
2006-10 - 2007-07

Integration von Investmentbankingdaten

Integration von Investmentbankingdaten (Buchungen von Derivaten) in ein globales Gateway, das später weltweit eingesetzt werden sollte.
Entwicklung von Schnittstellen – Templates, also Mappings und Workflows (Informatica Power Center 7.X)) für Daten Derivierung, Datenvalidierung, Errorhandling Framework (sowohl Informatica- als auch Datenbank- gestützt) und Error Reporting.

Diese sollten später für jedes Land wiederverwendbar genutzt werden, um ein einheitliches Vorgehen und Architektur zu gewährleisten.

  • Vorbereitung und Einbindung unterschiedlichster (> 100) Referenzdatenquellen
  • Integration unterschiedlicher Source-Systeme
  • Informatica Power Center 7.X mit SAP Power-Connector (RFC)
  • Oracle 10.X Modellierung
  • UNIX (Betriebssystem) Scripting
  • Anbindung einer Java Messaging Service Schnittstelle in Informatica 7.X (Connector)
Deutsche Bank AG

Aus- und Weiterbildung

Aus- und Weiterbildung

Zertifizierung in Informatica 8.X Developer und Administrator

09/2006

Studium der Wirtschaftsinformatik an der University of Applied Sciences
Thema der Diplomarbeit: ?Validierung eines ERP-Systems: Roll-Out-Szenarien?

06/2000

Abitur am Friedrich-Koenig-Gymnasium in Würzburg

Position

Position

ETL-Entwicklung (Informatica, Pentaho) gerne auch andere ETL Tools (Data Stage, Talend, SSIS, BODI)

Informatica PowerCenter, Informatica PowerExchange, Informatica  Data Quality und Informatica Big Data.

Datenbank-Entwicklung (Oracle, DB2, MySQL, MS-SQL Server, Sybase IQ)

Erstellung/Weiterentwicklung von DWH, Datamarts und Data Lakes.

Datenmigration und Datenintegration.

Datenqualität (Data Quality Gates, Reference Data)

Schnittsellen zu SAP Systemen (SAP-BW, SAP-ERP, SAP-Bank Analyzer)

Administration von Informatica und allgemeine Administration eines Data-Warehouses (Datenbanken / Compliances, Prozessunterstützung).

Kompetenzen

Kompetenzen

Schwerpunkte

Analyse, Konzepterstellung und Implementierung von ETL und BI-Lösungen
ETL-Developer und Business Analyst für Data Warehousing / Big Data und Business Intelligence

Produkte / Standards / Erfahrungen / Methoden

  • ETL Entwicklung für DWH / Datamarts mit Informatica, Pentaho Data Integrator (Kettle) oder PL/SQL.
  • Oracle Datenbank-Modellierung und Datenbank-Administration. 
  • Datenintegration und Datenmigration mit Berücksichtigung der Datenqualität.
  • Erstellung von KPI´s im Bereich Logistik / Automotive.

Kompetenzen

Methoden

  • Data Warehousing,
  • Data Marts,
  • Business Intelligence,
  • Projektmanagement
  • Datenmodellierung,
  • Geschäftsprozessanalyse,
  • Collaboration Management,

Modellierungswerkzeuge

  • Sybase Powerdesigner
  • Enterprise Architect
  • ERwin

ETL

  • Informatica 10.X ca. 10 Jahre Erfahrung,
  • Informatica 8.X (Informatica zertifizierter Developer und Administrator)
  • Informatica Metadata Manager 9.X und Data Analyst 9.X
  • Pentaho Data Integrator (PDI, bzw. Kettle) 3.X und 4.X
  • Talend (nur evaluiert)

Reporting

  • Pentaho Reporting im Kundenprojekt,
  • Mondrian (Pentaho Analysis Services) im Kundenprojekt,
  • Pentaho Business Model im Kundenprojekt,
  • SAP Business Objects (im Projekt als User),
  • SAP-BW (im Studium als Nutzer),
  • Cognos

Diverses

  • HP Quality Center, HP Service Manager, HP ALM
  • Mantis Bug Tracker,
  • Sharepoint Portal Server,
  • Aris/Visio (Geschäftsprozesse)

Beruflicher Werdegang

05/2010 - heute

Selbstständiger Consultant & Business Analyst im Bereich Data Warehousing und Business Intelligence

10/2006 ? 04/2010

Consultant für Data Warehousing und Business Intelligence bei der In-Factory GmbH in Winterthur in der Schweiz

02/2006 ? 09/2006

Anfertigung der Diplomarbeit bei der Tectura AG in Rimpar bei Würzburg

09/2004 ? 03/2005

2. Fachpraktikum: bei der Robert Bosch GmbH im Werk Rutesheim bei Leonberg mit anschließender Werksstudententätigkeit

10/2002 ? 03/2003

1. Fachpraktikum im Fraunhofer Institut für Silicatforschung in Würzburg (ISC) mit anschließender Tätigkeit als Hilfswissenschaftler

Betriebssysteme

Linux
Redhat
SUN OS, Solaris
Unix
Solaris
Windows
2003 und 2008 Server; XP, 7

Programmiersprachen

Java
Grundkenntnisse
JavaScript
Grundkenntnisse
PHP
Grundkenntnisse
PL/SQL
Grundkenntnisse
PL/SQL
Scriptsprachen
Shell Bash
Shell
Grundkenntnisse, Cygwin
SQL
XML

Scripting ist meist kein Problem, ist aber durch die Mannigfaltigkeit immer wieder neu zu entwickeln.

Datenbanken

DB-2-LUW
DWH-DB
DB2
Grundkenntnisse, ETL
DB2-z/OS
DB-Visualizer
MS SQL Server
Datenmodellierung, Administration, ETL
MySQL
Datenmodellierung, Administration, ETL
ODBC
Einrichtung, Administration
Oracle
11.X & 10.X (TOAD, Navigator, Developer) als DWH-DB
Quest
Toad, SQL-Navigator
SQL
Fortgeschrittene bis tiefe Kenntnisse
Sybase
IQ, ETL, Grundkenntnisse, Administration

Datenkommunikation

Ethernet
Administration
Internet, Intranet
Administration
Router
Administration
TCP/IP
Administration
Windows Netzwerk
Administration

Design / Entwicklung / Konstruktion

Informatica Power Center 8.6

Branchen

Branchen

  • Logistik
  • Automotive
  • Banken/Finanzdienstleistungen

Vertrauen Sie auf GULP

Im Bereich Freelancing
Im Bereich Arbeitnehmerüberlassung / Personalvermittlung

Fragen?

Rufen Sie uns an +49 89 500316-300 oder schreiben Sie uns:

Das GULP Freelancer-Portal

Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.