Big Data / Data Science / Business Intelligence / Data Warehousing
Aktualisiert am 15.11.2023
Profil
Freiberufler / Selbstständiger
Remote-Arbeit
Verfügbar ab: 01.12.2023
Verfügbar zu: 100%
davon vor Ort: 100%
data science, Programmiersprache R, Shiny
Java 11
Data Warehouse, Business Intelligence, Cognos, Java
Spark / Scala
SQL-Datenbanken
PL/SQL

Einsatzorte

Einsatzorte

Berlin (+100km) Malchin (+100km) Darmstadt (+75km) Homburg (Saar) (+50km) Tübingen (+100km) Titisee-Neustadt (+75km) München (+100km) Mindelheim (+100km)
Österreich, Schweiz

priorisiert: Raum Stuttgart, remote Zugang, Süddeutschland, Deutschland

möglich

Projekte

Projekte

Schulung ?Einsatz von KI zur Datenanalyse und Prozessautomatisierung?


Kunde: Bildungswesen


2020 - heute: Managementinformationssystem


Kunde: Gesundheitswesen


Kenntnisse:

R, Shiny, Apps



2019 - heute: Data Warehouse/ Business Intelligence: Produktionsplanung und -steuerung


Branche: Telekommunikation

Rolle: Technischer Architekt und Entwickler


Aufgaben:

  • Neuentwicklung und Anpassung von Standardsoftwarelösungen mit den IBM Cognos Standardtools (Report Studio, Planning, TM1)
  • Erstellung von Java-Programmen mit Zugriff auf Cognos unter Verwendung des Cognos BI SDK
  • Erstellen von technischen Feinspezifikationen und Datenmodellen für Entwickler (User Interface, ETL), Vorgaben und Qualitätskontrollen für Freelancer-Gewerke
  • Planung und Durchführung von Hard- und Softwaremigrationen (Umzug in ein anderes Rechenzentrum, Softwareupgrades über viele Jahre)


Kenntnisse:

  • IBM Cognos Suite mit Report Studio
  • TM1 und Cognos Planning
  • Informatica
  • Oracle
  • OpenLDAP
  • Java mit Open Source Bibliotheken (Apache LDAP API und weitere)
  • Kontext: Personalbedarfs- und Einsatzplanung, Controlling
  • Vorgehensweise: Wasserfallmodell und agile Entwicklung je nach Anforderung


2020 - 2020: Entwicklung eines Lehrgangs zu Data Science/ Programmierung mit R

01/2017 - 02/2019: Big Data/ Data Science: Digital Products


Branche: Automotive

Rolle: Technischer und fachlicher Architekt/ Scrum Master/ Data Scientist


Aufgaben:

  • Technischer und fachlicher Architekt: Konzeption und Vorgaben an die Entwickler, Review der Programme, Erstellen von automatischen Prüfroutinen in Scala / Spark mit Testfallgenerierung auf Random Basis, Umsetzung von Überwachungsmechanismen zur Früherkennung von Ladelauffehlern mit Zeppelin Notebooks (SQL und Spark)
  • Vertretung Scrum Master: Abstimmung mit Product Owner und Stakeholdern, Issue Pflege in JIRA, Herunterbrechen von Issues in Tasks (Entwicklungsaufgaben), Dokumentation in Confluence
  • Data Scientist: Aufnahme der Anforderungen aus dem Marketing, Erstellung von Analysen und prototypischen Lösungen mit R und R Shiny Applications sowie Auswertungen mit Hive/SQL auf Hadoop

Kenntnisse:

  • Hadoop, Hive/SQL, Postgres, Tableau, Qlikview, R und R Shiny, Spark / Scala mit Continuous Integration, Kafka, JSON, Zeppelin Notebooks, JIRA, Confluence, Linux
  • Kontext: Data Ingest aus 15 Vorsystemen, Pseudonymisierung, Bereitstellung, Aufbereitung und Anreicherung in einem Global Data Lake
  • Vorgehensweise: Agile Entwicklung nach Scrum mit 14-tägigen Sprints (DevOps)


2015 - 2019: Ausbildung von dualen Studenten


Branche: Software

Rolle: Ausbilder


Aufgaben

  • Einführung in betriebliche Aufgaben und Systeme
  • Durchführung von Workshops und Kursen zu Java und R
  • Unterstützung bei Studienfragen
  • Betreuung von Diplom und Bachelorarbeiten (Data Mining und Neuronale Netze)
  • Kontext: betriebliche Ausbildung im dualen Studiengang


2017-05 - 2017-09: Predictive Analytics


Rolle: Technischer Architekt

Kunde: Software


Aufgaben:

Evaluierung typischer R Aufbereitungsprozesse und Rückmeldung an den SAP Program Manager für Predictive Analytics


Kenntnisse:

  • SAP Predictive Analytics auf Basis SAP/HANA
  • Kontext: Evaluierung der Möglichkeiten zum Einbetten von R Code in SAP Predictive Analytics
  • Vorgehensweise: Definition von Testfällen und Prüfung des Tools


04/2015 - 12/2016: Big Data / Data Science: Predictive Maintenance von Roboterstraßen


Branche: Automotive

Rolle: Data Scientist/ Technischer Architekt


Aufgaben

  • Data Scientist: Aufnahme der Anforderungen aus dem Marketing, Umsetzung von Anwendungen mit R Shiny (Monitoring von Roboterstraßen, Graphische Erkennung von Maschinenfehlern, Automatische Generierung von Random Samples, Steuerung von Ingest Jobs)
  • Technischer Architekt: Konzeption der Umsetzung, Datenanalysen und Qualitätssicherung
  • Technische Beratung, Know How-Transfer für R Shiny Technologie


Kenntnisse:

  • R und R Shiny, Tableau, Qlikview, JIRA, Confluence, Linux
  • Kontext: Früherkennung von Roboterausfällen auf Basis von Signalanalysen
  • Vorgehensweise: Agile Entwicklung nach Scrum mit 14-tägigen Sprints (DevOps)


2003 - 2011: Data Warehouse/ Business Intelligence


Branchen: Automotive, Manufacturing

Rolle: Technischer Architekt


Aufgaben

  • Anforderungsaufnahme
  • Spezifikation der Vorgaben für Entwickler (Datenmodellierung, Data Mappings, GUI Layout und User Interaction)


Kenntnisse:

  • SAP FI, CO, PS, IM, MM, Business Objects Data Services, SAP SSM (Pilot), Oracle, MS SQL Server, Java
  • Kontext: Controlling und Planung
  • Vorgehensweise: Wasserfallmodell und Rapid Prototyping

Aus- und Weiterbildung

Aus- und Weiterbildung

Abschlüsse:

  • Data Science (5 von 10 Zertifikaten Johns Hopkins University), Scala (2 von 5 Zertifikaten École Polytechnique Fédérale de Lausanne)
  • Professional Scrum Master I (scrum.org)
  • Diplom-Informatiker Universität Kaiserslautern (Schwerpunkt Expertensysteme), Mathematisch-technischer Assistent

Position

Position

Senior Consultant Data Science, Big Data, Data Warehouse und Business Intelligence

Kompetenzen

Kompetenzen

Top-Skills

data science, Programmiersprache R, Shiny Java 11 Data Warehouse, Business Intelligence, Cognos, Java Spark / Scala SQL-Datenbanken PL/SQL

Schwerpunkte

Big Data
Business Intelligence
Data Science
Data Warehouse
Data Warehousing

Aufgabenbereiche

Architect
Scrum Master
Technical Projectlead

Produkte / Standards / Erfahrungen / Methoden

Cognos Administration
Cognos BI SDK
Cognos Connection
Cognos Planning
IBM Cognos
IBM Cognos Suite
OpenLDAP

Profil

Senior Consultant Data Science / Big Data und Business Intelligence / Data Warehousing in Festanstellung in Projekten (T-Systems, 1997 ? 02/2019) bei Kunden vor Ort bzw. über Remotezugang, seit 1.4.2019 Geschäftsführer (Firma auf Anfrage)

Senior Consultant Data Science und Business Intelligence im Big Data Umfeld (R, Scala) mit jahrzehntelanger Projekterfahrung und der Fähigkeit, alte und neue IT-Welten miteinander zu verbinden.

Seit gut zwanzig Jahren arbeite ich in Business Intelligence-Projekten, in der Regel mit einem darunterliegenden Data Warehouse. Von 2009 bis März 2021 war ich als Technischer Architekt für ein Produktionsplanungs- und -steuerungssystem eines großen Unternehmens in der Telekommunikationsbranche tätig.

Der größte Teil meiner Aufgaben war dabei Requirements Engineering: von der Aufnahme der Anforderungen aus den Fachbereichen über Prüfung auf Umsetzbarkeit mit Aufwandschätzung bis hin zu Spezifikation und Vorgaben an die Entwickler sowie Definition von Testfällen und die Durchführung von fachlichen und technischen Tests mit komplexen Datenanalysen. Dabei habe ich nicht nur die Qualität der Implementierung kontrolliert, sondern auch einzelne Module oder Pilotlösungen als Durchstich selbst entwickelt.

Weiterhin war ich für die Datenmodellierung (3NF, Star, Snowflake Schema) zuständig. Insbesondere haben wir großen Wert auf eine Schichtenarchitektur im Data Warehouse (Input, Storage und Output Layer) gelegt. Mit SQL habe ich umfangreiche Erfahrungen; u. a. habe ich ein Anonymisierungsverfahren in Java entwickelt, das auf Basis von Metadaten automatisch PL/SQL-Prozeduren und -Funktionen generiert und in der Datenbank ausführt. Die Befüllung des DWH erfolgte dabei mit Informatica; neben der Übernahme der ERP-Daten aus SAP wurden umfangreiche Simulationen mit ETL bzw. aus Performancegründen teilweise mit Stored Procedures durchgeführt.

Bei den Big Data-Projekten (Spark/Scala, Hadoop, Hive/SQL, Zeppelin Notebooks und R) ging es u. a. um Erkenntnisse über das Kundenverhalten bei der Nutzung von digitalen Produkten, wobei R zur Mustererkennung von Webinteraktionen eingesetzt wurde. Mit der Programmiersprache R und einer großen Anzahl von Packages habe ich umfangreiche praktische Erfahrung; u. a. habe ich R Shiny Anwendungen zum Monitoring von Roboterstraßen, graphischer Erkennung von Maschinenfehlern, automatischer Samplegenerierung und Steuerung von Ingest Jobs entwickelt. Mit Scala / Spark habe ich Prüfroutinen geschrieben, die mit Random-Verfahren Objekte im Hadoop Data Lake selektieren und die damit zusammenhängenden Daten auf Korrektheit und Vollständigkeit überprüfen. Die Vorgehensweise war agil nach SCRUM; d. h. mit zweiwöchigen Sprints, Issue-Erfassung und -verfolgung in Jira sowie Dokumentation in Confluence. Ich habe eine entsprechende Zertifizierung als Scrum Master.

Generell kann ich mich schnell und strukturiert in neue Themen einarbeiten und habe großes Interesse daran, immer noch etwas dazuzulernen und mein Wissen weiterzugeben. Aufgrund meiner langen Berufserfahrung und breiten Fachkenntnisse bin ich flexibel einsetzbar. Durch meine vielen Kundenprojekte weiß ich mit kurzfristig auftretenden Belastungen oder Problemen zweckmäßig und organisiert umzugehen und eine Lösung zu finden.

Programmiersprachen

Java
Oracle/SQL
R
Scala

Datenbanken

Oracle

Branchen

Branchen

Automotive, Telco

Einsatzorte

Einsatzorte

Berlin (+100km) Malchin (+100km) Darmstadt (+75km) Homburg (Saar) (+50km) Tübingen (+100km) Titisee-Neustadt (+75km) München (+100km) Mindelheim (+100km)
Österreich, Schweiz

priorisiert: Raum Stuttgart, remote Zugang, Süddeutschland, Deutschland

möglich

Projekte

Projekte

Schulung ?Einsatz von KI zur Datenanalyse und Prozessautomatisierung?


Kunde: Bildungswesen


2020 - heute: Managementinformationssystem


Kunde: Gesundheitswesen


Kenntnisse:

R, Shiny, Apps



2019 - heute: Data Warehouse/ Business Intelligence: Produktionsplanung und -steuerung


Branche: Telekommunikation

Rolle: Technischer Architekt und Entwickler


Aufgaben:

  • Neuentwicklung und Anpassung von Standardsoftwarelösungen mit den IBM Cognos Standardtools (Report Studio, Planning, TM1)
  • Erstellung von Java-Programmen mit Zugriff auf Cognos unter Verwendung des Cognos BI SDK
  • Erstellen von technischen Feinspezifikationen und Datenmodellen für Entwickler (User Interface, ETL), Vorgaben und Qualitätskontrollen für Freelancer-Gewerke
  • Planung und Durchführung von Hard- und Softwaremigrationen (Umzug in ein anderes Rechenzentrum, Softwareupgrades über viele Jahre)


Kenntnisse:

  • IBM Cognos Suite mit Report Studio
  • TM1 und Cognos Planning
  • Informatica
  • Oracle
  • OpenLDAP
  • Java mit Open Source Bibliotheken (Apache LDAP API und weitere)
  • Kontext: Personalbedarfs- und Einsatzplanung, Controlling
  • Vorgehensweise: Wasserfallmodell und agile Entwicklung je nach Anforderung


2020 - 2020: Entwicklung eines Lehrgangs zu Data Science/ Programmierung mit R

01/2017 - 02/2019: Big Data/ Data Science: Digital Products


Branche: Automotive

Rolle: Technischer und fachlicher Architekt/ Scrum Master/ Data Scientist


Aufgaben:

  • Technischer und fachlicher Architekt: Konzeption und Vorgaben an die Entwickler, Review der Programme, Erstellen von automatischen Prüfroutinen in Scala / Spark mit Testfallgenerierung auf Random Basis, Umsetzung von Überwachungsmechanismen zur Früherkennung von Ladelauffehlern mit Zeppelin Notebooks (SQL und Spark)
  • Vertretung Scrum Master: Abstimmung mit Product Owner und Stakeholdern, Issue Pflege in JIRA, Herunterbrechen von Issues in Tasks (Entwicklungsaufgaben), Dokumentation in Confluence
  • Data Scientist: Aufnahme der Anforderungen aus dem Marketing, Erstellung von Analysen und prototypischen Lösungen mit R und R Shiny Applications sowie Auswertungen mit Hive/SQL auf Hadoop

Kenntnisse:

  • Hadoop, Hive/SQL, Postgres, Tableau, Qlikview, R und R Shiny, Spark / Scala mit Continuous Integration, Kafka, JSON, Zeppelin Notebooks, JIRA, Confluence, Linux
  • Kontext: Data Ingest aus 15 Vorsystemen, Pseudonymisierung, Bereitstellung, Aufbereitung und Anreicherung in einem Global Data Lake
  • Vorgehensweise: Agile Entwicklung nach Scrum mit 14-tägigen Sprints (DevOps)


2015 - 2019: Ausbildung von dualen Studenten


Branche: Software

Rolle: Ausbilder


Aufgaben

  • Einführung in betriebliche Aufgaben und Systeme
  • Durchführung von Workshops und Kursen zu Java und R
  • Unterstützung bei Studienfragen
  • Betreuung von Diplom und Bachelorarbeiten (Data Mining und Neuronale Netze)
  • Kontext: betriebliche Ausbildung im dualen Studiengang


2017-05 - 2017-09: Predictive Analytics


Rolle: Technischer Architekt

Kunde: Software


Aufgaben:

Evaluierung typischer R Aufbereitungsprozesse und Rückmeldung an den SAP Program Manager für Predictive Analytics


Kenntnisse:

  • SAP Predictive Analytics auf Basis SAP/HANA
  • Kontext: Evaluierung der Möglichkeiten zum Einbetten von R Code in SAP Predictive Analytics
  • Vorgehensweise: Definition von Testfällen und Prüfung des Tools


04/2015 - 12/2016: Big Data / Data Science: Predictive Maintenance von Roboterstraßen


Branche: Automotive

Rolle: Data Scientist/ Technischer Architekt


Aufgaben

  • Data Scientist: Aufnahme der Anforderungen aus dem Marketing, Umsetzung von Anwendungen mit R Shiny (Monitoring von Roboterstraßen, Graphische Erkennung von Maschinenfehlern, Automatische Generierung von Random Samples, Steuerung von Ingest Jobs)
  • Technischer Architekt: Konzeption der Umsetzung, Datenanalysen und Qualitätssicherung
  • Technische Beratung, Know How-Transfer für R Shiny Technologie


Kenntnisse:

  • R und R Shiny, Tableau, Qlikview, JIRA, Confluence, Linux
  • Kontext: Früherkennung von Roboterausfällen auf Basis von Signalanalysen
  • Vorgehensweise: Agile Entwicklung nach Scrum mit 14-tägigen Sprints (DevOps)


2003 - 2011: Data Warehouse/ Business Intelligence


Branchen: Automotive, Manufacturing

Rolle: Technischer Architekt


Aufgaben

  • Anforderungsaufnahme
  • Spezifikation der Vorgaben für Entwickler (Datenmodellierung, Data Mappings, GUI Layout und User Interaction)


Kenntnisse:

  • SAP FI, CO, PS, IM, MM, Business Objects Data Services, SAP SSM (Pilot), Oracle, MS SQL Server, Java
  • Kontext: Controlling und Planung
  • Vorgehensweise: Wasserfallmodell und Rapid Prototyping

Aus- und Weiterbildung

Aus- und Weiterbildung

Abschlüsse:

  • Data Science (5 von 10 Zertifikaten Johns Hopkins University), Scala (2 von 5 Zertifikaten École Polytechnique Fédérale de Lausanne)
  • Professional Scrum Master I (scrum.org)
  • Diplom-Informatiker Universität Kaiserslautern (Schwerpunkt Expertensysteme), Mathematisch-technischer Assistent

Position

Position

Senior Consultant Data Science, Big Data, Data Warehouse und Business Intelligence

Kompetenzen

Kompetenzen

Top-Skills

data science, Programmiersprache R, Shiny Java 11 Data Warehouse, Business Intelligence, Cognos, Java Spark / Scala SQL-Datenbanken PL/SQL

Schwerpunkte

Big Data
Business Intelligence
Data Science
Data Warehouse
Data Warehousing

Aufgabenbereiche

Architect
Scrum Master
Technical Projectlead

Produkte / Standards / Erfahrungen / Methoden

Cognos Administration
Cognos BI SDK
Cognos Connection
Cognos Planning
IBM Cognos
IBM Cognos Suite
OpenLDAP

Profil

Senior Consultant Data Science / Big Data und Business Intelligence / Data Warehousing in Festanstellung in Projekten (T-Systems, 1997 ? 02/2019) bei Kunden vor Ort bzw. über Remotezugang, seit 1.4.2019 Geschäftsführer (Firma auf Anfrage)

Senior Consultant Data Science und Business Intelligence im Big Data Umfeld (R, Scala) mit jahrzehntelanger Projekterfahrung und der Fähigkeit, alte und neue IT-Welten miteinander zu verbinden.

Seit gut zwanzig Jahren arbeite ich in Business Intelligence-Projekten, in der Regel mit einem darunterliegenden Data Warehouse. Von 2009 bis März 2021 war ich als Technischer Architekt für ein Produktionsplanungs- und -steuerungssystem eines großen Unternehmens in der Telekommunikationsbranche tätig.

Der größte Teil meiner Aufgaben war dabei Requirements Engineering: von der Aufnahme der Anforderungen aus den Fachbereichen über Prüfung auf Umsetzbarkeit mit Aufwandschätzung bis hin zu Spezifikation und Vorgaben an die Entwickler sowie Definition von Testfällen und die Durchführung von fachlichen und technischen Tests mit komplexen Datenanalysen. Dabei habe ich nicht nur die Qualität der Implementierung kontrolliert, sondern auch einzelne Module oder Pilotlösungen als Durchstich selbst entwickelt.

Weiterhin war ich für die Datenmodellierung (3NF, Star, Snowflake Schema) zuständig. Insbesondere haben wir großen Wert auf eine Schichtenarchitektur im Data Warehouse (Input, Storage und Output Layer) gelegt. Mit SQL habe ich umfangreiche Erfahrungen; u. a. habe ich ein Anonymisierungsverfahren in Java entwickelt, das auf Basis von Metadaten automatisch PL/SQL-Prozeduren und -Funktionen generiert und in der Datenbank ausführt. Die Befüllung des DWH erfolgte dabei mit Informatica; neben der Übernahme der ERP-Daten aus SAP wurden umfangreiche Simulationen mit ETL bzw. aus Performancegründen teilweise mit Stored Procedures durchgeführt.

Bei den Big Data-Projekten (Spark/Scala, Hadoop, Hive/SQL, Zeppelin Notebooks und R) ging es u. a. um Erkenntnisse über das Kundenverhalten bei der Nutzung von digitalen Produkten, wobei R zur Mustererkennung von Webinteraktionen eingesetzt wurde. Mit der Programmiersprache R und einer großen Anzahl von Packages habe ich umfangreiche praktische Erfahrung; u. a. habe ich R Shiny Anwendungen zum Monitoring von Roboterstraßen, graphischer Erkennung von Maschinenfehlern, automatischer Samplegenerierung und Steuerung von Ingest Jobs entwickelt. Mit Scala / Spark habe ich Prüfroutinen geschrieben, die mit Random-Verfahren Objekte im Hadoop Data Lake selektieren und die damit zusammenhängenden Daten auf Korrektheit und Vollständigkeit überprüfen. Die Vorgehensweise war agil nach SCRUM; d. h. mit zweiwöchigen Sprints, Issue-Erfassung und -verfolgung in Jira sowie Dokumentation in Confluence. Ich habe eine entsprechende Zertifizierung als Scrum Master.

Generell kann ich mich schnell und strukturiert in neue Themen einarbeiten und habe großes Interesse daran, immer noch etwas dazuzulernen und mein Wissen weiterzugeben. Aufgrund meiner langen Berufserfahrung und breiten Fachkenntnisse bin ich flexibel einsetzbar. Durch meine vielen Kundenprojekte weiß ich mit kurzfristig auftretenden Belastungen oder Problemen zweckmäßig und organisiert umzugehen und eine Lösung zu finden.

Programmiersprachen

Java
Oracle/SQL
R
Scala

Datenbanken

Oracle

Branchen

Branchen

Automotive, Telco

Vertrauen Sie auf GULP

Im Bereich Freelancing
Im Bereich Arbeitnehmerüberlassung / Personalvermittlung

Fragen?

Rufen Sie uns an +49 89 500316-300 oder schreiben Sie uns:

Das GULP Freelancer-Portal

Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.