Teamleiter und Referent mit 9 Jahren Berufserfahrung in den Bereichen Data Science, Data Engineering, Web Development und Cloud Computing.
Aktualisiert am 02.05.2024
Profil
Mitarbeiter eines Dienstleisters
Remote-Arbeit
Verfügbar ab: 01.05.2024
Verfügbar zu: 100%
davon vor Ort: 30%
Skill-Profil eines fest angestellten Mitarbeiters des Dienstleisters

Einsatzorte

Einsatzorte

München (+100km)
Deutschland
möglich

Projekte

Projekte

11 Monate
2023-07 - 2024-05

Verspätungsprognose mit Graph Neural Networks

Senior Data Scientist SQL Python Sklearn ...
Senior Data Scientist

Projektziel ist, strukturelle Engpässe im Schienennetz der Deutschenbahn für die nächsten 30 Minuten vorherzusagen, um Zugdisponenten bei der Disposition von Zügen zu unterstützen.


?Beratung des Kunden hinsichtlich der Vor- und Nachteile von ML-Modellen im Vergleich zu Simulationen von Zugverläufen.
?Datentransformation der Zuglaufmeldungen in einen zeitlich-örtlichen Graphen.
?Entwicklung mehrere ML-Modelle (RandomForest, Gradient Boosted Tree, etc.) zur Vorhersage des Verspätungsaufbaus  und der Anzahl der Züge an einem Gleisabschnitt.
?Darstellung der Vorhersage in einer Angular Webapplikation.

?Überführung des ML-Modells in den produktiven Betrieb mit API-Schnittstelle.


Unterstützung von Zugdisponenten bei ihrer täglichen Arbeit um die Pünktlichkeit der Deutschen Bahn zu verbessen.
SQL Python Sklearn Keras NetworkX
DB Analytics
1 Jahr 5 Monate
2023-01 - 2024-05

Entwicklung eines Software Tools zur Ermittlung des maximalen Preises innerhalb einer Frequenzbandauktion

Data Scientist & Projektleiter Python SQL Knime ...
Data Scientist & Projektleiter

Entwicklung eines Software Tools zur Ermittlung des maximalen Preises innerhalb einer Frequenzbandauktion. Berechnung der Auslastungsentwicklung der bestehenden Netzinfrastruktur und Erstellung eines Optimierungsszenarios für den Ausbau der Infrastruktur.


?Analyse von Berechnungsalgorithmen in VBA-Programmcode
?Erstellung und Dokumentierung des Datenbankdesigns
?Erstellung von Knime Workflows zur Verarbeitung und Speicherung der Input-Daten und für die Verbindung zur Datenbank
?Implementierung eines Algorithmus zur Berechnung der Netzauslastung
?Implementierung eines Algorithmus zur Erstellung einer Handlungsempfehlung für den zukünftigen Netzausbau
?Erstellung eines Anforderungsdokuments und Erbringung eines Machbarkeitsnachweis (Proof of Concept)

?Entwicklung eines ETL-Prozesses zur automatischen Datenverarbeitung, Datenspeicherung und Berechnung des Optimierungsszenarios


Erstellung einer Handlungsempfehlung auf der Grundlage einer automatischen Berechnung der aktuellen und prognostizierten zukünftigen Netzauslastung.
Python SQL Knime PostgreSQL Git
Python SQL Knime PostgreSQL Git
Deutsche Telekom AG
1 Jahr 11 Monate
2022-07 - 2024-05

Enwticklung eines Hassrede Klassifikators

Data Scientist & Projektleiter SQL Python Docker ...
Data Scientist & Projektleiter

Entwicklung eines automatisierten Erkennungsverfahrens für Hassrede in Online-Portalen auf der Basis eines nachtrainierbaren Classifiers 


 ?Durchführung von Explorativen Datenanalysen auf den Datensätzen

?Entwicklung eines ETL-Prozesses zur Überführung der Daten in eine PostgreSQL Datenbank
?Automatisierung der ETL-Prozesse und des Machine Learning Model Trainings
?Containerisierung der Softwarekomponenten mittels Docker.

?Implementierung einer REST API zur Anbindung anderer Systemkomponenten


Reduzierung der Menge an Forenbeiträgen und Kommentaren, die auf Hassrede geprüft werden müssen, durch eine Machine Learning gestützte Vorabüberprüfung und Filterung
SQL Python Docker PostgreSQL Apache Airflow FastAPI MLflow Git Streamlit
BayVFP, Ippen Digital, Hochschule München
2 Jahre 1 Monat
2021-06 - 2023-06

Engpassmanagement im Schienennetz der Deutschen Bahn

SQL Python Cypher

Projektziel ist, strukturelle Engpässe im Schienennetz der Deutschenbahn zu identifizieren. Dies beinhaltet die Identifikation von überlasteter Gleisabschnitte, Weichen und Bahnsteige, Stellen im Fahrplan, die eine Verzögerung fördern, sowie die Empfehlung von konkreten Handlungsmaßnahmen wie zum Beispiel das schnelle Räumen oder die Anpassung der Fahrweise eines Zuges.


?Anbindung von GPS, Fahrplan und Telegramm Daten in eine Postgres DB.
?Erstellung der Schieneninfrastruktur als Neo4J Graph.
?Erstellung von diversen Features z.b: Durchlaufzeiten, Wartezeiten auf Gleisen, Anzahl Zugfahrten auf Quell-, Mess- und Zielgleisen u.a. mit Hilfe von sequential pattern mining und Warteschlangentheorie.
?Identifikation von Anomalien (isolation forest) zur Priorisierung von Gleisabschnitten und Zugfahrten.

?Die genauen Geokoordinaten einzelner Infrastrukturobjekte wurden ermittelt. Hierfür wurde ein Algorithmus (Trajektorien Approximation) entwickelt, der die GPS-Daten der Züge auf die nächstmögliche Infrastrukturobjekte aus OpenRailwayMap mappt, um so die dort hinterlegten Geokoordinaten auf die Objektbezeichner der internen digitalen Schieneninfrastruktur zu überführen.


vPriorisierung von Örtlichkeiten, um Maßnahmen zu erproben und Effekte auf die Pünktlichkeit zu messen.
SQL Python Cypher
DB Analytics
4 Monate
2021-01 - 2021-04

Entwicklung und Implementation eines cloud-basierten Data Warehouses (Projektfortsetzung)

Senior Data Scientist Scrum Python SSH ...
Senior Data Scientist
Amazon Aurora Amazon Web Service Amazon EC2 Amazon Cloudformation
Scrum Python SSH AWS Lambda AWS Stepfunctions Cloud Computing
remote
4 Monate
2020-09 - 2020-12

Dashboard Entwicklung in Palantir Foundry (Projektfortsetzung)

Senior Data Scientist Scrum Python JavaScript ...
Senior Data Scientist

Projektziel war, für die den Kunden ein umfassendes Berichtswesen der Kundenpolicen zu erstellen. Hierfür wurden diverse Dashboards für die Fachabteilungen „Multinational“, „Marine“ und „Underwriting“ erstellt und unternehmensweit ausgerollt.   

  • Workshops zur Anforderungsaufnahme 
  • Datenextraktion verschiedener Quellsysteme, u.a. auch eines Altsystems in Palantir Foundry mit Spark SQL. 
  • Erste Datenanalyse in Foundry Contour.  
  • Fuzzy Matching der Kundennamen und Policen IDs mit tf-idf scores in PySpark 
  • Implementation diverser Dashboards als Foundry Slate Applikation mit JavaScript, HTML, CSS. 
Palantir Foundry
Scrum Python JavaScript HTML CSS PySpark SQL tf-idf Anforderungsanalyse
München
7 Monate
2020-03 - 2020-09

Entwicklung und Implementation eines cloud-basierten Data Warehouses

Senior Data Scientist Scrum Python SSH ...
Senior Data Scientist

Projektziel war, für den Kunden ein komplettes Datawarehouse in der AWS Cloud zu erstellen. Der Kunde wird somit befähigt seine Kunden in den verschiedenen Phasen der ‚Customer Journey‘ zu analysieren und gezielt Maßnahmen z.B. zur Kundenrückgewinnung einzuleiten. 

  • Installation der AWS Umgebung mit Cloudformation Skripten 
    • Bereitstellung der VPC Netzwerkinfrastruktur 
    • Bereitstellung des Aurora PostgreSQL Clusters 
    • Bereitstellung eines SSH Tunnel Servers in EC2, um die Umgebung zu sichern. 
  • Analyse der Quelldaten und Implementierung mehrerer ETL Workflows mit AWS StepFunctions und AWS Lambda. Die ETL Workflows werden über ein Metadaten-basiertes Deyploment Framework automatisch auf verschiedenen Umgebungen ausgerollt. 
  • Entwicklung verschiedener Python Lambda Funktionen. 

 

Amazon Aurora Amazon Web Service Amazon EC2 Amazon Cloudformation
Scrum Python SSH AWS Lambda AWS Stepfunctions Cloud Computing
Berlin + remote
8 Monate
2019-05 - 2019-12

Dashboard Entwicklung in Palantir Foundry

Senior Data Scientist Scrum Python JavaScript ...
Senior Data Scientist

Projektziel war, für die den Kunden ein umfassendes Berichtswesen der Kundenpolicen zu erstellen. Hierfür wurden diverse Dashboards für die Fachabteilungen „Multinational“, „Marine“ und „Underwriting“ erstellt und unternehmensweit ausgerollt.   

  • Workshops zur Anforderungsaufnahme 
  • Datenextraktion verschiedener Quellsysteme, u.a. auch eines Altsystems in Palantir Foundry mit Spark SQL. 
  • Erste Datenanalyse in Foundry Contour.  
  • Fuzzy Matching der Kundennamen und Policen IDs mit tf-idf scores in PySpark 
  • Implementation diverser Dashboards als Foundry Slate Applikation mit JavaScript, HTML, CSS. 
Palantir Foundry
Scrum Python JavaScript HTML CSS PySpark SQL tf-idf Anforderungsanalyse Datenanalyse
München
7 Monate
2018-11 - 2019-05

Erstellung einer cloud-basierten Data Warehouse-Lösung

Senior Data Scientist Python Anforderungsanalyse Scrum
Senior Data Scientist

Projektziel war, für den Kunden ein komplettes Data Warehouse in der AWS Cloud zu erstellen und sämtliche Prozesse zu digitalisieren.  

  • Installation der AWS Umgebung mit Cloudformation Skripten 
  • Bereitstellung der VPC Netzwerkinfrastruktur 
  • Bereitstellung des Redshift Clusters 
  • Bereitstellung des RDS Services 
  • Bereitstellung eines Tableau Servers in AWS EC2 
  • Bereitstellung eines SFTP Transfer Services in AWS 
  • Bereitstellung eines Bastion Hosts in EC2 um die Umgebung zu sichern. 
  • Analyse der Quelldaten und Implementierung mehrere ETL Workflows mit AWS StepFunctions und AWS Lambda 
  • Entwicklung mehrere AWS Lambda Packages in Python    

 

Amazon Webservice amazon Redshift Amazon EC2 Amazon Cloudformation
Python Anforderungsanalyse Scrum
Hamburg
1 Jahr
2018-06 - 2019-05

Erstellung einer Data Science Plattform

Data Scientist und Projektleiter Python elasticsearch D3-JavaScript ...
Data Scientist und Projektleiter

Entwicklung einer internen analytischen Plattform zum Knowledge-Management. Die Plattform verwendet natural language processing, um Dokumente basierend auf verschiedenen Distanzmetriken miteinander zu vergleichen und beschreibende Merkmale (Sprache, Themen, Kunden, Branchen und Technologien) zu extrahieren. 

  • Konzeptionierung der IT Infrastruktur und der Weboberfläche 
  • Implementierung der NLP Pipeline in Python (nltk und sklearn) 
  • Entwicklung der Webapplikation mit HTML, CSS und JS (d3.js), welche die Dokumente als Netzwerkgrafik, Wordcloud und Tabelle darstellt. 
  • Jedes Dokument ist mit Hilfe von Elasticsearch voll durchsuchbar und durch den NLP Prozess automatisch mit Metadaten versehen. 

 

Python elasticsearch D3-JavaScript HTML CSS Texterkennung
München
5 Monate
2018-06 - 2018-10

Erstellung einer Schulung zur Analyse von Zeitreihen

Senior Data Scientist & Projektleiter Scrum Python Anforderungsanalyse ...
Senior Data Scientist & Projektleiter

Projektziel war, für die Abteilung Big Data, Maschinelles Lernen und Künstliche Intelligenz des Kunden qualitativ hochwertige Schulungsunterlagen zum Thema der fortgeschrittenen Zeitreihenanalyse auszuarbeiten. Dies beinhaltete die Erstellung von Präsentationen, eine fünf-stündige Schulung sowie die Ausarbeitung eines Leitfadendokumentes, welches das Vorgehen im Umgang mit Zeitreihen detailliert beschreibt.   

  • Merkmale einer Zeitreihe (Autoregression, Kreuzkorrelation, Autokorrelation, Faltung, stationäre und nicht-stationäre Daten) 
  • Clustering Methoden 
  • Sequence Pattern Mining 
  • Anomalie Detektion mit Autoencodern 
  • Transformationen einer Zeitreihe (Fourier Transformation, Kurzzeit Fourier Transformation, Wavelet Transformation, Glättungsmethoden, Zerlegungsmodelle) 
  • Resampling Techniques 
  • Grobe Einführung in autoregressive Modelle - AR, MA, ARMA, ARIMA, SARIMA 
  • Grundlagen in Recurrent Neural Networks (RNN) 
  • Vertiefung in Long-short-term memory (LSTM) Neuronale Netze 
  • Vertiefung in Attention Modelle 
Microsoft Office
Scrum Python Anforderungsanalyse Stakeholder management
München
1 Jahr 7 Monate
2016-11 - 2018-05

Entwicklung einer Web-Applikation inklusive der darunterliegenden Business Intelligence Infrastruktu

Projektleiter und Entwickler Python JavaScript HTML ...
Projektleiter und Entwickler

Entwicklung einer Web-Applikation inklusive der darunterliegenden Business Intelligence Infrastruktur zur Darstellung von geschäftskritischen KPIs für das Top Management einer großen europäischen Luft- und Raumfahrtgesellschaft. 

  • Konzeptuelle Entwicklung und Implementierung der IT Infrastruktur auf Basis von Hadoop, Docker, Talend und SAP.    
  • Aufnahme der Reporting-, Analyse-, Dashboard- Anforderungen vom Kunden 
  • Dashboard 1: Analyse des Ticketaufkommens inklusive Prüfung der Einhaltung des Service Level Agreements. (SAP Lumira Designer 2.1) 
  • Dashboard 2: Darstellung von unternehmensweiten User Account Informationen zur Validierung von Hard- und Software Bestellungen bei IT Dienstleistern. (SAP Lumira Designer 2.1) 
  • Dashboard 3: Darstellung unternehmensweiter Finanzdaten aggregiert auf Organisationseinheiten. (SAP Lumira Designer 2.1) 
  • Dashboard 4: Analyse-Dashboard der unternehmensweiten IT Service Management Suite (BMC Remedy), um Schwachstellen im Prozessfluss zu identifizieren und zu beheben. (SAP Lumira Designer 2.1) 
  • Entwicklung einer Webapplikation mit Python und Angular, um den Zugriff auf die oben genannten Dashboards zu vereinfachen und die User Experience zu verbessern. 
  • Datenaufnahme, Datenbereinigung und Auswertung von Server Log Dateien. 
  • Vorabanalyse der Daten mit Hilfe von R. 
  • Konzeptuelle Entwicklung eines Data Vault Modells in HDFS und Apache Hive. Implementiert wurde das Datenmodell mit Hilfe von Talend Big Data Studio. 
Talend SAP Lumira Designer SAP HANA openshift Hadoop Distributed File System Hive BMC Remedy
Python JavaScript HTML CSS Angular Docker Anforderungsanalyse Datenanalysen R Stakeholder management
München
4 Monate
2016-07 - 2016-10

Betrugserkennung in der Automobilversicherung

Business Intelligence Berater R Statistik Machine Learning ...
Business Intelligence Berater

Projektname: Betrugserkennung in der Automobilversicherung. Einer der Geschäftsbereiche mit dem höchsten Kosteneinsparpotenzial ist der Kfz Versicherungssektor. Zusammen mit dem Kunden erarbeiteten wir ein statistisches Modell zur Vorhersage der Betrugswahrscheinlichkeit jedes Versicherungsnehmers. 

  • Kommissionierung und Implementierung der IT Hardware (Exadata DB, Jboss Server, Apache Server und R Server). 
  • Aufnahme der Frontend Anforderungen zur Darstellung der Schadensansprüche einzelner Versicherungsnehmer an den Versicherungsgeber. Die Darstellungsart wurde mit Hilfe der Keylines JavaScript Bibliothek als Netzwerkgraph implementiert.   
  • Einbindung des statistischen Modells (Random Forest Regression in R) in die Entwicklung-, Test- und Produktivumgebung. 

 

Oracle Exadata
R Statistik Machine Learning JavaScript HTML CSS JBoss Apache Server
München
1 Monat
2016-06 - 2016-06

Entwicklung eines Prototyps zur Datenanonymisierung.

Business Intelligence Berater PL/SQL
Business Intelligence Berater

Während des Zusammenschlusses zweier Netzwerkanbieter sollten kundenbezogene Datensätze vor Beginn der Datenbankmigration anonymisiert werden, um konform mit Europäische Datenschutzgesetzen zu sein. 

  • Anonymisierung mehrerer Tabellen mit PL/SQL Funktionen. 
PL/SQL
München
5 Monate
2016-01 - 2016-05

Geschäftskunden Rechnungsneugestaltung

Business Intelligence Berater Anforderungsanalyse Datenanalyse
Business Intelligence Berater

Analyse von Geschäftskundenrechnungsdaten aus dem EDV System, um die Darstellungsart der Geschäftskundenrechnung verständlicher zu gestalten. 

  • Anforderungsaufnahme beim Kunden sowie Datenanalyse 
  • Entwurf eines Anforderungsdokuments in Absprache mit der IT-, Output Management- und Rechtsabteilung. 
Talend
Anforderungsanalyse Datenanalyse
München

Aus- und Weiterbildung

Aus- und Weiterbildung

1 Jahr 6 Monate
2013-09 - 2015-02

Studium

Master of Science in Information Management and Business Intelligenc, Maastricht University - School of Business and Economics (SBE)
Master of Science in Information Management and Business Intelligenc
Maastricht University - School of Business and Economics (SBE)
3 Jahre 1 Monat
2010-09 - 2013-09

Studium

Bachelor of Science Economics, Maastricht University - School of Business and Economics (SBE)
Bachelor of Science Economics
Maastricht University - School of Business and Economics (SBE)

Infonomics

Position

Position

Der Berater verfügt über 6 Jahre Erfahrung in den Bereichen Data Engineering, Data Science, Datenmodellierung und Business Intelligence. Darüber hinaus verfügt der Berater über ein hohes persönliches Interesse und Engagement zur kontinuierlichen Weiterentwicklung in neuen Technologien, wie z.B. Docker, Cloud Services (AWS), Hadoop, und Webentwicklung. Data, Science und Webentwicklung sind Themen, die ihn faszinieren und mit denen er sich identifiziert.

 

  • Referent zum Thema Zeitreihenanalyse und Portfoliooptimierung auf verschiedenen internationalen Konferenzen.
  • Tiefgehende Kenntnisse in der Anwendung von maschinellen Lernalgorithmen in Python.
  • Hands-on-Erfahrung in der Implementierung von analytischen Modellen als interaktive Webapplikation.
  • Praktische Projekterfahrung in der Implementation von Infrasturcture-as-Code (IaC) in AWS.

Kompetenzen

Kompetenzen

Aufgabenbereiche

Stakeholder management

Produkte / Standards / Erfahrungen / Methoden

Amazon Cloudformation
Amazon EC2
Amazon Web Service
Amazon Webservice
Anforderungsanalyse
Apache Server
AWS Lambda
AWS Stepfunctions
BMC Remedy
Cloud Computing
Confluence
CSS
Datenanalyse
Datenanalysen
Docker
elasticsearch
Hadoop Distributed File System
Hive
HTML
JBoss
JIRA
Jupyter Notebooks
LaTeX
Machine Learning
Mathematica
Microsoft Office
openshift
Palantir Foundry
Pandas (Python)
PyCharm
SAP HANA
SAP Lumira Designer
Scikit Learn (Python)
Scrum
SSH
Statistik
Talend
Texterkennung
tf-idf

Betriebssysteme

Debian
Microsoft Windows
RedHat
Windows Server

Programmiersprachen

Angular
D3-JavaScript
JavaScript
PL/SQL
PySpark
Python
R

Datenbanken

Amazon Aurora
amazon Redshift
Oracle
Oracle Exadata
Postgres
SQL

Branchen

Branchen

Versicherung,

Automotive,

Finanzdienstleistungen,

Telekommunikation,

Luft- und Raumfahrt

Einsatzorte

Einsatzorte

München (+100km)
Deutschland
möglich

Projekte

Projekte

11 Monate
2023-07 - 2024-05

Verspätungsprognose mit Graph Neural Networks

Senior Data Scientist SQL Python Sklearn ...
Senior Data Scientist

Projektziel ist, strukturelle Engpässe im Schienennetz der Deutschenbahn für die nächsten 30 Minuten vorherzusagen, um Zugdisponenten bei der Disposition von Zügen zu unterstützen.


?Beratung des Kunden hinsichtlich der Vor- und Nachteile von ML-Modellen im Vergleich zu Simulationen von Zugverläufen.
?Datentransformation der Zuglaufmeldungen in einen zeitlich-örtlichen Graphen.
?Entwicklung mehrere ML-Modelle (RandomForest, Gradient Boosted Tree, etc.) zur Vorhersage des Verspätungsaufbaus  und der Anzahl der Züge an einem Gleisabschnitt.
?Darstellung der Vorhersage in einer Angular Webapplikation.

?Überführung des ML-Modells in den produktiven Betrieb mit API-Schnittstelle.


Unterstützung von Zugdisponenten bei ihrer täglichen Arbeit um die Pünktlichkeit der Deutschen Bahn zu verbessen.
SQL Python Sklearn Keras NetworkX
DB Analytics
1 Jahr 5 Monate
2023-01 - 2024-05

Entwicklung eines Software Tools zur Ermittlung des maximalen Preises innerhalb einer Frequenzbandauktion

Data Scientist & Projektleiter Python SQL Knime ...
Data Scientist & Projektleiter

Entwicklung eines Software Tools zur Ermittlung des maximalen Preises innerhalb einer Frequenzbandauktion. Berechnung der Auslastungsentwicklung der bestehenden Netzinfrastruktur und Erstellung eines Optimierungsszenarios für den Ausbau der Infrastruktur.


?Analyse von Berechnungsalgorithmen in VBA-Programmcode
?Erstellung und Dokumentierung des Datenbankdesigns
?Erstellung von Knime Workflows zur Verarbeitung und Speicherung der Input-Daten und für die Verbindung zur Datenbank
?Implementierung eines Algorithmus zur Berechnung der Netzauslastung
?Implementierung eines Algorithmus zur Erstellung einer Handlungsempfehlung für den zukünftigen Netzausbau
?Erstellung eines Anforderungsdokuments und Erbringung eines Machbarkeitsnachweis (Proof of Concept)

?Entwicklung eines ETL-Prozesses zur automatischen Datenverarbeitung, Datenspeicherung und Berechnung des Optimierungsszenarios


Erstellung einer Handlungsempfehlung auf der Grundlage einer automatischen Berechnung der aktuellen und prognostizierten zukünftigen Netzauslastung.
Python SQL Knime PostgreSQL Git
Python SQL Knime PostgreSQL Git
Deutsche Telekom AG
1 Jahr 11 Monate
2022-07 - 2024-05

Enwticklung eines Hassrede Klassifikators

Data Scientist & Projektleiter SQL Python Docker ...
Data Scientist & Projektleiter

Entwicklung eines automatisierten Erkennungsverfahrens für Hassrede in Online-Portalen auf der Basis eines nachtrainierbaren Classifiers 


 ?Durchführung von Explorativen Datenanalysen auf den Datensätzen

?Entwicklung eines ETL-Prozesses zur Überführung der Daten in eine PostgreSQL Datenbank
?Automatisierung der ETL-Prozesse und des Machine Learning Model Trainings
?Containerisierung der Softwarekomponenten mittels Docker.

?Implementierung einer REST API zur Anbindung anderer Systemkomponenten


Reduzierung der Menge an Forenbeiträgen und Kommentaren, die auf Hassrede geprüft werden müssen, durch eine Machine Learning gestützte Vorabüberprüfung und Filterung
SQL Python Docker PostgreSQL Apache Airflow FastAPI MLflow Git Streamlit
BayVFP, Ippen Digital, Hochschule München
2 Jahre 1 Monat
2021-06 - 2023-06

Engpassmanagement im Schienennetz der Deutschen Bahn

SQL Python Cypher

Projektziel ist, strukturelle Engpässe im Schienennetz der Deutschenbahn zu identifizieren. Dies beinhaltet die Identifikation von überlasteter Gleisabschnitte, Weichen und Bahnsteige, Stellen im Fahrplan, die eine Verzögerung fördern, sowie die Empfehlung von konkreten Handlungsmaßnahmen wie zum Beispiel das schnelle Räumen oder die Anpassung der Fahrweise eines Zuges.


?Anbindung von GPS, Fahrplan und Telegramm Daten in eine Postgres DB.
?Erstellung der Schieneninfrastruktur als Neo4J Graph.
?Erstellung von diversen Features z.b: Durchlaufzeiten, Wartezeiten auf Gleisen, Anzahl Zugfahrten auf Quell-, Mess- und Zielgleisen u.a. mit Hilfe von sequential pattern mining und Warteschlangentheorie.
?Identifikation von Anomalien (isolation forest) zur Priorisierung von Gleisabschnitten und Zugfahrten.

?Die genauen Geokoordinaten einzelner Infrastrukturobjekte wurden ermittelt. Hierfür wurde ein Algorithmus (Trajektorien Approximation) entwickelt, der die GPS-Daten der Züge auf die nächstmögliche Infrastrukturobjekte aus OpenRailwayMap mappt, um so die dort hinterlegten Geokoordinaten auf die Objektbezeichner der internen digitalen Schieneninfrastruktur zu überführen.


vPriorisierung von Örtlichkeiten, um Maßnahmen zu erproben und Effekte auf die Pünktlichkeit zu messen.
SQL Python Cypher
DB Analytics
4 Monate
2021-01 - 2021-04

Entwicklung und Implementation eines cloud-basierten Data Warehouses (Projektfortsetzung)

Senior Data Scientist Scrum Python SSH ...
Senior Data Scientist
Amazon Aurora Amazon Web Service Amazon EC2 Amazon Cloudformation
Scrum Python SSH AWS Lambda AWS Stepfunctions Cloud Computing
remote
4 Monate
2020-09 - 2020-12

Dashboard Entwicklung in Palantir Foundry (Projektfortsetzung)

Senior Data Scientist Scrum Python JavaScript ...
Senior Data Scientist

Projektziel war, für die den Kunden ein umfassendes Berichtswesen der Kundenpolicen zu erstellen. Hierfür wurden diverse Dashboards für die Fachabteilungen „Multinational“, „Marine“ und „Underwriting“ erstellt und unternehmensweit ausgerollt.   

  • Workshops zur Anforderungsaufnahme 
  • Datenextraktion verschiedener Quellsysteme, u.a. auch eines Altsystems in Palantir Foundry mit Spark SQL. 
  • Erste Datenanalyse in Foundry Contour.  
  • Fuzzy Matching der Kundennamen und Policen IDs mit tf-idf scores in PySpark 
  • Implementation diverser Dashboards als Foundry Slate Applikation mit JavaScript, HTML, CSS. 
Palantir Foundry
Scrum Python JavaScript HTML CSS PySpark SQL tf-idf Anforderungsanalyse
München
7 Monate
2020-03 - 2020-09

Entwicklung und Implementation eines cloud-basierten Data Warehouses

Senior Data Scientist Scrum Python SSH ...
Senior Data Scientist

Projektziel war, für den Kunden ein komplettes Datawarehouse in der AWS Cloud zu erstellen. Der Kunde wird somit befähigt seine Kunden in den verschiedenen Phasen der ‚Customer Journey‘ zu analysieren und gezielt Maßnahmen z.B. zur Kundenrückgewinnung einzuleiten. 

  • Installation der AWS Umgebung mit Cloudformation Skripten 
    • Bereitstellung der VPC Netzwerkinfrastruktur 
    • Bereitstellung des Aurora PostgreSQL Clusters 
    • Bereitstellung eines SSH Tunnel Servers in EC2, um die Umgebung zu sichern. 
  • Analyse der Quelldaten und Implementierung mehrerer ETL Workflows mit AWS StepFunctions und AWS Lambda. Die ETL Workflows werden über ein Metadaten-basiertes Deyploment Framework automatisch auf verschiedenen Umgebungen ausgerollt. 
  • Entwicklung verschiedener Python Lambda Funktionen. 

 

Amazon Aurora Amazon Web Service Amazon EC2 Amazon Cloudformation
Scrum Python SSH AWS Lambda AWS Stepfunctions Cloud Computing
Berlin + remote
8 Monate
2019-05 - 2019-12

Dashboard Entwicklung in Palantir Foundry

Senior Data Scientist Scrum Python JavaScript ...
Senior Data Scientist

Projektziel war, für die den Kunden ein umfassendes Berichtswesen der Kundenpolicen zu erstellen. Hierfür wurden diverse Dashboards für die Fachabteilungen „Multinational“, „Marine“ und „Underwriting“ erstellt und unternehmensweit ausgerollt.   

  • Workshops zur Anforderungsaufnahme 
  • Datenextraktion verschiedener Quellsysteme, u.a. auch eines Altsystems in Palantir Foundry mit Spark SQL. 
  • Erste Datenanalyse in Foundry Contour.  
  • Fuzzy Matching der Kundennamen und Policen IDs mit tf-idf scores in PySpark 
  • Implementation diverser Dashboards als Foundry Slate Applikation mit JavaScript, HTML, CSS. 
Palantir Foundry
Scrum Python JavaScript HTML CSS PySpark SQL tf-idf Anforderungsanalyse Datenanalyse
München
7 Monate
2018-11 - 2019-05

Erstellung einer cloud-basierten Data Warehouse-Lösung

Senior Data Scientist Python Anforderungsanalyse Scrum
Senior Data Scientist

Projektziel war, für den Kunden ein komplettes Data Warehouse in der AWS Cloud zu erstellen und sämtliche Prozesse zu digitalisieren.  

  • Installation der AWS Umgebung mit Cloudformation Skripten 
  • Bereitstellung der VPC Netzwerkinfrastruktur 
  • Bereitstellung des Redshift Clusters 
  • Bereitstellung des RDS Services 
  • Bereitstellung eines Tableau Servers in AWS EC2 
  • Bereitstellung eines SFTP Transfer Services in AWS 
  • Bereitstellung eines Bastion Hosts in EC2 um die Umgebung zu sichern. 
  • Analyse der Quelldaten und Implementierung mehrere ETL Workflows mit AWS StepFunctions und AWS Lambda 
  • Entwicklung mehrere AWS Lambda Packages in Python    

 

Amazon Webservice amazon Redshift Amazon EC2 Amazon Cloudformation
Python Anforderungsanalyse Scrum
Hamburg
1 Jahr
2018-06 - 2019-05

Erstellung einer Data Science Plattform

Data Scientist und Projektleiter Python elasticsearch D3-JavaScript ...
Data Scientist und Projektleiter

Entwicklung einer internen analytischen Plattform zum Knowledge-Management. Die Plattform verwendet natural language processing, um Dokumente basierend auf verschiedenen Distanzmetriken miteinander zu vergleichen und beschreibende Merkmale (Sprache, Themen, Kunden, Branchen und Technologien) zu extrahieren. 

  • Konzeptionierung der IT Infrastruktur und der Weboberfläche 
  • Implementierung der NLP Pipeline in Python (nltk und sklearn) 
  • Entwicklung der Webapplikation mit HTML, CSS und JS (d3.js), welche die Dokumente als Netzwerkgrafik, Wordcloud und Tabelle darstellt. 
  • Jedes Dokument ist mit Hilfe von Elasticsearch voll durchsuchbar und durch den NLP Prozess automatisch mit Metadaten versehen. 

 

Python elasticsearch D3-JavaScript HTML CSS Texterkennung
München
5 Monate
2018-06 - 2018-10

Erstellung einer Schulung zur Analyse von Zeitreihen

Senior Data Scientist & Projektleiter Scrum Python Anforderungsanalyse ...
Senior Data Scientist & Projektleiter

Projektziel war, für die Abteilung Big Data, Maschinelles Lernen und Künstliche Intelligenz des Kunden qualitativ hochwertige Schulungsunterlagen zum Thema der fortgeschrittenen Zeitreihenanalyse auszuarbeiten. Dies beinhaltete die Erstellung von Präsentationen, eine fünf-stündige Schulung sowie die Ausarbeitung eines Leitfadendokumentes, welches das Vorgehen im Umgang mit Zeitreihen detailliert beschreibt.   

  • Merkmale einer Zeitreihe (Autoregression, Kreuzkorrelation, Autokorrelation, Faltung, stationäre und nicht-stationäre Daten) 
  • Clustering Methoden 
  • Sequence Pattern Mining 
  • Anomalie Detektion mit Autoencodern 
  • Transformationen einer Zeitreihe (Fourier Transformation, Kurzzeit Fourier Transformation, Wavelet Transformation, Glättungsmethoden, Zerlegungsmodelle) 
  • Resampling Techniques 
  • Grobe Einführung in autoregressive Modelle - AR, MA, ARMA, ARIMA, SARIMA 
  • Grundlagen in Recurrent Neural Networks (RNN) 
  • Vertiefung in Long-short-term memory (LSTM) Neuronale Netze 
  • Vertiefung in Attention Modelle 
Microsoft Office
Scrum Python Anforderungsanalyse Stakeholder management
München
1 Jahr 7 Monate
2016-11 - 2018-05

Entwicklung einer Web-Applikation inklusive der darunterliegenden Business Intelligence Infrastruktu

Projektleiter und Entwickler Python JavaScript HTML ...
Projektleiter und Entwickler

Entwicklung einer Web-Applikation inklusive der darunterliegenden Business Intelligence Infrastruktur zur Darstellung von geschäftskritischen KPIs für das Top Management einer großen europäischen Luft- und Raumfahrtgesellschaft. 

  • Konzeptuelle Entwicklung und Implementierung der IT Infrastruktur auf Basis von Hadoop, Docker, Talend und SAP.    
  • Aufnahme der Reporting-, Analyse-, Dashboard- Anforderungen vom Kunden 
  • Dashboard 1: Analyse des Ticketaufkommens inklusive Prüfung der Einhaltung des Service Level Agreements. (SAP Lumira Designer 2.1) 
  • Dashboard 2: Darstellung von unternehmensweiten User Account Informationen zur Validierung von Hard- und Software Bestellungen bei IT Dienstleistern. (SAP Lumira Designer 2.1) 
  • Dashboard 3: Darstellung unternehmensweiter Finanzdaten aggregiert auf Organisationseinheiten. (SAP Lumira Designer 2.1) 
  • Dashboard 4: Analyse-Dashboard der unternehmensweiten IT Service Management Suite (BMC Remedy), um Schwachstellen im Prozessfluss zu identifizieren und zu beheben. (SAP Lumira Designer 2.1) 
  • Entwicklung einer Webapplikation mit Python und Angular, um den Zugriff auf die oben genannten Dashboards zu vereinfachen und die User Experience zu verbessern. 
  • Datenaufnahme, Datenbereinigung und Auswertung von Server Log Dateien. 
  • Vorabanalyse der Daten mit Hilfe von R. 
  • Konzeptuelle Entwicklung eines Data Vault Modells in HDFS und Apache Hive. Implementiert wurde das Datenmodell mit Hilfe von Talend Big Data Studio. 
Talend SAP Lumira Designer SAP HANA openshift Hadoop Distributed File System Hive BMC Remedy
Python JavaScript HTML CSS Angular Docker Anforderungsanalyse Datenanalysen R Stakeholder management
München
4 Monate
2016-07 - 2016-10

Betrugserkennung in der Automobilversicherung

Business Intelligence Berater R Statistik Machine Learning ...
Business Intelligence Berater

Projektname: Betrugserkennung in der Automobilversicherung. Einer der Geschäftsbereiche mit dem höchsten Kosteneinsparpotenzial ist der Kfz Versicherungssektor. Zusammen mit dem Kunden erarbeiteten wir ein statistisches Modell zur Vorhersage der Betrugswahrscheinlichkeit jedes Versicherungsnehmers. 

  • Kommissionierung und Implementierung der IT Hardware (Exadata DB, Jboss Server, Apache Server und R Server). 
  • Aufnahme der Frontend Anforderungen zur Darstellung der Schadensansprüche einzelner Versicherungsnehmer an den Versicherungsgeber. Die Darstellungsart wurde mit Hilfe der Keylines JavaScript Bibliothek als Netzwerkgraph implementiert.   
  • Einbindung des statistischen Modells (Random Forest Regression in R) in die Entwicklung-, Test- und Produktivumgebung. 

 

Oracle Exadata
R Statistik Machine Learning JavaScript HTML CSS JBoss Apache Server
München
1 Monat
2016-06 - 2016-06

Entwicklung eines Prototyps zur Datenanonymisierung.

Business Intelligence Berater PL/SQL
Business Intelligence Berater

Während des Zusammenschlusses zweier Netzwerkanbieter sollten kundenbezogene Datensätze vor Beginn der Datenbankmigration anonymisiert werden, um konform mit Europäische Datenschutzgesetzen zu sein. 

  • Anonymisierung mehrerer Tabellen mit PL/SQL Funktionen. 
PL/SQL
München
5 Monate
2016-01 - 2016-05

Geschäftskunden Rechnungsneugestaltung

Business Intelligence Berater Anforderungsanalyse Datenanalyse
Business Intelligence Berater

Analyse von Geschäftskundenrechnungsdaten aus dem EDV System, um die Darstellungsart der Geschäftskundenrechnung verständlicher zu gestalten. 

  • Anforderungsaufnahme beim Kunden sowie Datenanalyse 
  • Entwurf eines Anforderungsdokuments in Absprache mit der IT-, Output Management- und Rechtsabteilung. 
Talend
Anforderungsanalyse Datenanalyse
München

Aus- und Weiterbildung

Aus- und Weiterbildung

1 Jahr 6 Monate
2013-09 - 2015-02

Studium

Master of Science in Information Management and Business Intelligenc, Maastricht University - School of Business and Economics (SBE)
Master of Science in Information Management and Business Intelligenc
Maastricht University - School of Business and Economics (SBE)
3 Jahre 1 Monat
2010-09 - 2013-09

Studium

Bachelor of Science Economics, Maastricht University - School of Business and Economics (SBE)
Bachelor of Science Economics
Maastricht University - School of Business and Economics (SBE)

Infonomics

Position

Position

Der Berater verfügt über 6 Jahre Erfahrung in den Bereichen Data Engineering, Data Science, Datenmodellierung und Business Intelligence. Darüber hinaus verfügt der Berater über ein hohes persönliches Interesse und Engagement zur kontinuierlichen Weiterentwicklung in neuen Technologien, wie z.B. Docker, Cloud Services (AWS), Hadoop, und Webentwicklung. Data, Science und Webentwicklung sind Themen, die ihn faszinieren und mit denen er sich identifiziert.

 

  • Referent zum Thema Zeitreihenanalyse und Portfoliooptimierung auf verschiedenen internationalen Konferenzen.
  • Tiefgehende Kenntnisse in der Anwendung von maschinellen Lernalgorithmen in Python.
  • Hands-on-Erfahrung in der Implementierung von analytischen Modellen als interaktive Webapplikation.
  • Praktische Projekterfahrung in der Implementation von Infrasturcture-as-Code (IaC) in AWS.

Kompetenzen

Kompetenzen

Aufgabenbereiche

Stakeholder management

Produkte / Standards / Erfahrungen / Methoden

Amazon Cloudformation
Amazon EC2
Amazon Web Service
Amazon Webservice
Anforderungsanalyse
Apache Server
AWS Lambda
AWS Stepfunctions
BMC Remedy
Cloud Computing
Confluence
CSS
Datenanalyse
Datenanalysen
Docker
elasticsearch
Hadoop Distributed File System
Hive
HTML
JBoss
JIRA
Jupyter Notebooks
LaTeX
Machine Learning
Mathematica
Microsoft Office
openshift
Palantir Foundry
Pandas (Python)
PyCharm
SAP HANA
SAP Lumira Designer
Scikit Learn (Python)
Scrum
SSH
Statistik
Talend
Texterkennung
tf-idf

Betriebssysteme

Debian
Microsoft Windows
RedHat
Windows Server

Programmiersprachen

Angular
D3-JavaScript
JavaScript
PL/SQL
PySpark
Python
R

Datenbanken

Amazon Aurora
amazon Redshift
Oracle
Oracle Exadata
Postgres
SQL

Branchen

Branchen

Versicherung,

Automotive,

Finanzdienstleistungen,

Telekommunikation,

Luft- und Raumfahrt

Vertrauen Sie auf GULP

Im Bereich Freelancing
Im Bereich Arbeitnehmerüberlassung / Personalvermittlung

Fragen?

Rufen Sie uns an +49 89 500316-300 oder schreiben Sie uns:

Das GULP Freelancer-Portal

Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.