Fachlicher Schwerpunkt dieses Freiberuflers

Integration von Plattformen, Frameworks und quantitativen Methoden in bestehende Infrastruktur: Erstberatung Projektmanagement Prototyping Implementie

verfügbar ab
20.07.2020
verfügbar zu
90 %
davon vor Ort
75 %
PLZ-Gebiet, Land

D0

D1

D2

D3

D4

D5

D6

D7

D8

D9

Österreich

Schweiz

Einsatzort unbestimmt

Städte
München
50 km
Remote-Einsatz
Remote jederzeit möglich

Projekte

01/2020 - 04/2020

4 Monate

IT - Diverses

Kunde
Consulting (IT, Big-Data, Analytics)
Projektinhalte
  • Buchführung und Jahresabschluss
  • Umfirmierung zur GmbH
  • Fachgutachter (GER) - O’Reilly: Datenvisualisierung - Grundlagen & Praxis - Wilke
  • Prüfer (IT) bei IHK München und Oberbayern
  • Hard- und Softwareevaluation (NixOS, nix-shell, Ubuntu, macOS )
  • Desktop-Setup Windows 10 , Linux NixOS & Ubuntu + nix (LVM)
  • Weiterbildung (u.a. Zertifizierung, Workshop, Meetup)
Kenntnisse

Scrum

06/2019 - 12/2019

7 Monate

Telematic - Stabilisierungsphase Operations

Rolle
Data Analyst
Kunde
Versicherung
Projektinhalte
  • Fehlerbilderkennung für den Kundenservice
  • Datenanalyse, Fehlersuche

Erfolg

  • Bereitstellung Kundenservice - Cockpit/ Dashboard
  • IT-Infrastruktur, Docker und Domino Lab Beratung
Kenntnisse

Jupyter Lab

Impala

Spark (PySpark; Spark-SQL)

Domino Data Lab (Docker)

Hadoop (cloudera cdh)

PyCharm

Python ( HTML5; CSS3)

01/2019 - 05/2019

5 Monate

Telematic - Testing

Rolle
Tester (Data Analyst, Data Engineer, Data Architect)
Kunde
Versicherung
Projektinhalte
  • Testautomatisierung Fahrt-Bewertungsmodell (End-to-End Test)
  • Manuelles Monitoring
  • Datenanalyse, Fehlersuche
  • Testing Trip-Bewertungsmodule
  • Cluster/ Infrastruktur/Data Redundanz-Evaluation (Linux, pip)

Erfolg

  • Fehlerindikation bzgl. des Trip-Bewertungsmodul
Kenntnisse

Hadoop (cloudera cdh)

Python

PySpark

Spark-SQL

Jupyter

Impala

Spark

PyCharm

06/2018 - 12/2018

7 Monate

Telematic - Data Analysis

Rolle
Data Analyst, Data Engineer
Kunde
Versicherung
Projektinhalte
  • Datenabgleich & -analyse bzgl. gelieferter Fahrten (Supplier-Reports vs interne Logs vs. Impala-Table)
  • Prüfen und validieren des Datenbank-Schemas bzw. des Inhalts (Impala)
  • Automatisierte (Daten-)Qualitätssicherung ( Excel-Export/ Report )
  • Trips Einzelfall Überprüfung (Transfer, DB, App-View)
  • Regex-Pattern zur json-Validierung (Swagger/ OpenApi)
  • Erweiterung des OpenAPI Spezifikaions-Jsons
  • Beratung IT-Infrastruktur (Python, Docker, Impala-DB)
  • Unterstützung der Kollegen bei daten-relevanten Fragestellungen (div. Themenfelder/ Sprachen)
  • Unterstützung des Senior Big Data Solution Architect Lead bzgl. Data-Managment
  • IT & Prozess Coaching
  • Übergreifende Arbeit mit DB (Impala), Spark, HDFS, Linux POSIX, Bash-shell, OpenApi , Python

Erfolg:

  • Darlegen von Fehlern des externen Datenlieferanten
  • Aufzeigen von Optimierungspotential des Data-Managements/ETLs
  • Table & View Erstellung zur Datenbereinigung und Ergänzung sowie zum Reporting (von externen Daten)
  • Erzeugung eines Swagger Schemas für das API (Data Input)
Kenntnisse

Windows 7

MobaXterm (Cygwin) Hadoop

Python

Scala

Impala

HBase

Jupyter

Spark (PySpark; Spark-SQL; spark-shell)

OpenAPI (Swagger)

osm

overpass

MS-Excel 2013

01/2018 - 03/2018

3 Monate

Data Science - Infrastruktur (intern)

Rolle
Data Scientist
Kunde
auf Anfrage
Projektinhalte
  • Hard- und Softwareevaluation (OS, Visualisierung, Packagemanager)
  • Aufbau einer neuen Arbeitsumgebung (Ubuntu-Budgie, Nix package manager, conda, NixOS [VM]
  • Aufbau eines multifunktionalen Docker-Containers:
    • Jupyter Notebook [Python, R]
Kenntnisse

Linux (Ubuntu-Budgie

NixOS)

Docker

Nix package manager

Conda

Python

Jupyter ( IPython )

R

VScode

09/2017 - 10/2017

2 Monate

aCRM - Data Science

Rolle
Consultant Data Analytics & Customer Insights
Kunde
deutscher Lebensmittelhändler
Projektinhalte
  • Klassifikation von Kunden
  • Unterstützung von Kollegen (u.a. in R, SQL, DWH-Datenstruktur, Knime)

Erfolg:

  • B2B Klassifikation
  • B2C-Wiederkäufer Klassifikation und „TOP-A-B“-Klassifikation
  • Uplift Analyse bzgl. zwei verschiedener Provider der Warenauslieferung
  • Analyse des stationären Verhaltens von PayBack-Newsletterabonnenten zu nicht NL-Abonnenten
  • Evaluation eines KNIME Workflows Prototypen zur Klassifizierung von B2B Kunden
Kenntnisse

Linux Ubuntu (VM)

Windows 10 (VM)

R 3.3

RStudio

Teradata 15.10

Teradata Studio 16

KNIME 3.x

VScode

MS-Excel

Google drive / docs

Jira

Confluence

05/2017 - 06/2017

2 Monate

Data Science Zertifizierung (intern)

Rolle
Data Scientist
Kunde
auf Anfrage
Projektinhalte
  • Co-Autor der CeLS Data Scientist Zertifizierung in Bronze, Silber und Gold
Kenntnisse

Linux Ubuntu (VM)

Conda

Python

Jupyter (IPython)

R

RStudio

PostgreSQL

pgAdmin

VScode

Cron

04/2017 - 06/2017

3 Monate

internes Projekt

Rolle
Entrepreneur & Web Developer
Kunde
auf Anfrage
Projektinhalte
  • Unternehmensgründung
    • Evaluation von Rechtsformen
    • Gründung einer UG und Aufbau eines Netzwerkes
    • Konzeption u.a. von Firma, Logo und Homepage
Kenntnisse

Microsoft Azure

Linux Ubuntu (VM)

JavaScript

HTML

CSS

Bootstrap

Bash

RegEx

VScode

Git

inkscape

LaTeX

01/2016 - 10/2016

10 Monate

aCRM

Rolle
Data Scientist (Inhouse Consultant)
Kunde
MS E-Business Concepts & Service GmbH/ redblue Marketing GmbH
Projektinhalte
  • Verantwortung und Betreuung der Landesgesellschaften für Schweden, Polen undUngarn
  • Erstellung eines Retourenheuristik (SQL-Tempalte)
  • Erstellung eines Fraud-Report-Prototypen (SQL, Excel)
  • Ansprechpartner für Fragen bzgl. Teradata-DB und SQL
  • Kontinuierlich Verbesserung bestehender Algorithmen und Systeme
  • Data Scientist für Schweden [, Polen und Ungarn]
  • Erbringung Customer Analytics und Customer Insights basierter Beratungsdienstleistungen(u.a. Data Audit) bei der Betreuung von Landesgesellschaften (Schweden, Deutschland, Italien) zur Erstellung und Optimierung von Loyaltyprogrammen
  • Unterstützung der Landesgesellschaft Deutschland bzw. Niederlande bzgl. Ad-Hoc Auswertungen (Zielgruppenanalysen) und Präsentation der Ergebnisse sowie Markt-Reporting
  • Newletter A/B-Testing


Erfolg

  • Aufzeigen von Datenqualitätsthemen
  • Erstellung von strukturierten, abhängigen SQL-Statements anstatt isolierten Queries
  • Erfolgreiche Adaption, Implementierung und Optimierung des SPSS-Job-Templates gemäß den schwedischen Bedürfnissen, welches produktiv für Schweden, Griechenland und Deutschland eingesetzt wurde
  • Code Optimierung und Performance Tuning
Kenntnisse

Teradata SQL Assistant (Teradata 15)

IBM SPSS Modeler 16

IBM SPSS Statistics 22

R

Python 2

PowerShell 5

Notepad++

RegEx

SAP-BO BI WebI 4

Jira

Confluence

emarsys

10/2014 - 12/2015

1 Jahr 3 Monate

IT-Service-/Application-Management

Rolle
Inhouse IT-Consultant (Applikationsmanagement gemäß ITIL), Entwi
Kunde
Woodmark Consulting AG
Projektinhalte
  • 2nd und 3rd Level Support (low, medium, high, critical Tickets) im Vertriebscontrolling für Frontends, ETL und DB/ Server
  • ETL - Wartung

Erfolg

  • Etablierung eines wöchentlichen internen Wissensaustausches
  • Nachvollziehbare Dokumentation von Lösungen zu Incidents
  • Steigerung erfolgreich bearbeiteter Tickets auf über 200%
  • Erfolgreiche Übergabe des Applikationsbetriebs an einen indischen IT-Dienstleister
Kenntnisse

Oracle Sql Developer (Oracle 11g)

Informatica PowerCenter 9

Oracle Essbase (MaxL)

Cognos 8

SAP Crystal Reports 2008

SAP-BO XI / BI

MS-Visio

BMC ITSM Suite

HP-ALM

Citrix

Microsoft Remote Desktop

WinSCP

PuTTY

Windows

Unix-Shell

Kompetenzen

Sprachkenntnisse
Deutsch
Muttersprache
Englisch
B2 / C1
Katalan
A1
Spanisch
B1

Programmiersprachen
Bash-Shell
HiveQL
Java (SE)
LATEX
NoSQL
CQL, Cypher
Powershell
Python
R
Regular Expressions (RegEx)
SQL
Oracle, Teradata, PostgreSQL
Zsh-Shell

Datenbanken
Cassandra
MongoDB
MS-Access
MySQL/MariaDB
neo4j
Oracle Essbase
OracleDB
PostgreSQL
Teradata

Produkte / Standards / Erfahrungen
Administration von Linux Servern
Apache Spark
Big-Data Analytics
BMC ITSM Suite
Citrix
Cognos
8
Cron
Crystal Reports
Domino Data Lab
Excel
HDFS
HP-ALM
Informatica PowerCenter
9
Jupyter
Jupyter ( IPython ) R
Jupyter Lab
Microsoft Remote Desktop
MobaXterm
pgAdmin
PyCharm
RStudio PostgreSQL
SAP-BO XI / BI
VScode
WinSCP

Applikationen:

  • Jupyter Notebook
  • Rstudio
  • Domino Data Lab
  • Impala
  • Spark
  • Spark (pySpark: SQL, Streaming)
  • Hive
  • OpenAPI (Swagger)
  • IBM
    SPSS-Modeler
  • Informatica PowerCenter

Infrastruktur:

  • Docker
  • Apache Hadoop (Cloudera, MapR)
  • Microsoft Azure (ML)
  • Amazon Web Services (AWS)
  • Databricks Delta Lake

Web Development:

  • HTML
  • CSS
  • npm
  • Bootstrap
  • http/2

Methoden:

  • Explorative und deskriptive Analyse
  • Supervised Learning
  • Unsupervised Learning
  • Scrum
  • A/B-Testing
  • Natural Language Processing (NLP)
  • Web-Scraping
  • Deep Learning (Artificial Neural Network)
  • Test Driven Development (TDD)

IDE:

  • PyCharm
  • VScode
  • Rstudio
  • Atom


Virtualisierung:

  • VirtualBox
  • Vagrant


Packagemanager:

  • conda
  • pip
  • nix package manager


Versionierung:

  • git


Prozess-Tools:

  • JIRA
  • Confluence
  • BMC ITSM Suite
  • HP-ALM


Netzwerk-Tools:

  • WinSCP
  • PuTTY
  • FileZilla
  • Microsoft Remote Desktop


Sonstige-Tools:

  • MS-Excel, Visio, Project
  • SAP-BO BI WebI
  • Oracle Essbase
  • Cognos


File-Formate:

  • json
  • xml
  • xlsx
  • csv
  • hdfs

Auslandsaufenthalte:

10/2015 - 11/2015

Indien: Telangana & Andhra Pradesh

  • Weiterbildung und Kulturreise 

08/2013 - 05/2014

Spanien: Barcelona

  • ERASMUS Auslandsstudium 

07/2007 - 07/2008
Neuseeland und Australien (East Coast)

  • Work and Travel 

Beruflicher Werdegang:

03/2017 - heute

Firma: Analytics Endeavor GmbH - Data Scientist München

Position: Data Scientist, Interim/Project Manager

  • Data Mining – Advanced Analytics 

01/2016 - 10/2016:

Firma: Media-Saturn E-Business Concepts & Service GmbH München

Position: Consultant: Data Science 

  • Customer Analytics & Customer Insights, aCRM, Loyalty & Campaign Consulting
    • Data Audit , Loyalty-Programm-Newsletter in Schweden , A/B-Test
    • Report für Media-Märkte: RFM, segmentbezogene bzw. soziodemographische Auswertung

10/2014 - 12/2015:

Firma: Woodmark Consulting AG Grasbrunn

Position: Consultant: Financial Services IT-Support und Wartung 

  • IT-Beratung (Reporting), IT-Service-/Application-Management 
    • Financial Tower Betrieb: 2nd & 3rd Level Support – low, medium, high, critical Tickets
    • Interne Projekte: Outsourcing , Prozessoptimierung , Wartungsmaßnahmen , Knowledge-Transfer

Hardware
Teradata

Datenkommunikation
osm
PuTTY
Swagger
OpenAPI

Betriebssysteme
Linux
Ubuntu , NixOS, CentOS
Windows

Design / Entwicklung / Konstruktion
CSS
HTML(5)
Scrum

Bemerkungen

Ehrenamtliche Tätigkeiten und Teilnahme an verschiedenen Veranstaltungen (nähere Informationen gerne auf Anfrage)


Ausbildungshistorie

10/2008 - 08/2013

Studium - Business Administration

Friedrich-Schiller-Universität, Jena

  • Studienschwerpunkt: „Decision and Risk“

Abschluss: Bachelor und Master of Science

Externe Trainingskurse:

2020

  • Datenschutzbeauftragter (TÜV) - DSGVO & BDGS 
  • Professional Scrum Master I (PSM I) 
  • Professional Scrum Product Owner I (PSPO I) 
  • PRINCE2 R Agile Practitioner 
  • PRINCE2 R Agile Foundation 

2017
Java SE 6 Programmer - Oracle Certified Professional (OCPJP) - J2SE 

2015

  • Cloudera Developer for Apache Hadoop MapReduce
  • Informatica PowerCenter 9.x - Developer 1 

2014

ITIL V3 Foundation 

2011
Business Associate with SAP ERP 6.0 

Weitere Trainings/ online classes:

2020

  • Databricks - Spark , Delta Lake
  • Neo4j Certified Professional
  • Apache Cassandra 3.x Developer Associate - Datastax 

2018

MongoDB Academy: MongoDB Atlas , Performance , Aggregations 

2016
SAP Business Objects – Web Intelligence 

2015

  • MapR Academy: Administrator, Developer & Data Analyst
  • Tableau Desktop (On Demand) 

Softskill-Trainings:

2018
IHK Ausbildung der Ausbilder (AdA)

Berufs- und Arbeitspädagogische Eignung AEVO 

2013
Methoden und Prinzipien erfolgreicher Gesprächsführung