Fachlicher Schwerpunkt dieses Freiberuflers

Senior Full Stack und DevOps Entwickler (Frontend, Backend, Datenbank), Python/Java/React , Docker, Kubernetes, Openshift, Data Engineering

verfügbar ab
20.01.2020
verfügbar zu
95 %
davon vor Ort
100 %
PLZ-Gebiet, Land

D0

D1

D2

D3

D4

D5

D6

D7

D8

D9

Österreich

Schweiz

Einsatzort unbestimmt

Position

Kommentar
  • Fullstack Entwicklung: Backend, Frontend, Database
  • Cloud Architekturen
  • Container Lösungen: Docker, Docker Swarm, Kubernetes, Openshift
  • Continuous Integration/ Continuous Delivery
  • predictive Machine Learning
  • Business Analytics

Projekte

07/2018 - Heute

1 Jahr 5 Monate

Entwicklung einer Saas Plattform

Rolle
Architekt/Entwickler
Kunde
Nukapi, Saas
Einsatzort
Aachen/Düsseldorf
Projektinhalte

Entwicklung eines Saas Produkts. Angeboten werden managed PostgreSql Instanzen

  • Openshift/Kubernetes, Docker, docker-compose, Python, SQL, Flask, Django, Django-Rest-Framework
  • Terraform, Ansible, PostgreSQL
  • Continuous Integration/Continuous Delivery (CI/CD), Github, Gitlab
  • AWS, DigitalOcean, Linux, Elasticsearch,Kibana, Logstash, ELK
Kenntnisse

Openshift

Microservice Architektur

Prometheus

DevOps

React

Python

Django

09/2019 - 01/2020

5 Monate

Server-Entwicklung mit Python und HTML/Javascript

Kunde
Techem Energy Services
Projektinhalte
  • Server-Entwicklung mit Python und HTML/Javascript
  • Frontend-Entwicklung für einen IoT Infrastruktur Leitstand, dessen Zweck die Steuerung und Überwachung von smarten und drahtlosen Energie Sensoren ist, die den Energieverbrauch von Endkunden messen
Produkte

Python

Django

Javascript

Numpy

PostgreSql

RabbitMq

MQTT

IoT

Docker

07/2019 - 09/2019

3 Monate

Textsysteme für Versicherungen und Banken

Kunde
semantics Kommunikationsmanagement GmbH
Projektinhalte
  • Server-Entwicklung in Python und Client-Entwicklung in React für das Produkt Corporate Library
  • Weiter Entwicklung der Container Infrastruktur und des relationalen Datenmodells
Produkte

Python

CherryPy

React

MsSql

MText Format

10/2018 - 06/2019

9 Monate

Named Entity Recognition (NER) im Bereich Media Monitoring

Rolle
Entwickler
Kunde
pressrelations GmbH
Einsatzort
Düsseldorf
Projektinhalte

Die pressrelations GmbH ist der führende Mediamonitoring Anbieter in Deutschland im Bereich der Online Medien Beobachtung. Die Natural Language Processing Pipeline der pressrelations GmbH verarbeitet mehr als 1 Millionen News Artikel pro Tag. Ein Teil dieser Pipeline ist die sog. Named Entity Recognition (NER). 

Ziel des Projektes war zum einen die Verbesserung der Erkennungsgüte bei Einhaltung des verfügbaren CPU und Speicher Budgets. Zum anderen sollte eine unmittelbares Anpassen des Verhaltens der NER ohne aufwendiges Neu Trainieren der verwendeten Modelle möglich gemacht werden.

 

Erreicht wurde dieses Ziel unter Verwendung eines hybriden Ansatzes: ein trainiertes neurales Netz in Kombination mit semi automatisch erzeugten Wortlisten unter Verwendung des sog. Aho–Corasick Algorithmus. Das neuronale Netz wurde auf einer großen annotierten Menge von News Artikeln trainert und lieferte eine gute Erkennungsrate, während die Verwendung der Wortlisten eine einfache und schnelle Anpassung an speziellen Themen Bereiche ermöglicht.

Kenntnisse

Machine Learning

Data Analysis

Produkte

Python

scikit-learn

TensorFlow

Ruby/Rails

02/2019 - 04/2019

3 Monate

Web-Crawler

Rolle
Software-Entwickler/Architekt
Kunde
schnupperkurs.media GmbH
Einsatzort
Düsseldorf
Projektinhalte

Entwicklung eines Web Crawlers auf Basis von Selenium und headless Chrome. Mithilfe des Crawlers werde die Daten über Sportkurse für das Portal erzeugt.

  • Kubernetes, Docker, docker-compose, Python, Selenium, headless Chrome
  • Continuous Integration/Continuous Delivery (CI/CD), Github, Gitlab
  • AWS, DigitalOcean, Terraform
Kenntnisse

Kubernetes

Docker

Selenium

Python

Web Scraper

AWS

01/2016 - 09/2017

1 Jahr 9 Monate

Mediamonitoring

Rolle
Software-Entwickler. R&D
Kunde
pressrelations GmBH
Einsatzort
Düsseldorf
Projektinhalte

Forschungs Kooperation mit der Heinrich Heine Universität (AGENT) und Entwicklung im Bereich Natural Language Processing / Machine Learning Module für die Web Crawling Pipeline von pressrelations.

  • Machine Learning und Natural Language Processing (NLP), DeepLearning, Convolutional neural networks (CNN), Recurrent neural networks (RNN, LSTM)
  • Logistische Regression, Dimensionality reduction, Principal Component Analysis (PCA)
  • TF/IDF, Word2Vec, Fasttext, Word Embeddings, Support Vector Machines (SVM), Decision Trees
  • Agile Entwicklung, SCRUM
  • scikit-learn, tensorflow, xgboost, spacy, nltk, pandas, numpy, scipy, MongoDB
  • shell, Linux, Bash,AWS, Jira
  • Elasticsearch,Kibana, Logstash, ELK, MsSql, GraphQl, Python,Cython, Ruby On Rails, React, Angular, Docker, docker-compose, Apache Mesos, Git, PyUnit, SQL, PostgreSQL, Flask
  • Publikation: Auf Anfrage
Kenntnisse

Machine Learning

Data Analysis

Produkte

Python

scikit-learn

TensorFlow

Ruby/Rails

01/2015 - 11/2015

11 Monate

Navigationssysteme im automotive Bereich

Rolle
Software-Entwickler
Kunde
Klebert Engineering
Einsatzort
Germering, Oberbayern
Projektinhalte

Das Inspektionstool "Database-Inspector" für den Navigation Data Standard wurde weiterentwickelt. 

  • Integration von pugixml um effizient XPath Queries auf den hierarchisch organiserten Navigations Daten ausführen zu können
  • Implementierung einer OpenGL basierten Visualisierung der in den Navigationsdaten eingebetten 3D Modelle
  • Implementierung einer CI Pipeline basierend auf Teamcity von Jetbrains
  • Zielsysteme waren Windows und Linux

Softwareentwicklung für die Automobilindustrie in  einem Team von 4 Personen. Daten Inspektions Tool für Daten im  Navigation Data Standard (NDS) Format

  • Cross-Platform Development (Windows, Linux, Android)
Kenntnisse

C++

Qt5

XPath

OpenGL

Scrum

Continuous Integration

Produkte

Linux

Bash

Ubuntu/Debian

QTTest

Jira

Shell

Teamcity

CI/CD

Git

Java

SQLite

QTCreator

01/2011 - 01/2015

4 Jahre 1 Monat

JavaEE Telefonie Backend

Rolle
Softwareentwickler
Kunde
sipgate GmbH
Einsatzort
Düsseldorf
Projektinhalte

2014 - 2015: Data Science/Business Analytics

Als Teil von Teams von 2-6 Personen erarbeitete ich Lösungen im Bereich der Datenanalyse bzw. Produktanalyse.

  • Entwicklung von KPIs, Cohort Analysis, Google Analytics, R, RStudio, Python, Pandas, Numpy, PHP, Zählpixel/Web beacon, Javascript, HTML5, Git
  • Data Warehouse, MongoDB
  • Agile Entwicklung, SCRUM

 

2011 - 2014: Softwareentwicklung

Zu Beginn meiner Tätigkeit bei sipgate arbeitete ich an den verteilten Systemen in Scrum-Teams von 6-10 Personen. Die Entwicklung erfolgte sowohl im Bereich des Backends als auch im Frontend.

  • J2EE, Java, PHP, JavaScript
  • Voip Komponenten (HLR, SMSC, Asterisk,...) in C/C++.
  • Shell, Python, Java SE, Jenkins
  • Python, SciPy, Git, Jira
  • Unit Testing, Junit, Selenium
  • Agile Entwicklung, SCRUM
Kenntnisse

Scrum

JBoss

JavaEE

PHP

Scipy

01/2014 - 12/2014

1 Jahr

Implementierung Cohort Analytics für Kundenverhalten

Rolle
Software-Entwickler und Architekt
Kunde
sipgate GmbH
Einsatzort
Düsseldorf
Projektinhalte
  • Entwicklung von aussagekräftigen Kennzahlen um Entscheidungen auf der Ebene der Produktentwicklung belastbar und schnell zu bewerten
  • Implementierung der automatisierten Erstellung der Kennzahlen in R und Python
  • Bewertung der Kennzahlen und der damit verbundenen Produkt Entscheidungen
  • Identifikation fehlender Daten und Anpassung der Software und Infrastruktur um diese zu erheben
  • Präsentation der Ergebnisse in Entwicklungsteams um Entscheidungs- und Lernprozesse  zu unterstützen
  • Definition und Implementierung einer Data Warehouse Infrastruktur
Kenntnisse

Scrum

RStudio

R

Linux Apache MySQL PHP

Python

Scipy

Numpy

Pandas

01/2010 - 01/2011

1 Jahr 1 Monat

Online Browser Spiele

Rolle
Softwareentwickler
Kunde
Goodgame Studios
Einsatzort
Hamburg
Projektinhalte
  • Bei Goodgame Studios habe ich in kleinen Teams von 2 Personen gearbeitet und die Anforderungen der Spiel Designer umgesetzt
  • Ich war verantwortlich für das Java Backend
Kenntnisse

JavaSE Backend

01/2008 - 12/2010

3 Jahre

KI-Middleware für Video Spiele

Rolle
Softwareentwickler
Kunde
Artificial Technology GmbH
Einsatzort
Puchheim, Oberbayern
Projektinhalte

Die Artificial Technology GmbH war ein Anbieter für künstliche Intelligenz Lösungen für Computerspiele. 

  • die Evaluierung von Ansätzen zur Integration der von Artificial Technology entwickelten KI-Middleware in die BigWorld Technologie (www.bigworldtech.com)
  • prototypische Implementierung verschiedener Wegfindungsalgorithmen
  • Modellierung und prototypische Implementierung von Emotions Systemen für Computergesteuerte Charaktere

Entwicklung einer KI Middleware für Videospiele. Team von 6 Personen.

  • Pathfinding for Videogames
  • A* Algorithm, künstliche Intelligenz für Videospiele
Kenntnisse

C++

Java

Lua

SVN

Projekthistorie

2007 - 2008: Flughafen Simulationen

Kunde: Airport Research Center in Aachen

Aufgaben:

  • Als studentische Hilfskraft arbeitete ich am Airport Research Center als Delphi- und Java-Entwickler

Eingesetzte Technologien:

Delphi, GUI Development, Java, Netbeans, Java Swing

Kompetenzen

Programmiersprachen
bash
C++
Java
JavaEE
JavaSE
PHP
Python
R
React
Ruby/Rails

Datenbanken
MongoDB
MSSQLServer
MySQL
PostgreSQL
SQLite

Sprachkenntnisse
Deutsch
Muttersprache
Englisch
fließend
Farsi

Betriebssysteme
Linux
MacOS
Windows

Berechnung / Simulation / Versuch / Validierung
Business Analytics
Data Analysis
Machine Learning
Natural Language Processing
Sentiment Analysis

Produkte / Standards / Erfahrungen
AWS
Azure
Beratung
Cloud
Continuous Integration
DevOps
Django
Docker
Docker Swarm
Flask
Git
GitHub
GitLab
integration testing
JBoss
Jenkins
JUnit
Kubernetes
Künstliche Intelligenz
Linux Apache MySQL PHP
Microsoft VisualStudio
nginx
NLTK
Numpy
OpenGL
Openshift
Pandas
Prometheus
PyUnit
Qt
Qt5
RabbitMQ
REST
RStudio
scikit-learn
Scipy
Scrum
Selenium
Spacy
Teamcity
TensorFlow
Terraform
Unit Testing
Web Scraper
XPath

Auf einen Blick: 

  • +10 Jahre Erfahrung in der Softwareentwicklung
  • Full-Stack Entwicklung: Backend + Frontend + Datenbank + DevOps
  • Datenanalyse und Machine Learning
  • Cloud Expertise: AWS, Digitalocean

Beruflicher Werdegang:

2019 - heute

Kunde: semantics Kommunikationsmanagement GmbH

 

Aufgaben:

  • Textsysteme für Versicherungen und Banken
  • Server-Entwicklung in Python und Client-Entwicklung in React für das Produkt Corporate Library betraut. Weiter Entwicklung der Container Infrastruktur und des relationalen Datenmodells.

Tools:

Python, CherryPy, React, MsSql, MText Format

 

2019 - heute

Kunde: schnupperkurs.media GmbH in Düsseldorf, Webportal

 

Aufgaben:

Entwicklung eines Web Crawlers auf Basis von Selenium und headless Chrome. Mithilfe des Crawlers werde die Daten über Sportkurse für das Portal erzeugt.

  • Kubernetes, Docker, docker-compose, Python, Selenium, headless Chrome
  • Continuous Integration/Continuous Delivery (CI/CD), Github, Gitlab

Tools:

AWS, DigitalOcean

2018 - heute

 

Aufgaben:

  • Nukapi, Saas: managed PostgreSQL
  • Entwicklung eines Saas Produkts. Angeboten werden managed PostgreSql Instanzen
    • Openshift/Kubernetes, Docker, docker-compose, Python, SQL, Flask, Django, Django-Rest-Framework
    • Terraform, Ansible, PostgreSQL
    • Continuous Integration/Continuous Delivery (CI/CD), Github, Gitlab

Tools:

AWS, DigitalOcean, Linux

2016 - 2019

Kunde: pressrelations in Düsseldorf

 

Aufgaben:

  • Mediamonitoring
  • Forschungs Kooperation mit der Heinrich Heine Universität (AGENT) und Entwicklung im Bereich Natural Language Processing / Machine Learning Module für die Web Crawling Pipeline von pressrelations.
    • Machine Learning und Natural Language Processing (NLP), DeepLearning, Convolutional neural networks (CNN), Recurrent neural networks (RNN, LSTM)
    • Logistische Regression, Dimensionality reduction, Principal Component Analysis (PCA)
    • TF/IDF, Word2Vec, Fasttext, Word Embeddings, Support Vector Machines (SVM), Decision Trees
    • Agile Entwicklung, SCRUM

Tools:

scikit-learn, tensorflow, xgboost, spacy, nltk, pandas, numpy, scipy, shell, Linux, Bash, Elasticsearch, MsSql, GraphQl, Python,Cython, Ruby On Rails, React, Angular, Docker, docker-compose, Apache Mesos, Git, PyUnit, SQL, PostgreSQL, Flask

2015 - 2016

Aufgaben:

  • Klebert Engineering in  Germering, Navigationssysteme im automotive Bereich
  • Softwareentwicklung für die Automobil Industrie in  einem Team von 4 Personen. Dateninspektions Tool für Daten im  Navigation Data Standard (NDS) Format

Tools:

C++, QT5, QTCreator, XPath, OpenGl, Teamcity, CI/CD, Git, Java, SQLite, Shell, Linux, Bash, Ubuntu/Debian, QTTest, Cross-Platform Development (Windows, Linux, Android)

2011 - 2015

Kunde: Sipgate in  Düsseldorf, Telekommunikation

2014 - 2015

Kunde: Data Science/Business Analytics

 

Aufgaben:

  • Als Teil von Teams von 2-6 Personen erarbeitete ich Lösungen im Bereich der Datenanalyse bzw. Produktanalyse.
  • Entwicklung von KPIs, Cohort Analysis, Google Analytics, R, RStudio, Python, Pandas, Numpy, PHP, Zählpixel/Web beacon, Javascript, HTML5, Git

Tools:

Data Warehouse, MongoDB, Agile Entwicklung, SCRUM

 

2011 - 2014

 

Aufgaben:

  • Softwareentwicklung
  • Zu Beginn meiner Tätigkeit bei sipgate arbeitete ich an den verteilten Systemen in Scrum-Teams von 6-10 Personen. Die Entwicklung erfolgte sowohl im Bereich des Backends als auch im Frontend.

Tools:

J2EE, Java, PHP, JavaScript, Voip Komponenten (HLR, SMSC, Asterisk,...) in C/C++, Shell, Python, Java SE, Jenkins, Python, SciPy, Git, Unit Testing, Junit, Selenium, Agile Entwicklung, SCRUM

2010 - 2011

Kunde: Goodgame Studios in Hamburg

Aufgaben:

  • Online Browser Spiele
  • Bei Goodgame Studios habe ich in kleinen Teams von 2 Personen gearbeitet und die Anforderungen der Spiel Designer umgesetzt. Ich war verantwortlich für das Java Backend.

Tools:

JavaSE Backend

2008 - 2010

Kunde: Artificial Technology in Puchheim bei München

 

Aufgaben:

  • KI-Middleware für Video Spiele
  • Entwicklung einer KI Middleware für Videospiele. Team von 6 Personen.
    • Pathfinding for Videogames
    • A* Algorithm, künstliche Intelligenz für Videospiele

Tools:

C++, Java, Lua, SVN

2007 - 2008

Kunde: Airport Research Center in Aachen

 

Aufgaben:

  • Flughafen Simulationen
  • Als studentische Hilfskraft arbeitete ich am Airport Research Center als Delphi- und Java-Entwickler.

Tools:

Delphi, GUI Development, Java, Netbeans, Java Swing


Schwerpunkte
Microservice Architektur

Bemerkungen

Publikationen gerne auf Anfrage.


Ausbildungshistorie

2001 - 2008

Ausbildung: Unvollendetes Studium der Informatik

2001

Institution: Aachen am Geschwister Scholl Gymnasium

Abschluss: Abitur

Fortbildungen:

Agile Developer Skills, ISTQB Certified Tester, Machine Learning und Data Analysis/Big Data (insb. Hadoop/Spark)