Entwicklung einer (serverless Cloud) Anwendung zur Gene-Expressions Analyse
Aufgaben:
Entwicklung einer Pipeline zum Design von Antikörpern auf Basis eines GPU/CPU On-Premise Clusters
Aufgaben:
Entwicklung einer Pipeline zum High-Throughput (Small Molecule) Docking auf Basis einer serverless Cloud-Architektur
Aufgaben:
Entwicklung einer Pipeline zur Transformation und Anreicherung von Massenspektrometrie-Daten zur graph-basierten Analyse in der Cloud
Aufgaben:
Entwicklung einer Pipeline zur Transformation von Unternehmensdaten in das zentrale Data Backend einer Analytics/AI Anwendung
Ziel des Projekts ist die Neuimplementierung einer auf Stored Procedures basierten
Transformation großer Mengen an Rohdaten für die effiziente Verarbeitung durch eine Analytics Anwendung mit dem Ziel Unternehmensprozesse zu optimieren
Entwicklung/Anpassung von NiFi-Flows für den Data-Ingest aus dem Produktivsystem
Aufgabe war die Entwicklung diverser (statistischer) Reports zur Analyse des Online-Verhaltens von Kunden zur Unterstützung von Produktmanagement, Marketing und Vertrieb. Implementiert wurden Reports zur Analyse von A/B Tests, Vorher/Nachher Analysen der Kundenwertentwicklungsowie Funnel Analysen. Im Vordergrund stand die Berechnung von statistischen Signifikanzen sowie eine ansprechende Visualisierung der Ergebnisse.
Aufgaben:
Ziel des Projekts war die Ablösung von diversen, verteilten (z.T. eigen-entwickelten) Reporting-Lösungen einer stark wachsenden B2B E-Commerce Plattform durch ein zentrales Data Warehouse in Kombination mit Pentaho als Business Intelligence System.
Design, Implementierung und Integration (Front-To-Back) der neuen Komponnete in die Plattform
Generelle Wartung des Adserver Systems und Implementierung von Feature Requests
Entwicklung von Prozessen und Tools für Tracking und Analyse des Nutzerverhaltens zur Ermittlung der Performance von Werbekampagnen
Zertifizierungen
AWS Solution Architect ? Associate, 2018
Cloudera Certified Data Engineer (CCP), 2017
M101J: MongoDB for Java Developers, MongoDB University, 2016
M102: MongoDB for DBAs, MongoDB University, 2016
Pentaho Architect Bootcamp, Pentaho, 2013
Sun Certified Java Programmer (SCJP), 2010
Planung und Entwicklung robuster, skalierbarer Lösungen im Bereich Data Engineering, Data Science und Cloud Computing (Hadoop, Spark, Pentaho, AWS, Airflow).
Big Data / Data Science
Business Intelligence / Data Warehousing
Cloud Computing
Profil
IT-Skills
+++ (sehr gut), ++(gut), +(Grundkenntnisse vorhanden)
Hadoop +++
Spark +++
MongoDB +++
TensorFlow +
Scikit-Learn +++
NumPy ++
Pandas ++
Matplotlib ++
Jupyter ++
R +
Reporting +++
OLAP +++
Dashboards +++
Pentaho Business Analytics +++
Pentaho CTools +++
Data Modeling +++
Star-Schema +++
ETL +++
Data Lake +++
Pentaho Data Integration +++
SQL +++
Postgresql +++
MySQL ++
Hive +++
Impala +++
Redshift +++
Oracle +
DB2 +
Ansible +++
Docker ++
Jenkins +
Bash +++
Amazon Web Services +++
OOA /OOD /OOP +++
Design Patterns +++
Domain Driven Design +
Mircoservices +
REST Services +
Event Sourcing +
JUnit +++
Mockito ++
Hibernate ++
Spring +
Spring Boot +
Struts +
Wicket ++
RMI ++
Servlets ++
JSP ++
Tomcat ++
Eclipse +++
PyCharm ++
JSON +++
XML ++
Parquet +++
Avro +++
BitBucket ++
Git +++
SVN ++
CVS ++
Maven +++
Ant +
Scrum +++
Kanban ++
Confluence +++
Jira +++
Word ++
OpenOffice ++
Latex +
Entwicklung einer (serverless Cloud) Anwendung zur Gene-Expressions Analyse
Aufgaben:
Entwicklung einer Pipeline zum Design von Antikörpern auf Basis eines GPU/CPU On-Premise Clusters
Aufgaben:
Entwicklung einer Pipeline zum High-Throughput (Small Molecule) Docking auf Basis einer serverless Cloud-Architektur
Aufgaben:
Entwicklung einer Pipeline zur Transformation und Anreicherung von Massenspektrometrie-Daten zur graph-basierten Analyse in der Cloud
Aufgaben:
Entwicklung einer Pipeline zur Transformation von Unternehmensdaten in das zentrale Data Backend einer Analytics/AI Anwendung
Ziel des Projekts ist die Neuimplementierung einer auf Stored Procedures basierten
Transformation großer Mengen an Rohdaten für die effiziente Verarbeitung durch eine Analytics Anwendung mit dem Ziel Unternehmensprozesse zu optimieren
Entwicklung/Anpassung von NiFi-Flows für den Data-Ingest aus dem Produktivsystem
Aufgabe war die Entwicklung diverser (statistischer) Reports zur Analyse des Online-Verhaltens von Kunden zur Unterstützung von Produktmanagement, Marketing und Vertrieb. Implementiert wurden Reports zur Analyse von A/B Tests, Vorher/Nachher Analysen der Kundenwertentwicklungsowie Funnel Analysen. Im Vordergrund stand die Berechnung von statistischen Signifikanzen sowie eine ansprechende Visualisierung der Ergebnisse.
Aufgaben:
Ziel des Projekts war die Ablösung von diversen, verteilten (z.T. eigen-entwickelten) Reporting-Lösungen einer stark wachsenden B2B E-Commerce Plattform durch ein zentrales Data Warehouse in Kombination mit Pentaho als Business Intelligence System.
Design, Implementierung und Integration (Front-To-Back) der neuen Komponnete in die Plattform
Generelle Wartung des Adserver Systems und Implementierung von Feature Requests
Entwicklung von Prozessen und Tools für Tracking und Analyse des Nutzerverhaltens zur Ermittlung der Performance von Werbekampagnen
Zertifizierungen
AWS Solution Architect ? Associate, 2018
Cloudera Certified Data Engineer (CCP), 2017
M101J: MongoDB for Java Developers, MongoDB University, 2016
M102: MongoDB for DBAs, MongoDB University, 2016
Pentaho Architect Bootcamp, Pentaho, 2013
Sun Certified Java Programmer (SCJP), 2010
Planung und Entwicklung robuster, skalierbarer Lösungen im Bereich Data Engineering, Data Science und Cloud Computing (Hadoop, Spark, Pentaho, AWS, Airflow).
Big Data / Data Science
Business Intelligence / Data Warehousing
Cloud Computing
Profil
IT-Skills
+++ (sehr gut), ++(gut), +(Grundkenntnisse vorhanden)
Hadoop +++
Spark +++
MongoDB +++
TensorFlow +
Scikit-Learn +++
NumPy ++
Pandas ++
Matplotlib ++
Jupyter ++
R +
Reporting +++
OLAP +++
Dashboards +++
Pentaho Business Analytics +++
Pentaho CTools +++
Data Modeling +++
Star-Schema +++
ETL +++
Data Lake +++
Pentaho Data Integration +++
SQL +++
Postgresql +++
MySQL ++
Hive +++
Impala +++
Redshift +++
Oracle +
DB2 +
Ansible +++
Docker ++
Jenkins +
Bash +++
Amazon Web Services +++
OOA /OOD /OOP +++
Design Patterns +++
Domain Driven Design +
Mircoservices +
REST Services +
Event Sourcing +
JUnit +++
Mockito ++
Hibernate ++
Spring +
Spring Boot +
Struts +
Wicket ++
RMI ++
Servlets ++
JSP ++
Tomcat ++
Eclipse +++
PyCharm ++
JSON +++
XML ++
Parquet +++
Avro +++
BitBucket ++
Git +++
SVN ++
CVS ++
Maven +++
Ant +
Scrum +++
Kanban ++
Confluence +++
Jira +++
Word ++
OpenOffice ++
Latex +