Software Entwickler, Python Programmierung, Machine Learning, KI Anwendungen
Aktualisiert am 14.04.2025
Profil
Freiberufler / Selbstständiger
Remote-Arbeit
Verfügbar ab: 21.04.2025
Verfügbar zu: 100%
davon vor Ort: 70%
Python
Data Engineer
Machine Learning
Deep Reinforcement Learning
Deep Learning
RAG
Back-End
ETL
TensorFlow
Softwarearchitektur
Microservices
Deutsch
Muttersprache
Englisch
C1

Einsatzorte

Einsatzorte

Bonn (+200km) Köln (+200km) Düsseldorf (+200km) München (+200km)
Deutschland, Schweiz, Österreich
möglich

Projekte

Projekte

3 Monate
2025-01 - 2025-03

GraphRAG - Semantische Graphen-Datenbank für politische Reden und Interviews

Data Engineer / Software Entwickler Python AI NLP ...
Data Engineer / Software Entwickler
  • Um politische Reden und Interviews semantisch durchsuchbar zu machen, habe ich eine Graphdatenbank entwickelt, die es ermöglicht, semantische Abfragen auf politische Reden und Interviews durchzuführen. Die Datenbank wurde mit Reden und Interviews aus verschiedenen Quellen gefüllt, indem zunächst eine Transkription und Sprechererkennung durchgeführt wurde und anschließend die semantischen Informationen in Form von Vektor-Embeddings in der Datenbank gespeichert wurden. Die Datenbank wurde mit einem Chatbot erweitert, der es ermöglicht, Fragen über die Aussagen von Politikern zu stellen. Als Antwort erhält der Nutzer die relevanten Aussagen und die Quelle, aus der die Information stammt. 
  • Die Datenbank enthält zusätzlich Informationen darüber, wer an welcher Stelle im Gespräch gesprochen hat, um die Aussagen den richtigen Personen zuordnen zu können, sowie welche Personen an Events teilgenommen haben. Die Zuordnung der Namen zu bestimmten Sprechern aus dem Audiomaterial wurde durch ein KI-Modell durchgeführt, welches Vektor Embeddings generiert die zusammen mit der Transkription abgespeichert werden. Durch die Identifikation und die Annotation eines Namen für einen Sprecher in einem einzigen Audio-Clip konnte so der Name an alle Sprecher mit ähnlichen Vektor-Embeddings propagiert werden.
Python Neo4j AWS huggingface transformers
Python AI NLP AWS Back-End RAG Machine Learning Graphdatenbanken Audio Transkription Cloud Frontend Vektordatenbanken
IT - Künstliche Intelligenz
1 Jahr
2024-01 - 2024-12

Reverse Image Search / Pipeline und Web Applikation

Software Entwickler Python AI Vektor Datenbanken ...
Software Entwickler
  • Dieses Projekt zielte darauf ab, eine skalierbare Pipeline zur Indexierung von Bildern aus unterschiedlichen Datenquellen und zur Durchführung einer Ähnlichkeitssuche zu entwickeln. Für die Nutzer ist es möglich, Datensätze zu erstellen und Bilder aus AWS S3, GCP oder anderen Quellen zu importieren und zu indexieren. Die Import Jobs werden durch Apache Airflow orchestriert und können sowohl auf lokalen Servern direkt durch Worker abgearbeitet werden oder an den Cloud Service AWS Batch weitergeleitet werden, um eine On Demand Skalierbarkeit zu gewährleisten. 
  • Das Projekt besteht aus zwei Systemen: Ein Backend Service, entwickelt in Python, welches eine REST Api zur Indexierung und Suche von Bildern bereitstellt und eine Web Applikation für die Nutzer, um die Daten zu verwalten und die Suche durchzuführen. Für die Indexierung von Bildern verwendete ich vortrainierte Computer Vision Modelle um Vektorembeddings zu generieren, die dann in einer Vektordatenbank gespeichert wurden. Als Vektordatenbank verwendete ich die Open Source Vektordatenbank Milvus. Der REST Service bietet einen Endpoint zur Durchführung einer Ähnlichkeitssuche und garantiert durch die Implementierung von Micro-Batching für eine hohe Durchsatzrate mit konsistenten und kurzen Antwortzeiten.
Python FastAPI AWS TensorFlow Apache Airflow Milvus Vektordatenbank
Python AI Vektor Datenbanken Computer Vision AWS Cloud ETL Back-End Front-End Data Engineering ETL Pipelines API Entwicklung Backend Frontend
IT - Künstliche Intelligenz
1 Jahr 9 Monate
2022-04 - 2023-12

Autotunnel Anomaly Detection mit V2X-Daten

Machine Learning Engineer / Data Engineer Machine Learning MLOps Data Engineer ...
Machine Learning Engineer / Data Engineer
  • Das Projekt zielte darauf ab, die deutsche Infrastruktur besser abzusichern und zu überwachen. Dafür wurden V2X-Daten (Vehicle To Everything) von Fahrzeugen in Autotunneln in Echtzeit gesammelt, überwacht und auf Anomalien untersucht. Bestimmte Events und gefährliche Situationen, wie ein Unfall, liegen gebliebendes Auto oder ein Falschfahrer sollten erkannt und an die zuständigen Stellen zur manuellen Überprüfung weitergeleitet werden, um schnellstmöglich reagieren zu können. 
  • Meine Aufgaben in dem Projekt waren die Entwicklung von Machine Learning Modellen zur Erkennung von Anomalien in den V2X-Daten und die Implementierung einer Pipeline zur Echtzeitverarbeitung der Daten. Die Daten wurden zunächst von RabitMQ gesammelt und dann in Echtzeit an einen Client gestreamt, der die Daten aggregiert und an ein Anomaly Detection Modell weiterleitete. Das Modell wurde in einer Docker Umgebung ausgeführt und die Ergebnisse zurück in die Message Queue geschrieben, um dort von einem weiteren Client abgeholt und in einem Web Interface visualisiert zu werden. 
  • In diesem Projekt entwickelten wir ein PoC (Proof of Concept) für die Anomalieerkennung in V2XDaten und konnten zeigen, dass es möglich ist, Anomalien in Echtzeit zu erkennen und zu visualisieren.
Python RabitMQ Pytorch Docker FastAPI
Machine Learning MLOps Data Engineer ETL XGBoost Back-End
Fraunhofer IAIS
1 Jahr
2022-04 - 2023-03

Implementierung eines KNIME Plugins zur Datenanalyse

Software Entwickler Anforderungsanalyse KNIME Datenanalyse ...
Software Entwickler
  • Für ein bestehendes Projekt zur Datenanalyse habe ich ein KNIME Plugin entwickelt, welches die vorhandenen Algorithmen in KNIME zur Verfügung stellt und benutzbar macht. Dafür war vor allem die Kompatibilität mit anderen Datenstrukturen aus KNIME und dessen Algorithmen wichtig. Ich implementierte mehrere Adapter, die als Schnittstelle zur Konvertierung der unterschiedlichen Datenstrukturen fungierten. Zusätzlich impelemtierte ich Schnittstellen zur Verwendung und Visualisierung der über 100 bestehenden parametrisierten Algorithmen zur Datenanalyse und Vorhersagemodellen, um eine benutzerfreundliche Oberfläche zu kreieren. Die Oberfläche erlaubte es, Datenanalyse und Vorhersagen mit unterschiedlichsten Datenquellen zu verknüpfen und ohne weiteren Programmieraufwand auszuführen.
Java KNIME
Anforderungsanalyse KNIME Datenanalyse Algorithmen Software-Entwicklung
Fraunhofer IAIS
6 Monate
2022-04 - 2022-09

Platform für Evaluation von Computer Vision Modellen

Machine Learning Engineer Machine Learning Python ETL ...
Machine Learning Engineer
  • Für die Evaluation von Computer Vision Modellen für autonomes Fahren ist es nicht nur wichtig, Metriken zu sammeln, die die Performance eines Modells kompakt darstellen. Es ist ebenso wichtig zu analysieren, in welchen Situationen ein Modell besonders schlechte Ergebnisse liefert. Bilddaten aus dem Straßenverkehr sind voller Informationen, die Vorhersageergebnisse verändern können. 
  • Für dieses Projekt entwickelte ich eine Methode, um eine Ähnlichkeitssuche auf Datenbanken mit mehreren Millionen Bildern aus dem Straßenverkehr durchzuführen. Dafür sollte es dem Benutzer möglich sein, ein Referenzbild in einer Weboberfläche hochzuladen und als Ergebnis Bilder zurück geliefert bekommt, die visuell ähnlich aussehen oder eine ähnliche Situation enthalten, wie zum Beispiel ein Mensch, der größtenteils hinter einem Hindernis versteckt ist. 
  • Ich erweiterte eine bestehende Web Applikation mit einem interaktiven Bereich zur Bildauswahl und zum Zurechtschneiden des Bildes, um eine leichte Suche zu ermöglichen.
Python Holoviews Apache Spark Tensorflow
Machine Learning Python ETL Big Data Computer Vision Locality Sensitive Hashing Vektordatenbanken
Fraunhofer IAIS
4 Monate
2021-02 - 2021-05

Evaluation von Vorhersagemodellen für Kryptowährungspreise

Software Engineer MLOps Machine Learning Modell Evaluation ...
Software Engineer
  • Um die Performance von KI Modellen zur Vorhersage von Kryptowährungspreisen zu evaluieren, entwickelte ich eine Backtesting Pipeline, die es ermöglicht, verschiedene Modelle zu testen und die Performance anhand von Metriken zu bewerten. Durch die Verwendung von mlflow als Platform für das Tracking von Experimenten und die Speicherung von Modellen und Metriken konnten die Metriken von mehreren Modellen übersichtlich veranschaulicht und miteinander verglichen werden.
mlflow Python
MLOps Machine Learning Modell Evaluation Data Engineering
IT
11 Monate
2020-03 - 2021-01

Monitoring und Analyse von Kryptowährungspreisen und Trades

Software Engineer Data Engineer WebSocket Realtime Data Processing ...
Software Engineer
  • Für dieses Projekt entwickelte ich ein Tool, das Trades von Kryptowährugen auf verschiedenen Handelsplatformen überwacht und auf vordefinierte Muster analysiert. Der Service war in der Lage, Trades in Echtzeit zu überwachen und bei bestimmten Mustern Benachrichtigungen an die Nutzer über Kafka zu senden. Die Benachrichtigungen enthielten Statistiken über die TradingAktivität, wie zum Beispiel den Preis, das Handelsvolumen, die Anzahl der Trades der letzten Minuten und Stunden und auffällige Events. 
  • Alle Trading-Daten wurden zusätzlich in einer InfluxDB Instanz gespeichert, um weitere Analysen zu ermöglichen und Daten für das Training von Machine Learning Modellen zu sammeln.
Apache Flink Kafka InfluxDB Python
Data Engineer WebSocket Realtime Data Processing Datenanalyse
1 Jahr
2017-02 - 2018-01

WEB ENTWICKLUNG

Web Entwickler PHP Symfony Typo3 ...
Web Entwickler
  • Als Web Entwickler bei der SimpleThings GmbH habe ich an der Entwicklung von Webanwendungen für verschiedene Kunden gearbeitet. Mit PHP und Symfony entwickelte ich Websites und Webanwendungen, sowie E-Commerce Shops für Kunden aus verschiedenen Branchen.
PHP Symfony Typo3
PHP Symfony Typo3 Web Development
SimpleThings GmbH
1 Jahr 2 Monate
2015-07 - 2016-08

Datenpipeline und Text-Processing für Buchungsimport

Software Entwickler SQL Datenbanken Prozessautomatisierung ...
Software Entwickler
  • In diesem Projekt habe ich eine Datenpipeline zur Extrahierung von Daten aus verschiedenen strukturierten und unstrukturierten Datenquellen implementiert. Mehrere Kunden haben Buchungsanfragen in verschiedensten Formaten, wie PDF oder E-Mail geschickt oder eigene Web-Interfaces angeboten, bei denen Daten umständlich händisch übertragen werden mussten. Um den manuellen Prozess abzulösen, habe ich ein einheitliches System vorgeschlagen und anschließend entwickelt, um die Daten maschinell abzugreifen und den Benutzern in einer Weboberfläche zur Kontrolle anzuzeigen. Die Daten wurden aus den Quellen extrahiert, verarbeitet und mit weiteren Daten von externen APIs aufbereitet, um eine schnelle Fehlerkontrolle zu ermöglichen. 
  • Bei Buchungen kam es häufig zu Fehlbuchungen, da falsche Ankunfts- oder Abflugszeiten übersandt wurden. Um diese Fehler zu eliminieren, wurden Buchungsdaten mit offiziellen Flugdaten durch die angegebene Flugnummer abgeglichen, um auf eventuelle Fehler in der Buchung hinzuweisen. 
  • Mit diesem Projekt  konnte ein vorher manueller Prozess automatisiert, die Mitarbeiter entlastet und die Fehlerquote massiv reduziert werden. Eine von mir durchgeführte Schulung hat den Umstieg auf das neue System erleichtert und wurde von den Mitarbeitern  gut angenommen.
MySQL NodeJS PHP
SQL Datenbanken Prozessautomatisierung Textverarbeitung Web Development
World Transfer GmbH
1 Jahr 10 Monate
2014-10 - 2016-07

WEB ENTWICKLUNG UND PROZESSAUTOMATISIERUNG

Software Entwickler Web Entwicklung Backend Frontend ...
Software Entwickler
  • Als Full-Stack Entwickler unterstützte ich das Unternehmen mit der Weiterentwicklung diverser interer Software. Zu meinen Aufgaben gehörte unter anderem die Umsetzung eines neuen Notification Systems für Buchungsstatusänderungen, Prozessautomatisierung, Web-Entwicklung und Datenbankentwicklung. Ich arbeitete eng mit den Nutzern der Software zusammen, um die Anforderungen zu verstehen und die Software entsprechend anzupassen. Dabei habe ich die Software so gestaltet, dass sie den Nutzern die Arbeit erleichtert und die Prozesse optimiert. Zusätzlich automatisierte ich Prozesse, um die Effizienz zu steigern und Fehler zu reduzieren. 
  • Ich habe auch an der Entwicklung von Webanwendungen für die Kunden gearbeitet, um ihnen eine benutzerfreundliche Oberfläche für die Nutzung der Dienstleistungen zu bieten.
PHP NodeJS MySQL
Web Entwicklung Backend Frontend Datenbanken SQL Prozessautomatisierung
World Transfer GmbH
1 Jahr 3 Monate
2012-10 - 2013-12

SOFTWARE ENTWICKLUNG - AUTOMATISIERUNG VON BACKLINK GENERIERUNG

Software Entwickler NodeJs Javascript API ...
Software Entwickler
  • Zur Automatisierung der Generierung von Backlinks für Kunden habe ich ein Tool entwickelt, das die Backlinks automatisch generiert und auf über 100 verschiedenen Platformen und Foren unter verschiedenen Accounts veröffentlicht. Um die Accounts zu verwalten und die Backlinks zu überwachen, habe ich eine Weboberfläche entwickelt, die den Mitarbeitern eine schnelle Übersicht über die generierten Backlinks und die Performance der Accounts gab. Zusätzlich unterstützte ich das Unternehmen bei anderen Projekten.
NodeJS Javascript MySQL
NodeJs Javascript API Web Scraping Web Entwicklung
Köln Dialog GmbH

Aus- und Weiterbildung

Aus- und Weiterbildung

  • B.Sc. Informatik - Universität Bonn

Kompetenzen

Kompetenzen

Top-Skills

Python Data Engineer Machine Learning Deep Reinforcement Learning Deep Learning RAG Back-End ETL TensorFlow Softwarearchitektur Microservices

Schwerpunkte

KI Entwicklung
Experte
Machine Learning
Experte
Microservices
Experte
Backend Entwicklung
Experte
Fullstack Entwicklung
Experte
Data Engineering
Experte

Produkte / Standards / Erfahrungen / Methoden

Python
Experte
FastAPI
Experte
Tensorflow
Fortgeschritten

ÜBER MICH:

  • Die Zufriedenstellung des Kunden mit einer individuellen, zukunftssicheren Lösung steht für mich an erster Stelle.
  • Mit schnellen Feedbackschleifen arbeite ich eng mit Ihnen zusammen, um Ihre Anforderungen genaustens zu verstehen und Ihre Wünsche entsprechend umzusetzen.


SOFT-SKILLS:

  • Teamfähigkeit
  • Kundenorientiert
  • Qualitätsbewusstsein
  • Mentoring


SPEZIALKENNTNISSE:

  • Python
  • AI Development
  • Machine Learning
  • Data Engineering
  • Vektordatenbanken
  • Retrieval Augmented Generation
  • MLOps
  • Backend Engineering
  • Software Architektur


MEINE ERFAHRUNG:

  • Mit fast 10 Jahren Berufserfahrung fokussiere ich mich auf die Entwicklung von skalierbaren und performanten Microservices, sowie ETL-Pipelines und das Bereitstellen von ML-Modellen als API-Endpunkt. Dabei setze ich auf modernste Technologien, wie AWS, Airflow, Spark und Docker und entwickle für meine Kunden individuelle, zukunftssichere Lösungen.


MEIN SKILLSET

MACHINE LEARNING & MLOPS:

  • Deep Learning, Reinforcement Learning
  • tensorflow, keras, pytorch
  • huggingface, scikit-learn
  • Retrieval Augmented Generation
  • mlflow


WORKFLOW ORCHESTRATION:

  • Apache Airflow
  • RabitMQ, Kafka, Redis, Celery


DEVOPS / CLOUD:

  • Docker, Git, Gitlab CI/CD
  • AWS, GCP
  • AWS S3, EC2, Lambda, Batch
  • Container Registry


DATA ANALYSIS & ENGINEERING:

  • ETL Pipelines, Cloud Infrastruktur
  • Apache Spark, Apache Flink
  • pandas, numpy
  • SQL, GraphQL, Graph-Datenbanken
  • (Neo4j)
  • Vektor-Datenbanken (Milvus, Weaviate)
  • matplotlib, seaborn


WEB DEVELOPMENT:

  • fastAPI, Django
  • NodeJS, NextJS, ExpressJS
  • React

Betriebssysteme

Linux
Experte
Ubuntu Server
Experte

Programmiersprachen

Python
Experte
C/C++
Fortgeschritten
Java
Fortgeschritten
Scala
Basics
PHP
Experte
Javascript
Fortgeschritten
SQL
Experte

Datenbanken

MySQL
Fortgeschritten
SQLlite
Fortgeschritten
PostgreSQL
Fortgeschritten
MongoDB
Fortgeschritten
Milvus
Fortgeschritten
Weaviate
Basics
Neo4j
Basics

Einsatzorte

Einsatzorte

Bonn (+200km) Köln (+200km) Düsseldorf (+200km) München (+200km)
Deutschland, Schweiz, Österreich
möglich

Projekte

Projekte

3 Monate
2025-01 - 2025-03

GraphRAG - Semantische Graphen-Datenbank für politische Reden und Interviews

Data Engineer / Software Entwickler Python AI NLP ...
Data Engineer / Software Entwickler
  • Um politische Reden und Interviews semantisch durchsuchbar zu machen, habe ich eine Graphdatenbank entwickelt, die es ermöglicht, semantische Abfragen auf politische Reden und Interviews durchzuführen. Die Datenbank wurde mit Reden und Interviews aus verschiedenen Quellen gefüllt, indem zunächst eine Transkription und Sprechererkennung durchgeführt wurde und anschließend die semantischen Informationen in Form von Vektor-Embeddings in der Datenbank gespeichert wurden. Die Datenbank wurde mit einem Chatbot erweitert, der es ermöglicht, Fragen über die Aussagen von Politikern zu stellen. Als Antwort erhält der Nutzer die relevanten Aussagen und die Quelle, aus der die Information stammt. 
  • Die Datenbank enthält zusätzlich Informationen darüber, wer an welcher Stelle im Gespräch gesprochen hat, um die Aussagen den richtigen Personen zuordnen zu können, sowie welche Personen an Events teilgenommen haben. Die Zuordnung der Namen zu bestimmten Sprechern aus dem Audiomaterial wurde durch ein KI-Modell durchgeführt, welches Vektor Embeddings generiert die zusammen mit der Transkription abgespeichert werden. Durch die Identifikation und die Annotation eines Namen für einen Sprecher in einem einzigen Audio-Clip konnte so der Name an alle Sprecher mit ähnlichen Vektor-Embeddings propagiert werden.
Python Neo4j AWS huggingface transformers
Python AI NLP AWS Back-End RAG Machine Learning Graphdatenbanken Audio Transkription Cloud Frontend Vektordatenbanken
IT - Künstliche Intelligenz
1 Jahr
2024-01 - 2024-12

Reverse Image Search / Pipeline und Web Applikation

Software Entwickler Python AI Vektor Datenbanken ...
Software Entwickler
  • Dieses Projekt zielte darauf ab, eine skalierbare Pipeline zur Indexierung von Bildern aus unterschiedlichen Datenquellen und zur Durchführung einer Ähnlichkeitssuche zu entwickeln. Für die Nutzer ist es möglich, Datensätze zu erstellen und Bilder aus AWS S3, GCP oder anderen Quellen zu importieren und zu indexieren. Die Import Jobs werden durch Apache Airflow orchestriert und können sowohl auf lokalen Servern direkt durch Worker abgearbeitet werden oder an den Cloud Service AWS Batch weitergeleitet werden, um eine On Demand Skalierbarkeit zu gewährleisten. 
  • Das Projekt besteht aus zwei Systemen: Ein Backend Service, entwickelt in Python, welches eine REST Api zur Indexierung und Suche von Bildern bereitstellt und eine Web Applikation für die Nutzer, um die Daten zu verwalten und die Suche durchzuführen. Für die Indexierung von Bildern verwendete ich vortrainierte Computer Vision Modelle um Vektorembeddings zu generieren, die dann in einer Vektordatenbank gespeichert wurden. Als Vektordatenbank verwendete ich die Open Source Vektordatenbank Milvus. Der REST Service bietet einen Endpoint zur Durchführung einer Ähnlichkeitssuche und garantiert durch die Implementierung von Micro-Batching für eine hohe Durchsatzrate mit konsistenten und kurzen Antwortzeiten.
Python FastAPI AWS TensorFlow Apache Airflow Milvus Vektordatenbank
Python AI Vektor Datenbanken Computer Vision AWS Cloud ETL Back-End Front-End Data Engineering ETL Pipelines API Entwicklung Backend Frontend
IT - Künstliche Intelligenz
1 Jahr 9 Monate
2022-04 - 2023-12

Autotunnel Anomaly Detection mit V2X-Daten

Machine Learning Engineer / Data Engineer Machine Learning MLOps Data Engineer ...
Machine Learning Engineer / Data Engineer
  • Das Projekt zielte darauf ab, die deutsche Infrastruktur besser abzusichern und zu überwachen. Dafür wurden V2X-Daten (Vehicle To Everything) von Fahrzeugen in Autotunneln in Echtzeit gesammelt, überwacht und auf Anomalien untersucht. Bestimmte Events und gefährliche Situationen, wie ein Unfall, liegen gebliebendes Auto oder ein Falschfahrer sollten erkannt und an die zuständigen Stellen zur manuellen Überprüfung weitergeleitet werden, um schnellstmöglich reagieren zu können. 
  • Meine Aufgaben in dem Projekt waren die Entwicklung von Machine Learning Modellen zur Erkennung von Anomalien in den V2X-Daten und die Implementierung einer Pipeline zur Echtzeitverarbeitung der Daten. Die Daten wurden zunächst von RabitMQ gesammelt und dann in Echtzeit an einen Client gestreamt, der die Daten aggregiert und an ein Anomaly Detection Modell weiterleitete. Das Modell wurde in einer Docker Umgebung ausgeführt und die Ergebnisse zurück in die Message Queue geschrieben, um dort von einem weiteren Client abgeholt und in einem Web Interface visualisiert zu werden. 
  • In diesem Projekt entwickelten wir ein PoC (Proof of Concept) für die Anomalieerkennung in V2XDaten und konnten zeigen, dass es möglich ist, Anomalien in Echtzeit zu erkennen und zu visualisieren.
Python RabitMQ Pytorch Docker FastAPI
Machine Learning MLOps Data Engineer ETL XGBoost Back-End
Fraunhofer IAIS
1 Jahr
2022-04 - 2023-03

Implementierung eines KNIME Plugins zur Datenanalyse

Software Entwickler Anforderungsanalyse KNIME Datenanalyse ...
Software Entwickler
  • Für ein bestehendes Projekt zur Datenanalyse habe ich ein KNIME Plugin entwickelt, welches die vorhandenen Algorithmen in KNIME zur Verfügung stellt und benutzbar macht. Dafür war vor allem die Kompatibilität mit anderen Datenstrukturen aus KNIME und dessen Algorithmen wichtig. Ich implementierte mehrere Adapter, die als Schnittstelle zur Konvertierung der unterschiedlichen Datenstrukturen fungierten. Zusätzlich impelemtierte ich Schnittstellen zur Verwendung und Visualisierung der über 100 bestehenden parametrisierten Algorithmen zur Datenanalyse und Vorhersagemodellen, um eine benutzerfreundliche Oberfläche zu kreieren. Die Oberfläche erlaubte es, Datenanalyse und Vorhersagen mit unterschiedlichsten Datenquellen zu verknüpfen und ohne weiteren Programmieraufwand auszuführen.
Java KNIME
Anforderungsanalyse KNIME Datenanalyse Algorithmen Software-Entwicklung
Fraunhofer IAIS
6 Monate
2022-04 - 2022-09

Platform für Evaluation von Computer Vision Modellen

Machine Learning Engineer Machine Learning Python ETL ...
Machine Learning Engineer
  • Für die Evaluation von Computer Vision Modellen für autonomes Fahren ist es nicht nur wichtig, Metriken zu sammeln, die die Performance eines Modells kompakt darstellen. Es ist ebenso wichtig zu analysieren, in welchen Situationen ein Modell besonders schlechte Ergebnisse liefert. Bilddaten aus dem Straßenverkehr sind voller Informationen, die Vorhersageergebnisse verändern können. 
  • Für dieses Projekt entwickelte ich eine Methode, um eine Ähnlichkeitssuche auf Datenbanken mit mehreren Millionen Bildern aus dem Straßenverkehr durchzuführen. Dafür sollte es dem Benutzer möglich sein, ein Referenzbild in einer Weboberfläche hochzuladen und als Ergebnis Bilder zurück geliefert bekommt, die visuell ähnlich aussehen oder eine ähnliche Situation enthalten, wie zum Beispiel ein Mensch, der größtenteils hinter einem Hindernis versteckt ist. 
  • Ich erweiterte eine bestehende Web Applikation mit einem interaktiven Bereich zur Bildauswahl und zum Zurechtschneiden des Bildes, um eine leichte Suche zu ermöglichen.
Python Holoviews Apache Spark Tensorflow
Machine Learning Python ETL Big Data Computer Vision Locality Sensitive Hashing Vektordatenbanken
Fraunhofer IAIS
4 Monate
2021-02 - 2021-05

Evaluation von Vorhersagemodellen für Kryptowährungspreise

Software Engineer MLOps Machine Learning Modell Evaluation ...
Software Engineer
  • Um die Performance von KI Modellen zur Vorhersage von Kryptowährungspreisen zu evaluieren, entwickelte ich eine Backtesting Pipeline, die es ermöglicht, verschiedene Modelle zu testen und die Performance anhand von Metriken zu bewerten. Durch die Verwendung von mlflow als Platform für das Tracking von Experimenten und die Speicherung von Modellen und Metriken konnten die Metriken von mehreren Modellen übersichtlich veranschaulicht und miteinander verglichen werden.
mlflow Python
MLOps Machine Learning Modell Evaluation Data Engineering
IT
11 Monate
2020-03 - 2021-01

Monitoring und Analyse von Kryptowährungspreisen und Trades

Software Engineer Data Engineer WebSocket Realtime Data Processing ...
Software Engineer
  • Für dieses Projekt entwickelte ich ein Tool, das Trades von Kryptowährugen auf verschiedenen Handelsplatformen überwacht und auf vordefinierte Muster analysiert. Der Service war in der Lage, Trades in Echtzeit zu überwachen und bei bestimmten Mustern Benachrichtigungen an die Nutzer über Kafka zu senden. Die Benachrichtigungen enthielten Statistiken über die TradingAktivität, wie zum Beispiel den Preis, das Handelsvolumen, die Anzahl der Trades der letzten Minuten und Stunden und auffällige Events. 
  • Alle Trading-Daten wurden zusätzlich in einer InfluxDB Instanz gespeichert, um weitere Analysen zu ermöglichen und Daten für das Training von Machine Learning Modellen zu sammeln.
Apache Flink Kafka InfluxDB Python
Data Engineer WebSocket Realtime Data Processing Datenanalyse
1 Jahr
2017-02 - 2018-01

WEB ENTWICKLUNG

Web Entwickler PHP Symfony Typo3 ...
Web Entwickler
  • Als Web Entwickler bei der SimpleThings GmbH habe ich an der Entwicklung von Webanwendungen für verschiedene Kunden gearbeitet. Mit PHP und Symfony entwickelte ich Websites und Webanwendungen, sowie E-Commerce Shops für Kunden aus verschiedenen Branchen.
PHP Symfony Typo3
PHP Symfony Typo3 Web Development
SimpleThings GmbH
1 Jahr 2 Monate
2015-07 - 2016-08

Datenpipeline und Text-Processing für Buchungsimport

Software Entwickler SQL Datenbanken Prozessautomatisierung ...
Software Entwickler
  • In diesem Projekt habe ich eine Datenpipeline zur Extrahierung von Daten aus verschiedenen strukturierten und unstrukturierten Datenquellen implementiert. Mehrere Kunden haben Buchungsanfragen in verschiedensten Formaten, wie PDF oder E-Mail geschickt oder eigene Web-Interfaces angeboten, bei denen Daten umständlich händisch übertragen werden mussten. Um den manuellen Prozess abzulösen, habe ich ein einheitliches System vorgeschlagen und anschließend entwickelt, um die Daten maschinell abzugreifen und den Benutzern in einer Weboberfläche zur Kontrolle anzuzeigen. Die Daten wurden aus den Quellen extrahiert, verarbeitet und mit weiteren Daten von externen APIs aufbereitet, um eine schnelle Fehlerkontrolle zu ermöglichen. 
  • Bei Buchungen kam es häufig zu Fehlbuchungen, da falsche Ankunfts- oder Abflugszeiten übersandt wurden. Um diese Fehler zu eliminieren, wurden Buchungsdaten mit offiziellen Flugdaten durch die angegebene Flugnummer abgeglichen, um auf eventuelle Fehler in der Buchung hinzuweisen. 
  • Mit diesem Projekt  konnte ein vorher manueller Prozess automatisiert, die Mitarbeiter entlastet und die Fehlerquote massiv reduziert werden. Eine von mir durchgeführte Schulung hat den Umstieg auf das neue System erleichtert und wurde von den Mitarbeitern  gut angenommen.
MySQL NodeJS PHP
SQL Datenbanken Prozessautomatisierung Textverarbeitung Web Development
World Transfer GmbH
1 Jahr 10 Monate
2014-10 - 2016-07

WEB ENTWICKLUNG UND PROZESSAUTOMATISIERUNG

Software Entwickler Web Entwicklung Backend Frontend ...
Software Entwickler
  • Als Full-Stack Entwickler unterstützte ich das Unternehmen mit der Weiterentwicklung diverser interer Software. Zu meinen Aufgaben gehörte unter anderem die Umsetzung eines neuen Notification Systems für Buchungsstatusänderungen, Prozessautomatisierung, Web-Entwicklung und Datenbankentwicklung. Ich arbeitete eng mit den Nutzern der Software zusammen, um die Anforderungen zu verstehen und die Software entsprechend anzupassen. Dabei habe ich die Software so gestaltet, dass sie den Nutzern die Arbeit erleichtert und die Prozesse optimiert. Zusätzlich automatisierte ich Prozesse, um die Effizienz zu steigern und Fehler zu reduzieren. 
  • Ich habe auch an der Entwicklung von Webanwendungen für die Kunden gearbeitet, um ihnen eine benutzerfreundliche Oberfläche für die Nutzung der Dienstleistungen zu bieten.
PHP NodeJS MySQL
Web Entwicklung Backend Frontend Datenbanken SQL Prozessautomatisierung
World Transfer GmbH
1 Jahr 3 Monate
2012-10 - 2013-12

SOFTWARE ENTWICKLUNG - AUTOMATISIERUNG VON BACKLINK GENERIERUNG

Software Entwickler NodeJs Javascript API ...
Software Entwickler
  • Zur Automatisierung der Generierung von Backlinks für Kunden habe ich ein Tool entwickelt, das die Backlinks automatisch generiert und auf über 100 verschiedenen Platformen und Foren unter verschiedenen Accounts veröffentlicht. Um die Accounts zu verwalten und die Backlinks zu überwachen, habe ich eine Weboberfläche entwickelt, die den Mitarbeitern eine schnelle Übersicht über die generierten Backlinks und die Performance der Accounts gab. Zusätzlich unterstützte ich das Unternehmen bei anderen Projekten.
NodeJS Javascript MySQL
NodeJs Javascript API Web Scraping Web Entwicklung
Köln Dialog GmbH

Aus- und Weiterbildung

Aus- und Weiterbildung

  • B.Sc. Informatik - Universität Bonn

Kompetenzen

Kompetenzen

Top-Skills

Python Data Engineer Machine Learning Deep Reinforcement Learning Deep Learning RAG Back-End ETL TensorFlow Softwarearchitektur Microservices

Schwerpunkte

KI Entwicklung
Experte
Machine Learning
Experte
Microservices
Experte
Backend Entwicklung
Experte
Fullstack Entwicklung
Experte
Data Engineering
Experte

Produkte / Standards / Erfahrungen / Methoden

Python
Experte
FastAPI
Experte
Tensorflow
Fortgeschritten

ÜBER MICH:

  • Die Zufriedenstellung des Kunden mit einer individuellen, zukunftssicheren Lösung steht für mich an erster Stelle.
  • Mit schnellen Feedbackschleifen arbeite ich eng mit Ihnen zusammen, um Ihre Anforderungen genaustens zu verstehen und Ihre Wünsche entsprechend umzusetzen.


SOFT-SKILLS:

  • Teamfähigkeit
  • Kundenorientiert
  • Qualitätsbewusstsein
  • Mentoring


SPEZIALKENNTNISSE:

  • Python
  • AI Development
  • Machine Learning
  • Data Engineering
  • Vektordatenbanken
  • Retrieval Augmented Generation
  • MLOps
  • Backend Engineering
  • Software Architektur


MEINE ERFAHRUNG:

  • Mit fast 10 Jahren Berufserfahrung fokussiere ich mich auf die Entwicklung von skalierbaren und performanten Microservices, sowie ETL-Pipelines und das Bereitstellen von ML-Modellen als API-Endpunkt. Dabei setze ich auf modernste Technologien, wie AWS, Airflow, Spark und Docker und entwickle für meine Kunden individuelle, zukunftssichere Lösungen.


MEIN SKILLSET

MACHINE LEARNING & MLOPS:

  • Deep Learning, Reinforcement Learning
  • tensorflow, keras, pytorch
  • huggingface, scikit-learn
  • Retrieval Augmented Generation
  • mlflow


WORKFLOW ORCHESTRATION:

  • Apache Airflow
  • RabitMQ, Kafka, Redis, Celery


DEVOPS / CLOUD:

  • Docker, Git, Gitlab CI/CD
  • AWS, GCP
  • AWS S3, EC2, Lambda, Batch
  • Container Registry


DATA ANALYSIS & ENGINEERING:

  • ETL Pipelines, Cloud Infrastruktur
  • Apache Spark, Apache Flink
  • pandas, numpy
  • SQL, GraphQL, Graph-Datenbanken
  • (Neo4j)
  • Vektor-Datenbanken (Milvus, Weaviate)
  • matplotlib, seaborn


WEB DEVELOPMENT:

  • fastAPI, Django
  • NodeJS, NextJS, ExpressJS
  • React

Betriebssysteme

Linux
Experte
Ubuntu Server
Experte

Programmiersprachen

Python
Experte
C/C++
Fortgeschritten
Java
Fortgeschritten
Scala
Basics
PHP
Experte
Javascript
Fortgeschritten
SQL
Experte

Datenbanken

MySQL
Fortgeschritten
SQLlite
Fortgeschritten
PostgreSQL
Fortgeschritten
MongoDB
Fortgeschritten
Milvus
Fortgeschritten
Weaviate
Basics
Neo4j
Basics

Vertrauen Sie auf Randstad

Im Bereich Freelancing
Im Bereich Arbeitnehmerüberlassung / Personalvermittlung

Fragen?

Rufen Sie uns an +49 89 500316-300 oder schreiben Sie uns:

Das Freelancer-Portal

Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.