Entwicklung einer Single Page Web Applikation für Portfolio Management auf Basis von Python, Flask und Dash.
- Frontend und Backend Entwicklung mit Python und Javascript
Frontend und Backend Entwicklung einer Web-basierten BI Applikation zur Analyse von Kennzahlen aus Daten im Investment Banking Umfeld.
Meine Aufgaben:
Erstellen von interaktiven Dashboards mit Plotly/Dash
Übertragung von Prototyp Code (Skripte) in Produktionscode
Refactoring, Code Review
Entwicklung von Unit Tests
Konzeption von (Zwischen-)Speicherlösungen zur effizienten Datenaufbereitung und schnellen Bereitstellung im Backend der Dashboard Applikation
Konzeption und Implementierung eines KI gestützten Vorhersagemodells für Verkäufe von Printmedien im Zeitschriftenvertrieb, Prototyping, Implementierung und Deployment des Produktivsystems
Meine Aufgaben:
Konzeption eines Deep Learning Modells zur Vorhersage von Verkaufszahlen
Entwicklung eines Datenmodells und ETL Prozessen zur Verarbeitung von Rohdaten
Implementierung des automatisierten Vorhersage Services auf Grundlage eines KI Modells
Konzeption und Implementierung einer Postgres Datenbank zum Datenmanagement einer Automationsanlage
Eine Automationsanlage produziert Sensordaten verschiedener Art, die zusammen mit diversen Metadaten in mathematische Vorhersagemodelle eingespeist werden. Messdaten und Metadaten sollen zentral in einer SQL Datenbank gespeichert werden.
Das Projekt erfordert engen Austausch mit Mitarbeitern die die Automationsanlage betreiben und die Daten auswerten.
Meine Aufgaben:
Projektleitung
Entwicklung des Datenmodells in zahlreichen Workshops.
Erarbeitung der Import Spezifikationen in enger Zusammenarbeit mit den künftigen Nutzern.
Implementierung des Modells in Python/Sqlalchemy
Aufsetzen einer Postgres Testdatenbank mit docker-compose und Gitlab-CI
Implementierung von Importer Tools in Python.
Entwicklung einer parallelisierten Bildanalyse-Pipeline zur Verarbeitung massiver Bilddaten eines automatisierten Mikroskops
Eine Automationsanlage innerhalb eines pharmazeutischen Labors produziert täglich Bilddaten im Terabyte Bereich. Auf Gundlage der CellProfiler software wurde eine Objekterkennung und Feature Berechnung implementiert, um strukturierte Daten aus den rohen Bilddaten zu gewinnen. Zum robusten Deployment auf einem in-house betriebenen CPU cluster wurde die Anwendung mit Docker containerisiert und mit SLURM orchestriert.
Meine Aufgaben:
Definition der Spezifikationen in Zusammenarbeit mit den Domänen Experten
Planung und Anschaffung erforderlicher Hardware
Konzeption und Implementierung
Automatisierte Charakterisierung von Gewebeproben mittels Deep Learning
Im Rahmen eines medizinischen Forschungsprojektes wurden Gewebeproben mit einem automatisierten Mikroskop fotografiert. Auf Basis von Python und Tensorflow wurde eine Software entwickelt, um spezifische Zelltypen im Gewebe zu identifizieren und zu klassifizieren. Auf diese Weise konnten unterschiedliche Zelltypen für benutzerdefinierte Gewebe-Regionen automatisiert ausgezählt werden.
Meine Aufgaben:
Beratung der beteiligten Neurowissenschaftler
Anleitung der Wissenschaftler zum Sammeln von Trainingsdaten
Algorithmenentwicklung
Datenanalyse Service
Reporting
Entwicklung einer Open Source Software zur Analyse von biomedizinischen Bilddaten mit Hilfe von Deep Learning
Eine genaue Beschreibung des Projektes findet sich hier:
https://yapic.github.io/yapic/
Meine Aufgaben:
Projektleitung
Konzeption und Algorithmenentwicklung
Präsentation der Software auf internationalen Tagungen
Deployment, Entwicklung von CI/CD Pipelines
Management der Weiterentwicklung des Tools durch die Open Source Community
Entwicklung einer Machine Learning Applikation zur Auswertung von Sensordaten
Über einen Sensor innerhalb einer Messapparatur werden stark verrauschte Zeitreihendaten aufgezeichnet. In diesen Zeitreihen sollen sporadisch auftretende Events automatisch detektiert und charakterisiert werden. Zu diesem Zweck wurde eine Machine Learning Software mit MVC Architektur in Python implementiert. Die Software umfasst folgende Funktionalität:
Filtern und Normalisieren der Rohdaten.
Berechnung robuster Kennzahlen auf Grundlage der vorprozessierten Daten.
Bereitstellung einer grafischen Benutzeroberfläche zur Darstellung der Daten und zur interaktiven Erstellung von Trainingsdatensätzen.
Automatische Detektion der Events mit einem überwachten Machine Learning Verfahren.
Export der Ergebnisdaten.
Meine Aufgaben:
Spezifikationen in Zusammenarbeit mit dem Kunden definieren
Konzeption und Implementierung
Dokumentation
Werkzeuge: Python, Tkinter, Scikit-Learn, git
Aufbau eines GitLab Systems zur Entwicklung und Bereitstellung von Forschungssoftware an einem medizinischen Forschungszentrum.
Aufbau und Rollout eines in-house gehosteten GitLab Systems. Dies soll als Infrastruktur für Code Repositories dienen.
Insbesondere wurde ein CI-System zum Ausführen automoatisierter Unit Tests realisiert.
Meine Aufgaben:
Projektleitung
Systemtests der Continuous Integration Pipelines
Schulung der Mitarbeiter
Aufgaben:
Über einen Sensor innerhalb einer Messapparatur werden stark verrauschte Zeitreihendaten aufgezeichnet. In diesen Zeitreihen sollen sporadisch auftretende Events automatisch detektiert und charakterisiert werden. Zu diesem Zweck wurde eine Machine Learning Software mit MVC Architektur in Python implementiert. Die Software umfasst folgende Funktionalität:
Entwicklung einer Open Source Software zur Analyse von biomedizinischen Bilddaten mit Deep Learning
Aufgaben:
Im Rahmen eines medizinischen Forschungsprojektes wurden Gewebeproben mit einem automatisierten Mikroskop fotografiert. Auf Basis von Python und Tensorflow wurde eine Software entwickelt, um spezifische Zelltypen im Gewebe zu identifizieren und zu klassifizieren. Auf diese Weise konnten unterschiedliche Zelltypen für benutzerdefinierte Gewebe-Regionen automatisiert ausgezählt werden.
Konzeption und Implementierung eines Frameworks zum Datenmanagement einer Automationsanlage
Aufgaben:
Eine Automationsanlage produziert Sensordaten verschiedener Art, die zusammen mit diversen Metadaten vorprozessiert werden sollen, um anschließend in mathematische Vorhersagemodelle eingespeist zu werden.
Implementierung eines Continuous Integration Setups zur Entwicklung und Bereitstellung von Forschungssoftware an einem medizinischen Forschungszentrum
Kandidaten für die Zertifizierung ?Azure Data Scientist Associate? sollten über Fachwissen in der Anwendung von Data Science und maschinellem Lernen verfügen, um ML-Workloads in Azure zu implementieren und auszuführen.
Zu den Aufgaben dieser Rolle gehören die Planung und Erstellung einer geeigneten Arbeitsumgebung für Data Science-Workloads in Azure. Sie führen Datenexperimente durch und trainieren Vorhersagemodelle. Darüber hinaus verwalten, optimieren und implementieren Sie Modelle für maschinelles Lernen in der Produktion.
Ein Kandidat für diese Zertifizierung sollte über Kenntnisse und Erfahrung im Bereich Data Science und im Umgang mit Azure Machine Learning und Azure Databricks verfügen.
Die Absolventen der Azure AI Fundamentals-Zertifizierung haben grundlegende Kenntnisse über Konzepte des maschinellen Lernens (ML) und der künstlichen Intelligenz (KI) sowie der damit verbundenen Microsoft Azure-Dienste nachgewiesen.
Azure Cloud Services
Die Absolventen der Azure Data Fundamentals-Zertifizierung haben grundlegende Kenntnisse über zentrale Datenkonzepte und deren Implementierung mit Microsoft Azure-Datendiensten nachgewiesen.
Cell Mechanics
Quantitative Mikroskope
Bildanalyse
2007 - 2009:
Promotion (Biophysik) am Forschungszentrum Jülich
Als erfahrener Datenspezialist in Wissenschafts- und Unternehmensumfeld biete ich
Argorithmenentwicklung: Konzeption und Implementierung von Machine Learning Modellen für maßgeschneiderte Vorhersagen, z.B. in den Bereichen Sensordaten, Bildanalyse und Verkauf.
Data Engineering: Datentransformation und Datenmodellierung
Datenanalyse Service
Beratung im Bereich Data Science, Bildverarbeitung und Personalsuche
Profil:
Auf Basis langjähriger Erfahrung in der Analyse von Messdaten im Bereich Bildanalyse und Automation biete ich
Sie möchten einen Partner, der über 10 Jahre Praxiserfahrung als Data Scientist, Bildanalyse-Spezialist und Python Entwickler verfügt, der KI Methoden pragmatisch einsetzt und deren Nutzen kritisch einordnen kann.
Werkzeuge:
Sprachen
Data Science
Bildanalyse
Big Data und Datenbanken
Sonstiges
Berufliche Laufbahn:
2011 - heute
Einsatzort: Bonn
Rolle: Leiter Abteilung "Image and Data Analysis"
Kunde: Deutschen Zentrum für Neurodegenerative Erkrankungen
2009 - 2011
Einsatzort: Heidelberg
Rolle: Wissenschaftlicher Mitarbeiter
Kunde: EMBL (European Molecular Biology Lab)
Biotechnologie, Mikroskopie, Wirkstoffforschung
Großhandel, Vertrieb
Entwicklung einer Single Page Web Applikation für Portfolio Management auf Basis von Python, Flask und Dash.
- Frontend und Backend Entwicklung mit Python und Javascript
Frontend und Backend Entwicklung einer Web-basierten BI Applikation zur Analyse von Kennzahlen aus Daten im Investment Banking Umfeld.
Meine Aufgaben:
Erstellen von interaktiven Dashboards mit Plotly/Dash
Übertragung von Prototyp Code (Skripte) in Produktionscode
Refactoring, Code Review
Entwicklung von Unit Tests
Konzeption von (Zwischen-)Speicherlösungen zur effizienten Datenaufbereitung und schnellen Bereitstellung im Backend der Dashboard Applikation
Konzeption und Implementierung eines KI gestützten Vorhersagemodells für Verkäufe von Printmedien im Zeitschriftenvertrieb, Prototyping, Implementierung und Deployment des Produktivsystems
Meine Aufgaben:
Konzeption eines Deep Learning Modells zur Vorhersage von Verkaufszahlen
Entwicklung eines Datenmodells und ETL Prozessen zur Verarbeitung von Rohdaten
Implementierung des automatisierten Vorhersage Services auf Grundlage eines KI Modells
Konzeption und Implementierung einer Postgres Datenbank zum Datenmanagement einer Automationsanlage
Eine Automationsanlage produziert Sensordaten verschiedener Art, die zusammen mit diversen Metadaten in mathematische Vorhersagemodelle eingespeist werden. Messdaten und Metadaten sollen zentral in einer SQL Datenbank gespeichert werden.
Das Projekt erfordert engen Austausch mit Mitarbeitern die die Automationsanlage betreiben und die Daten auswerten.
Meine Aufgaben:
Projektleitung
Entwicklung des Datenmodells in zahlreichen Workshops.
Erarbeitung der Import Spezifikationen in enger Zusammenarbeit mit den künftigen Nutzern.
Implementierung des Modells in Python/Sqlalchemy
Aufsetzen einer Postgres Testdatenbank mit docker-compose und Gitlab-CI
Implementierung von Importer Tools in Python.
Entwicklung einer parallelisierten Bildanalyse-Pipeline zur Verarbeitung massiver Bilddaten eines automatisierten Mikroskops
Eine Automationsanlage innerhalb eines pharmazeutischen Labors produziert täglich Bilddaten im Terabyte Bereich. Auf Gundlage der CellProfiler software wurde eine Objekterkennung und Feature Berechnung implementiert, um strukturierte Daten aus den rohen Bilddaten zu gewinnen. Zum robusten Deployment auf einem in-house betriebenen CPU cluster wurde die Anwendung mit Docker containerisiert und mit SLURM orchestriert.
Meine Aufgaben:
Definition der Spezifikationen in Zusammenarbeit mit den Domänen Experten
Planung und Anschaffung erforderlicher Hardware
Konzeption und Implementierung
Automatisierte Charakterisierung von Gewebeproben mittels Deep Learning
Im Rahmen eines medizinischen Forschungsprojektes wurden Gewebeproben mit einem automatisierten Mikroskop fotografiert. Auf Basis von Python und Tensorflow wurde eine Software entwickelt, um spezifische Zelltypen im Gewebe zu identifizieren und zu klassifizieren. Auf diese Weise konnten unterschiedliche Zelltypen für benutzerdefinierte Gewebe-Regionen automatisiert ausgezählt werden.
Meine Aufgaben:
Beratung der beteiligten Neurowissenschaftler
Anleitung der Wissenschaftler zum Sammeln von Trainingsdaten
Algorithmenentwicklung
Datenanalyse Service
Reporting
Entwicklung einer Open Source Software zur Analyse von biomedizinischen Bilddaten mit Hilfe von Deep Learning
Eine genaue Beschreibung des Projektes findet sich hier:
https://yapic.github.io/yapic/
Meine Aufgaben:
Projektleitung
Konzeption und Algorithmenentwicklung
Präsentation der Software auf internationalen Tagungen
Deployment, Entwicklung von CI/CD Pipelines
Management der Weiterentwicklung des Tools durch die Open Source Community
Entwicklung einer Machine Learning Applikation zur Auswertung von Sensordaten
Über einen Sensor innerhalb einer Messapparatur werden stark verrauschte Zeitreihendaten aufgezeichnet. In diesen Zeitreihen sollen sporadisch auftretende Events automatisch detektiert und charakterisiert werden. Zu diesem Zweck wurde eine Machine Learning Software mit MVC Architektur in Python implementiert. Die Software umfasst folgende Funktionalität:
Filtern und Normalisieren der Rohdaten.
Berechnung robuster Kennzahlen auf Grundlage der vorprozessierten Daten.
Bereitstellung einer grafischen Benutzeroberfläche zur Darstellung der Daten und zur interaktiven Erstellung von Trainingsdatensätzen.
Automatische Detektion der Events mit einem überwachten Machine Learning Verfahren.
Export der Ergebnisdaten.
Meine Aufgaben:
Spezifikationen in Zusammenarbeit mit dem Kunden definieren
Konzeption und Implementierung
Dokumentation
Werkzeuge: Python, Tkinter, Scikit-Learn, git
Aufbau eines GitLab Systems zur Entwicklung und Bereitstellung von Forschungssoftware an einem medizinischen Forschungszentrum.
Aufbau und Rollout eines in-house gehosteten GitLab Systems. Dies soll als Infrastruktur für Code Repositories dienen.
Insbesondere wurde ein CI-System zum Ausführen automoatisierter Unit Tests realisiert.
Meine Aufgaben:
Projektleitung
Systemtests der Continuous Integration Pipelines
Schulung der Mitarbeiter
Aufgaben:
Über einen Sensor innerhalb einer Messapparatur werden stark verrauschte Zeitreihendaten aufgezeichnet. In diesen Zeitreihen sollen sporadisch auftretende Events automatisch detektiert und charakterisiert werden. Zu diesem Zweck wurde eine Machine Learning Software mit MVC Architektur in Python implementiert. Die Software umfasst folgende Funktionalität:
Entwicklung einer Open Source Software zur Analyse von biomedizinischen Bilddaten mit Deep Learning
Aufgaben:
Im Rahmen eines medizinischen Forschungsprojektes wurden Gewebeproben mit einem automatisierten Mikroskop fotografiert. Auf Basis von Python und Tensorflow wurde eine Software entwickelt, um spezifische Zelltypen im Gewebe zu identifizieren und zu klassifizieren. Auf diese Weise konnten unterschiedliche Zelltypen für benutzerdefinierte Gewebe-Regionen automatisiert ausgezählt werden.
Konzeption und Implementierung eines Frameworks zum Datenmanagement einer Automationsanlage
Aufgaben:
Eine Automationsanlage produziert Sensordaten verschiedener Art, die zusammen mit diversen Metadaten vorprozessiert werden sollen, um anschließend in mathematische Vorhersagemodelle eingespeist zu werden.
Implementierung eines Continuous Integration Setups zur Entwicklung und Bereitstellung von Forschungssoftware an einem medizinischen Forschungszentrum
Kandidaten für die Zertifizierung ?Azure Data Scientist Associate? sollten über Fachwissen in der Anwendung von Data Science und maschinellem Lernen verfügen, um ML-Workloads in Azure zu implementieren und auszuführen.
Zu den Aufgaben dieser Rolle gehören die Planung und Erstellung einer geeigneten Arbeitsumgebung für Data Science-Workloads in Azure. Sie führen Datenexperimente durch und trainieren Vorhersagemodelle. Darüber hinaus verwalten, optimieren und implementieren Sie Modelle für maschinelles Lernen in der Produktion.
Ein Kandidat für diese Zertifizierung sollte über Kenntnisse und Erfahrung im Bereich Data Science und im Umgang mit Azure Machine Learning und Azure Databricks verfügen.
Die Absolventen der Azure AI Fundamentals-Zertifizierung haben grundlegende Kenntnisse über Konzepte des maschinellen Lernens (ML) und der künstlichen Intelligenz (KI) sowie der damit verbundenen Microsoft Azure-Dienste nachgewiesen.
Azure Cloud Services
Die Absolventen der Azure Data Fundamentals-Zertifizierung haben grundlegende Kenntnisse über zentrale Datenkonzepte und deren Implementierung mit Microsoft Azure-Datendiensten nachgewiesen.
Cell Mechanics
Quantitative Mikroskope
Bildanalyse
2007 - 2009:
Promotion (Biophysik) am Forschungszentrum Jülich
Als erfahrener Datenspezialist in Wissenschafts- und Unternehmensumfeld biete ich
Argorithmenentwicklung: Konzeption und Implementierung von Machine Learning Modellen für maßgeschneiderte Vorhersagen, z.B. in den Bereichen Sensordaten, Bildanalyse und Verkauf.
Data Engineering: Datentransformation und Datenmodellierung
Datenanalyse Service
Beratung im Bereich Data Science, Bildverarbeitung und Personalsuche
Profil:
Auf Basis langjähriger Erfahrung in der Analyse von Messdaten im Bereich Bildanalyse und Automation biete ich
Sie möchten einen Partner, der über 10 Jahre Praxiserfahrung als Data Scientist, Bildanalyse-Spezialist und Python Entwickler verfügt, der KI Methoden pragmatisch einsetzt und deren Nutzen kritisch einordnen kann.
Werkzeuge:
Sprachen
Data Science
Bildanalyse
Big Data und Datenbanken
Sonstiges
Berufliche Laufbahn:
2011 - heute
Einsatzort: Bonn
Rolle: Leiter Abteilung "Image and Data Analysis"
Kunde: Deutschen Zentrum für Neurodegenerative Erkrankungen
2009 - 2011
Einsatzort: Heidelberg
Rolle: Wissenschaftlicher Mitarbeiter
Kunde: EMBL (European Molecular Biology Lab)
Biotechnologie, Mikroskopie, Wirkstoffforschung
Großhandel, Vertrieb