Data Scientist / Data & AI Engineer: Cloud, Big Data, Virtualisierung, Machine Learning, Deep Learning
Aktualisiert am 07.10.2025
Profil
Mitarbeiter eines Dienstleisters
Remote-Arbeit
Verfügbar ab: 07.10.2025
Verfügbar zu: 100%
davon vor Ort: 100%
Skill-Profil eines fest angestellten Mitarbeiters des Dienstleisters
Deutsch
Muttersprache
Englisch
Verhandlungssicher

Einsatzorte

Einsatzorte

Deutschland, Schweiz, Österreich
möglich

Projekte

Projekte

2 Jahre 4 Monate
2022-10 - 2025-01

Entwickeln einer MQTT-Umgebung für hochfrequente Fertigungsdaten

Python-Entwickler, Senior Data Engineer, DevOps-Engineer, Daten Architekt Python Docker Docker Swarm ...
Python-Entwickler, Senior Data Engineer, DevOps-Engineer, Daten Architekt

Aufbau einer leistungsfähigen, skalierbaren und flexiblen Infrastruktur zur Echtzeit-Vernetzung verschiedener Fertigungswerke und angeschlossener Industrieanlagen über MQTT, inklusive zuverlässiger Datenaufnahme, -speicherung, Visualisierung und Verwaltung.

? Vernetzung von Fertigungsanlagen und Industriekomponenten über MQTT zur Erfassung hochfrequenter Live-Daten.
? Auswahl, Anpassung und Betrieb eines geeigneten MQTT-Brokers.
? Erweiterung des Brokers um einem User die Nutzung mehrere Client-IDs zu ermöglichen.
? Entwurf und Implementierung der Architektur für das MQTT-Live-Datenformat sowie der Topic-Strukturen zur semantisch konsistenten Datenorganisation.
? Aufbau einer hybriden Dateninfrastruktur mit spezialisierten TimeSeries- und NoSQL-Datenbanken (TimescaleDB, InfluxDB, MongoDB) inklusive optimierter Datenmodellierung für geschachtelte Daten.
? Entwicklung von High-Performance-Insert-Anwendungen für MQTT-Daten in TimescaleDB und Producer-Komponenten zur Ableitung von Produktionsdaten aus Dateien.
? Entwickeln von Producer-Komponenten zur Ableitung von Produktionsdaten aus Log-Dateien.
? Automatisierte Bereinigung redundanter Nachrichten in TimescaleDB mittels Stored Procedures auf Basis von Hashvergleichen.
? Implementierung von User- und Rechteverwaltung für TimescaleDB.
? Visualisierung von Maschinen- und Systemzuständen über Grafana mit SSO-Integration.
? Logging-Infrastruktur für Docker Swarm und Kubernetes mit Graylog sowie FluentBit mit Custom-Regeln zur Reduktion redundanter Log-Einträge.
? Deployment-Automatisierung über Administrationsskripte für Docker Swarm; späterer Umzug und Betrieb auf Tanzu Kubernetes.
? Testautomatisierung: Deployment-Tests mit C#, Systemverifikation mittels Pytest.
? Betrieb begleitender Anwendungen zur Live-Darstellung der Maschinenzustände.


Aufgaben

? Anforderungsanalyse zur Definition von Datenformaten, Performance-Zielen und Betriebsanforderungen.
? Architekturkonzeption für die End-to-End-MQTT-Datenpipeline inklusive Topic-Design und Datenmodellierung.
? Auswahl, Anpassung und Betrieb des MQTT-Brokers.
? Entwicklung von Producer-Komponenten zur Generierung und Einspeisung von Produktionsdaten.
? Erstellung und Optimierung von Insert-Skripten für TimescaleDB zur Hochdurchsatz-Verarbeitung von MQTT Daten.
? Implementierung von Mechanismen zur deduplizierten Datenhaltung in TimescaleDB (Hash-basierte Bereinigung).
? Aufbrechen geschachtelter Daten in relationale Strukturen und Gestaltung der zugrundeliegenden TimescaleDB-Architektur.
? Einführung und Pflege von Usermanagement in TimescaleDB sowie SSO für Grafana.
? Aufbau der Observability-Schicht: Logging mit Graylog, Filterlogik in FluentBit, Metriken und Dashboards in Grafana.
? Automatisierung des Deployments via Skripte für Docker Swarm und später Migration / Betrieb auf Tanzu Kubernetes.
? Testentwicklung (C# für Deployment-Tests, Pytest für Systemverifikation).
? Betrieb und kontinuierliche Verbesserung der Live-Visualisierungsanwendungen für Maschinenzustände.


Python Docker Docker Swarm Kubernetes MongoDB TimescaleDB InfluxDB MQTT VerneMQ Grafana FluentBit C# .NET
Ein namhaftes Unternehmen aus der Medizintechnikbranche
4 Monate
2024-05 - 2024-08

Design und Umsetzung einer Cloud-gestützten ML(Ops)- und Datenplattform

Data Scientist, Date Engineer, Cloud Architekt Python Docker Databricks ...
Data Scientist, Date Engineer, Cloud Architekt

Aufbau einer skalierbaren, sicheren und zukunftsfähigen Plattform zur Verwaltung, Aufbereitung und Bereitstellung von Trainingsdaten und KI-Modellen, die sowohl in der Cloud (Azure) als auch On-Premise in lokalen Anlagenrechenzentren betrieben werden kann. Die Plattform soll automatisierte Workflows, Nutzerverwaltung, optimierten Datentransfer und einfache Test-/Endpoint-Bereitstellung unterstützen.

  • Evaluation verschiedener Cloud-Alternativen für die Datenhaltung und -aufbereitung von Trainingsdaten für Machine-Learning-Zwecke.
  • Entwurf eines ganzheitlichen Architekturkonzepts mit Blick auf Zukunftsfähigkeit (modular, erweiterbar, hybride Cloud/On-Premise-Fähigkeit).
  • Einrichtung von ETL-Pipelines für den Upload und die Transformation von Stamm- und Bilddaten.
  • Optimierter, sicherer Datenexport aus örtlichen Rechenzentren in die Azure Cloud.
  • Training von KI-Modellen sowie deren Verpackung und Bereitstellung als Docker-Container.
  • On-Premise Modell-Deployment in lokalen Anlagenrechenzentren mittels Docker-Containern.
  • Einsatz von MLflow zur Verwaltung von Machine-Learning-Projekten (Experiment Tracking, Modellversionierung etc.).
  • Automatische Bereitstellung von Endpoints zum Testen und Validieren der erzeugten Modelle.
  • Implementierung einer Userverwaltung speziell für Databricks-Zugriffe.
  • Sicherstellung von Sicherheitsanforderungen auf Daten-, Übertragungs- und Deployment-Ebene.


Aufgaben

  • Anforderungsanalyse zur Ermittlung der Anforderungen an Daten, Modelle und Betriebsumgebung.
  • Konzeption und Implementierung der Cloud- und hybriden Architektur inkl. On-Premise-Integration.
  • Entwicklung und Betrieb von ETL-Pipelines zur Datenaufnahme und -transformation.
  • Aufbau der Pipeline für Modelltraining und Lifecycle-Management mit MLflow.
  • Verpackung und Deployment der Modelle als Docker-Container sowohl in Azure als auch lokal.
  • Gestaltung und Implementierung der Nutzer-/Zugriffsverwaltung für Databricks.
  • Entwicklung von Mechanismen für den sicheren und performanten Datenexport aus lokalen Rechenzentren in die Azure Cloud.
  • Automatisierung der Endpoint-Erstellung zum einfachen Testen trainierter Modelle.
Einbindung von Sicherheitsmaßnahmen (z. B. Zugriffskontrollen, Verschlüsselung in Transit/at-Rest, Auditierbarkeit).


Python Docker Databricks Azure Azure Data Factory Jupyter Notebooks MLFlow CI/CD Apache Spark
Ein Kunde aus der Logistik Branche
1 Jahr
2023-07 - 2024-06

Analyse von Radarpunkten im Kontext von Geo-Koordinaten

Senor Data Engineer, Data Scientist, DevOps-Engineer, AWS-Entwickler AWS AWS-Glue AWS-S3 ...
Senor Data Engineer, Data Scientist, DevOps-Engineer, AWS-Entwickler

Radardaten sollten, unter Einsatz der AWS-Cloud mit PySpark, in Relation zu Geo-Koordinaten gesetzt und anschließend auf Muster mit KI-Methoden untersucht werden. Die eingesetzten AWS-Services wurde als Code in Kombination mit einer GitHub CI/CD Pipeline getestet und orchestriert. 

Aufgaben:

Architektur, Konzeptionierung, Implementierung

AWS AWS-Glue AWS-S3 AWS-EC2 AWS-CDK AWS-Sagemaker Apache Spark
Ein namhaftes Unternehmen aus dem Automotivbereich
3 Monate
2024-01 - 2024-03

Produkt Review Kategorisierer

Prompt Engineer, Python Entwickler Python Promptflow Streamlit ...
Prompt Engineer, Python Entwickler

Analyse von Produktreviews mit Hilfe großer Sprachmodelle (LLMs), Extraktion relevanter Kategorien und Darstellung der Ergebnisse zur Unterstützung von Marktforschungsentscheidungen.

  • Analyse von Produktreviews mittels Large Language Models zur Identifikation und Extraktion relevanter Kategorien.
  • Versionierung und Validierung von Prompts mithilfe von Promptflow.
  •  Entwicklung und Fine-Tuning von Prompt-Engineering-Strategien zur Qualitätssteigerung der Extraktion.
  •  Visualisierung der Analyseergebnisse über eine einfache Streamlit-App für Stakeholder.
  •  Einsatz von LLM-basierten Komponenten als Kern der Kategorisierungslogik zur Unterstützung von Marktforschung.


Aufgaben:

  • Konzeptionierung der Prompt-Engineering-Ansätze zur zuverlässigen Kategorienextraktion.
  • Implementierung der Review-Analysepipeline mit LLM-Integrationen.
  • Validierung von Prompts über Promptflow.
  • Aufbau der Streamlit-basierten Visualisierung zur Darstellung der extrahierten Insights.
  • Bereitstellung der LLM-Ergebnisse (Aufbereitung, Kategorisierung, Interpretation).
Python Promptflow Streamlit Jinja2 LLM RAG
Kunde aus der Branche Marktforschung
1 Jahr 5 Monate
2022-03 - 2023-07

Algorithm-Based Staffing

Data Scientist, Python-Entwickler, Berater Python Docker .NET
Data Scientist, Python-Entwickler, Berater

Ein primär im Projektgeschäft tätiger Kunde wünschte für seine zukünftige Staffing-Planung ein KI-gestütztes Optimierungssystem, ohne der Verwendung von Machine-Learning. Um dieser Anforderung gerecht zu werden, wurde ein heuristik basiertes System unter Einsatz von evolutorischen Schwarm-Algorithmen entwickelt und detailliert an die Anforderungen des Kunden angepasst.

Aufgaben:

Problemanalyse und Lösungsentwicklung, Algorithmus-Auswahl, Implementierung, Hyperparameter-Tuning

Python Docker .NET
Ein Unternehmen aus dem Consultingbereich
2 Jahre 2 Monate
2020-09 - 2022-10

ETL für maschinelle Produktionsdaten

C#-Entwickler, Data Engineer C# Python Azure ...
C#-Entwickler, Data Engineer

Ein Kunde aus dem Medizinbereich generiert während des Produktionsprozesses seiner Geräte umfassende Datenmengen, die mit Hilfe einer Orchestrierungs-Engine erfasst, strukturiert, gesäubert und letztlich über eine SQL-Datenbank einer Tableau Instanz bereitgestellt werden. Die Prozessspezialisten verwenden diese Daten zur Qualitätssicherung und -verbesserung, wobei durchwegs neue Anforderungen an neuartige Datenquellen aufkommen.

Aufgaben:

Technologieauswahl, Konzeptionierung, Implementierung

C# Python Azure Azure Devops
Ein namhaftes Unternehmen aus der Medizintechnikbranche
5 Monate
2022-02 - 2022-06

Package-Resizing für DWH-Ingestion

C#-Entwickler, Azure-Entwickler, Data Engineer Azure Azure Data Factory Gen2 Azure Devops ...
C#-Entwickler, Azure-Entwickler, Data Engineer

Im Rahmen der Implementierung einer umfassenden modernen Datenplattform war es erstrebenswert, ein Zusammenfassen von Daten in Pakete durchzuführen, bevor diese in ein Snowflake Cloud Data Ware House überführt werden. Hierfür kamen Azure Functions sowie diverse Azure Storage-Lösungen zum Einsatz. Der Prozess wurde durch die Azure Data Factory orchestriert.

Aufgaben:

Konzeptionierung, Implementierung

Azure Azure Data Factory Gen2 Azure Devops Azure Storage Blobs Azure Data Lake Gen2 Azure Functions C#
Ein namhaftes Unternehmen aus der Medizintechnikbranche
7 Monate
2021-01 - 2021-07

Cloud ETL Prozesse

C#-Entwickler, Azure-Entwickler, Data Engineer, Berater Azure Data Factory Gen2 Azure Storage Blobs Azure Data Lake Gen2 ...
C#-Entwickler, Azure-Entwickler, Data Engineer, Berater

Umfassende Datenmengen, die durch eine Cloud API sowie Application Insights gesammelt wurden, sollten in einem Dashboard den Angestellten zur Verfügung gestellt werden. Es war erforderlich die Daten im Vorfeld durch einen umfassenden Transformations- und Säuberungsprozess zu führen.

Aufgaben:

Technologieauswahl, Konzeptionierung, Implementierung

Azure Data Factory Gen2 Azure Storage Blobs Azure Data Lake Gen2 Azure Batch C# Databricks
Ein namhaftes Unternehmen aus der Medizintechnikbranche
1 Jahr 1 Monat
2019-03 - 2020-03

Erstellen einer Serverless Cloud API

Azure-Entwickler, C#-Entwickler Azure Azure CosmosDB Azure Functions ...
Azure-Entwickler, C#-Entwickler

Der Kunde wünschte eine high-throughput API auf Basis des Azure Stacks um alle Loggingdaten der Geräte und Anwendungen des Unternehmens sammeln und für eine Weiterverarbeitung bereitstellen zu können. Dies wurde auf Basis von Azure Functions als Serverless-API umgesetzt.

Aufgaben:

Technologieauswahl, Konzeptionierung, Implementierung, Projektmanagement

Azure Azure CosmosDB Azure Functions C# Azure Storage Blobs Azure Data Lake Gen2
Ein namhaftes Unternehmen aus der Medizintechnikbranche

Aus- und Weiterbildung

Aus- und Weiterbildung

2 Jahre 6 Monate
2015-10 - 2018-03

Wirtschaftsinformatik

M.Sc., Technische Hochschule Nürnberg
M.Sc.
Technische Hochschule Nürnberg
1 Monat
2017-01 - 2017-01

Professional Certificate in Foundations of Data Science

Zertifizierung,
Zertifizierung
3 Jahre 8 Monate
2011-10 - 2015-05

Wirtschaftsinformatik

B.Sc., Technische Hochschule Nürnberg
B.Sc.
Technische Hochschule Nürnberg

Position

Position

Data Scientist, Data & AI Engineer

Kompetenzen

Kompetenzen

Schwerpunkte

Docker
Experte
LLM
Experte
Machine Learning
Experte
Deep Learning
Experte
ETL
Experte
Automation
Experte
Infrastructure as Code
Fortgeschritten

Produkte / Standards / Erfahrungen / Methoden

Scrum
Fortgeschritten
Kanban
Fortgeschritten
PyTorch
Experte
Tensorflow
Experte
Promptflow
Experte
Keras
Experte
Hadoop
Fortgeschritten
Spark
Experte
CDK
Experte
Azure DevOps
Experte
Jira
Experte
Git
Experte
Azure Data Factory
Experte
AWS Glue
Experte
Databricks
Experte
RapidMiner
Fortgeschritten
SSIS
Fortgeschritten
Weka
Basics
Kubernetes
Fortgeschritten
Docker Swarm
Experte
Jupyter Notebook
Experte
PowerGUI
Fortgeschritten
Streamlit
Fortgeschritten
AWS Sagemaker
Fortgeschritten
Dask
Fortgeschritten
VMware
Fortgeschritten
AWS
Fortgeschritten
Azure
Fortgeschritten
Transfer Learning
Fortgeschritten
Experiment Tracking
Fortgeschritten
Model Deployment
Fortgeschritten
Terraform
Basics

Betriebssysteme

Linux
Experte
Windows
Experte

Programmiersprachen

C#
Fortgeschritten
Python
Experte
PowerShell
Experte

Datenbanken

MS-SQL
Experte
Azure CosmosDB
Fortgeschritten
AWS Athena
Fortgeschritten
HBase
Fortgeschritten
MongoDB
Experte
TimescaleDB
Experte
PostgreSQL
Fortgeschritten

Branchen

Branchen

Medizintechnik, Automotive, Consulting

Einsatzorte

Einsatzorte

Deutschland, Schweiz, Österreich
möglich

Projekte

Projekte

2 Jahre 4 Monate
2022-10 - 2025-01

Entwickeln einer MQTT-Umgebung für hochfrequente Fertigungsdaten

Python-Entwickler, Senior Data Engineer, DevOps-Engineer, Daten Architekt Python Docker Docker Swarm ...
Python-Entwickler, Senior Data Engineer, DevOps-Engineer, Daten Architekt

Aufbau einer leistungsfähigen, skalierbaren und flexiblen Infrastruktur zur Echtzeit-Vernetzung verschiedener Fertigungswerke und angeschlossener Industrieanlagen über MQTT, inklusive zuverlässiger Datenaufnahme, -speicherung, Visualisierung und Verwaltung.

? Vernetzung von Fertigungsanlagen und Industriekomponenten über MQTT zur Erfassung hochfrequenter Live-Daten.
? Auswahl, Anpassung und Betrieb eines geeigneten MQTT-Brokers.
? Erweiterung des Brokers um einem User die Nutzung mehrere Client-IDs zu ermöglichen.
? Entwurf und Implementierung der Architektur für das MQTT-Live-Datenformat sowie der Topic-Strukturen zur semantisch konsistenten Datenorganisation.
? Aufbau einer hybriden Dateninfrastruktur mit spezialisierten TimeSeries- und NoSQL-Datenbanken (TimescaleDB, InfluxDB, MongoDB) inklusive optimierter Datenmodellierung für geschachtelte Daten.
? Entwicklung von High-Performance-Insert-Anwendungen für MQTT-Daten in TimescaleDB und Producer-Komponenten zur Ableitung von Produktionsdaten aus Dateien.
? Entwickeln von Producer-Komponenten zur Ableitung von Produktionsdaten aus Log-Dateien.
? Automatisierte Bereinigung redundanter Nachrichten in TimescaleDB mittels Stored Procedures auf Basis von Hashvergleichen.
? Implementierung von User- und Rechteverwaltung für TimescaleDB.
? Visualisierung von Maschinen- und Systemzuständen über Grafana mit SSO-Integration.
? Logging-Infrastruktur für Docker Swarm und Kubernetes mit Graylog sowie FluentBit mit Custom-Regeln zur Reduktion redundanter Log-Einträge.
? Deployment-Automatisierung über Administrationsskripte für Docker Swarm; späterer Umzug und Betrieb auf Tanzu Kubernetes.
? Testautomatisierung: Deployment-Tests mit C#, Systemverifikation mittels Pytest.
? Betrieb begleitender Anwendungen zur Live-Darstellung der Maschinenzustände.


Aufgaben

? Anforderungsanalyse zur Definition von Datenformaten, Performance-Zielen und Betriebsanforderungen.
? Architekturkonzeption für die End-to-End-MQTT-Datenpipeline inklusive Topic-Design und Datenmodellierung.
? Auswahl, Anpassung und Betrieb des MQTT-Brokers.
? Entwicklung von Producer-Komponenten zur Generierung und Einspeisung von Produktionsdaten.
? Erstellung und Optimierung von Insert-Skripten für TimescaleDB zur Hochdurchsatz-Verarbeitung von MQTT Daten.
? Implementierung von Mechanismen zur deduplizierten Datenhaltung in TimescaleDB (Hash-basierte Bereinigung).
? Aufbrechen geschachtelter Daten in relationale Strukturen und Gestaltung der zugrundeliegenden TimescaleDB-Architektur.
? Einführung und Pflege von Usermanagement in TimescaleDB sowie SSO für Grafana.
? Aufbau der Observability-Schicht: Logging mit Graylog, Filterlogik in FluentBit, Metriken und Dashboards in Grafana.
? Automatisierung des Deployments via Skripte für Docker Swarm und später Migration / Betrieb auf Tanzu Kubernetes.
? Testentwicklung (C# für Deployment-Tests, Pytest für Systemverifikation).
? Betrieb und kontinuierliche Verbesserung der Live-Visualisierungsanwendungen für Maschinenzustände.


Python Docker Docker Swarm Kubernetes MongoDB TimescaleDB InfluxDB MQTT VerneMQ Grafana FluentBit C# .NET
Ein namhaftes Unternehmen aus der Medizintechnikbranche
4 Monate
2024-05 - 2024-08

Design und Umsetzung einer Cloud-gestützten ML(Ops)- und Datenplattform

Data Scientist, Date Engineer, Cloud Architekt Python Docker Databricks ...
Data Scientist, Date Engineer, Cloud Architekt

Aufbau einer skalierbaren, sicheren und zukunftsfähigen Plattform zur Verwaltung, Aufbereitung und Bereitstellung von Trainingsdaten und KI-Modellen, die sowohl in der Cloud (Azure) als auch On-Premise in lokalen Anlagenrechenzentren betrieben werden kann. Die Plattform soll automatisierte Workflows, Nutzerverwaltung, optimierten Datentransfer und einfache Test-/Endpoint-Bereitstellung unterstützen.

  • Evaluation verschiedener Cloud-Alternativen für die Datenhaltung und -aufbereitung von Trainingsdaten für Machine-Learning-Zwecke.
  • Entwurf eines ganzheitlichen Architekturkonzepts mit Blick auf Zukunftsfähigkeit (modular, erweiterbar, hybride Cloud/On-Premise-Fähigkeit).
  • Einrichtung von ETL-Pipelines für den Upload und die Transformation von Stamm- und Bilddaten.
  • Optimierter, sicherer Datenexport aus örtlichen Rechenzentren in die Azure Cloud.
  • Training von KI-Modellen sowie deren Verpackung und Bereitstellung als Docker-Container.
  • On-Premise Modell-Deployment in lokalen Anlagenrechenzentren mittels Docker-Containern.
  • Einsatz von MLflow zur Verwaltung von Machine-Learning-Projekten (Experiment Tracking, Modellversionierung etc.).
  • Automatische Bereitstellung von Endpoints zum Testen und Validieren der erzeugten Modelle.
  • Implementierung einer Userverwaltung speziell für Databricks-Zugriffe.
  • Sicherstellung von Sicherheitsanforderungen auf Daten-, Übertragungs- und Deployment-Ebene.


Aufgaben

  • Anforderungsanalyse zur Ermittlung der Anforderungen an Daten, Modelle und Betriebsumgebung.
  • Konzeption und Implementierung der Cloud- und hybriden Architektur inkl. On-Premise-Integration.
  • Entwicklung und Betrieb von ETL-Pipelines zur Datenaufnahme und -transformation.
  • Aufbau der Pipeline für Modelltraining und Lifecycle-Management mit MLflow.
  • Verpackung und Deployment der Modelle als Docker-Container sowohl in Azure als auch lokal.
  • Gestaltung und Implementierung der Nutzer-/Zugriffsverwaltung für Databricks.
  • Entwicklung von Mechanismen für den sicheren und performanten Datenexport aus lokalen Rechenzentren in die Azure Cloud.
  • Automatisierung der Endpoint-Erstellung zum einfachen Testen trainierter Modelle.
Einbindung von Sicherheitsmaßnahmen (z. B. Zugriffskontrollen, Verschlüsselung in Transit/at-Rest, Auditierbarkeit).


Python Docker Databricks Azure Azure Data Factory Jupyter Notebooks MLFlow CI/CD Apache Spark
Ein Kunde aus der Logistik Branche
1 Jahr
2023-07 - 2024-06

Analyse von Radarpunkten im Kontext von Geo-Koordinaten

Senor Data Engineer, Data Scientist, DevOps-Engineer, AWS-Entwickler AWS AWS-Glue AWS-S3 ...
Senor Data Engineer, Data Scientist, DevOps-Engineer, AWS-Entwickler

Radardaten sollten, unter Einsatz der AWS-Cloud mit PySpark, in Relation zu Geo-Koordinaten gesetzt und anschließend auf Muster mit KI-Methoden untersucht werden. Die eingesetzten AWS-Services wurde als Code in Kombination mit einer GitHub CI/CD Pipeline getestet und orchestriert. 

Aufgaben:

Architektur, Konzeptionierung, Implementierung

AWS AWS-Glue AWS-S3 AWS-EC2 AWS-CDK AWS-Sagemaker Apache Spark
Ein namhaftes Unternehmen aus dem Automotivbereich
3 Monate
2024-01 - 2024-03

Produkt Review Kategorisierer

Prompt Engineer, Python Entwickler Python Promptflow Streamlit ...
Prompt Engineer, Python Entwickler

Analyse von Produktreviews mit Hilfe großer Sprachmodelle (LLMs), Extraktion relevanter Kategorien und Darstellung der Ergebnisse zur Unterstützung von Marktforschungsentscheidungen.

  • Analyse von Produktreviews mittels Large Language Models zur Identifikation und Extraktion relevanter Kategorien.
  • Versionierung und Validierung von Prompts mithilfe von Promptflow.
  •  Entwicklung und Fine-Tuning von Prompt-Engineering-Strategien zur Qualitätssteigerung der Extraktion.
  •  Visualisierung der Analyseergebnisse über eine einfache Streamlit-App für Stakeholder.
  •  Einsatz von LLM-basierten Komponenten als Kern der Kategorisierungslogik zur Unterstützung von Marktforschung.


Aufgaben:

  • Konzeptionierung der Prompt-Engineering-Ansätze zur zuverlässigen Kategorienextraktion.
  • Implementierung der Review-Analysepipeline mit LLM-Integrationen.
  • Validierung von Prompts über Promptflow.
  • Aufbau der Streamlit-basierten Visualisierung zur Darstellung der extrahierten Insights.
  • Bereitstellung der LLM-Ergebnisse (Aufbereitung, Kategorisierung, Interpretation).
Python Promptflow Streamlit Jinja2 LLM RAG
Kunde aus der Branche Marktforschung
1 Jahr 5 Monate
2022-03 - 2023-07

Algorithm-Based Staffing

Data Scientist, Python-Entwickler, Berater Python Docker .NET
Data Scientist, Python-Entwickler, Berater

Ein primär im Projektgeschäft tätiger Kunde wünschte für seine zukünftige Staffing-Planung ein KI-gestütztes Optimierungssystem, ohne der Verwendung von Machine-Learning. Um dieser Anforderung gerecht zu werden, wurde ein heuristik basiertes System unter Einsatz von evolutorischen Schwarm-Algorithmen entwickelt und detailliert an die Anforderungen des Kunden angepasst.

Aufgaben:

Problemanalyse und Lösungsentwicklung, Algorithmus-Auswahl, Implementierung, Hyperparameter-Tuning

Python Docker .NET
Ein Unternehmen aus dem Consultingbereich
2 Jahre 2 Monate
2020-09 - 2022-10

ETL für maschinelle Produktionsdaten

C#-Entwickler, Data Engineer C# Python Azure ...
C#-Entwickler, Data Engineer

Ein Kunde aus dem Medizinbereich generiert während des Produktionsprozesses seiner Geräte umfassende Datenmengen, die mit Hilfe einer Orchestrierungs-Engine erfasst, strukturiert, gesäubert und letztlich über eine SQL-Datenbank einer Tableau Instanz bereitgestellt werden. Die Prozessspezialisten verwenden diese Daten zur Qualitätssicherung und -verbesserung, wobei durchwegs neue Anforderungen an neuartige Datenquellen aufkommen.

Aufgaben:

Technologieauswahl, Konzeptionierung, Implementierung

C# Python Azure Azure Devops
Ein namhaftes Unternehmen aus der Medizintechnikbranche
5 Monate
2022-02 - 2022-06

Package-Resizing für DWH-Ingestion

C#-Entwickler, Azure-Entwickler, Data Engineer Azure Azure Data Factory Gen2 Azure Devops ...
C#-Entwickler, Azure-Entwickler, Data Engineer

Im Rahmen der Implementierung einer umfassenden modernen Datenplattform war es erstrebenswert, ein Zusammenfassen von Daten in Pakete durchzuführen, bevor diese in ein Snowflake Cloud Data Ware House überführt werden. Hierfür kamen Azure Functions sowie diverse Azure Storage-Lösungen zum Einsatz. Der Prozess wurde durch die Azure Data Factory orchestriert.

Aufgaben:

Konzeptionierung, Implementierung

Azure Azure Data Factory Gen2 Azure Devops Azure Storage Blobs Azure Data Lake Gen2 Azure Functions C#
Ein namhaftes Unternehmen aus der Medizintechnikbranche
7 Monate
2021-01 - 2021-07

Cloud ETL Prozesse

C#-Entwickler, Azure-Entwickler, Data Engineer, Berater Azure Data Factory Gen2 Azure Storage Blobs Azure Data Lake Gen2 ...
C#-Entwickler, Azure-Entwickler, Data Engineer, Berater

Umfassende Datenmengen, die durch eine Cloud API sowie Application Insights gesammelt wurden, sollten in einem Dashboard den Angestellten zur Verfügung gestellt werden. Es war erforderlich die Daten im Vorfeld durch einen umfassenden Transformations- und Säuberungsprozess zu führen.

Aufgaben:

Technologieauswahl, Konzeptionierung, Implementierung

Azure Data Factory Gen2 Azure Storage Blobs Azure Data Lake Gen2 Azure Batch C# Databricks
Ein namhaftes Unternehmen aus der Medizintechnikbranche
1 Jahr 1 Monat
2019-03 - 2020-03

Erstellen einer Serverless Cloud API

Azure-Entwickler, C#-Entwickler Azure Azure CosmosDB Azure Functions ...
Azure-Entwickler, C#-Entwickler

Der Kunde wünschte eine high-throughput API auf Basis des Azure Stacks um alle Loggingdaten der Geräte und Anwendungen des Unternehmens sammeln und für eine Weiterverarbeitung bereitstellen zu können. Dies wurde auf Basis von Azure Functions als Serverless-API umgesetzt.

Aufgaben:

Technologieauswahl, Konzeptionierung, Implementierung, Projektmanagement

Azure Azure CosmosDB Azure Functions C# Azure Storage Blobs Azure Data Lake Gen2
Ein namhaftes Unternehmen aus der Medizintechnikbranche

Aus- und Weiterbildung

Aus- und Weiterbildung

2 Jahre 6 Monate
2015-10 - 2018-03

Wirtschaftsinformatik

M.Sc., Technische Hochschule Nürnberg
M.Sc.
Technische Hochschule Nürnberg
1 Monat
2017-01 - 2017-01

Professional Certificate in Foundations of Data Science

Zertifizierung,
Zertifizierung
3 Jahre 8 Monate
2011-10 - 2015-05

Wirtschaftsinformatik

B.Sc., Technische Hochschule Nürnberg
B.Sc.
Technische Hochschule Nürnberg

Position

Position

Data Scientist, Data & AI Engineer

Kompetenzen

Kompetenzen

Schwerpunkte

Docker
Experte
LLM
Experte
Machine Learning
Experte
Deep Learning
Experte
ETL
Experte
Automation
Experte
Infrastructure as Code
Fortgeschritten

Produkte / Standards / Erfahrungen / Methoden

Scrum
Fortgeschritten
Kanban
Fortgeschritten
PyTorch
Experte
Tensorflow
Experte
Promptflow
Experte
Keras
Experte
Hadoop
Fortgeschritten
Spark
Experte
CDK
Experte
Azure DevOps
Experte
Jira
Experte
Git
Experte
Azure Data Factory
Experte
AWS Glue
Experte
Databricks
Experte
RapidMiner
Fortgeschritten
SSIS
Fortgeschritten
Weka
Basics
Kubernetes
Fortgeschritten
Docker Swarm
Experte
Jupyter Notebook
Experte
PowerGUI
Fortgeschritten
Streamlit
Fortgeschritten
AWS Sagemaker
Fortgeschritten
Dask
Fortgeschritten
VMware
Fortgeschritten
AWS
Fortgeschritten
Azure
Fortgeschritten
Transfer Learning
Fortgeschritten
Experiment Tracking
Fortgeschritten
Model Deployment
Fortgeschritten
Terraform
Basics

Betriebssysteme

Linux
Experte
Windows
Experte

Programmiersprachen

C#
Fortgeschritten
Python
Experte
PowerShell
Experte

Datenbanken

MS-SQL
Experte
Azure CosmosDB
Fortgeschritten
AWS Athena
Fortgeschritten
HBase
Fortgeschritten
MongoDB
Experte
TimescaleDB
Experte
PostgreSQL
Fortgeschritten

Branchen

Branchen

Medizintechnik, Automotive, Consulting

Vertrauen Sie auf Randstad

Im Bereich Freelancing
Im Bereich Arbeitnehmerüberlassung / Personalvermittlung

Fragen?

Rufen Sie uns an +49 89 500316-300 oder schreiben Sie uns:

Das Freelancer-Portal

Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.