IT-Spezialist mit Expertise in Data Engineering, Infrastruktur & DevOps. Aktueller Fokus: KI in Sprachverarbeitung.
Aktualisiert am 05.04.2024
Profil
Mitarbeiter eines Dienstleisters
Remote-Arbeit
Verfügbar ab: 01.05.2024
Verfügbar zu: 100%
davon vor Ort: 5%
Skill-Profil eines fest angestellten Mitarbeiters des Dienstleisters
deutsch
Muttersprache
englisch
Verhandlungssicher
russisch
Muttersprache

Einsatzorte

Einsatzorte

Deutschland, Schweiz, Österreich
möglich

Projekte

Projekte

1 Jahr 4 Monate
2023-01 - heute

Datenintegration im Bahnverkehr

Data Engineer SQL T-SQL Python ...
Data Engineer

? MSSQL / Oracle: 

Durchführung fortgeschrittener Entwicklung und Optimierungen in der Datenbanklandschaft, um bestehende Strukturen und Abfrageeffizienz zu verbessern. Verwendung von T-SQL für komplexe Datenmanipulation und Analyse, gepaart mit Tests zur Sicherstellung der Datenintegrität und -qualität.

? ETL:

Entwurf und Implementierung robuster ETL-Pipelines unter Verwendung von Talend, SSIS und Python, um Daten aus verschiedenen Quellen zu extrahieren, zu transformieren und in Oracle- und MS SQL-Datenbanken zu laden.

? AWS:

Verantwortlich für die Migration von On-Premise-Workloads in die AWS-Cloud unter Verwendung von Cloud-Technologien wie Amazon Relational Database Service (RDS) und S3-Storage.

? Zabbix, Tableau:

Implementierung eines Überwachungssystems für die ETL-Prozesse und Datenbankinfrastruktur unter Einsatz von Zabbix und Tableau. Konfiguration und Wartung, unterstützt durch regelmäßiges Reporting in Tableau und Jira / Confluence.

? Git, Jira:

Verbesserung der Entwicklungs- und Deployment-Prozesse, um die Einführung neuer Features zu beschleunigen. Nutzung von Scrum-Methodiken zur effizienten Koordination und Umsetzung.

? Docker & Kubernetes:

Einsatz von Container-Technologien und Orchestrierungswerkzeugen zur effizienten Verwaltung und Skalierung von Softwareanwendungen.

Technologien/Tools

? MS SQL Server ? Oracle ? AWS ? ETL ? Talend ? SSIS ? (T)-SQL ? Python ? C# ? Docker ? Kubernetes ? Tableau ? Power BI ? Jira/Confluence ? CI/CD ? Git ? Zabbix


MS SQL Server ETL Oracle Apache NiFi MS SQL Server Integration Services Zabbix Git Atlassian JIRA Talend AWS Power BI
SQL T-SQL Python C# SSIS CI/CD DevOps Kubernetes Docker Scrum
Remote
1 Jahr 8 Monate
2022-09 - heute

Entwicklung einer Text-To-Speech Anwendung (Open Source)

Software Developer & Machine Learning Engineer Python PyTorch NumPy ...
Software Developer & Machine Learning Engineer


? TTS-Technologien:

Entwicklung und Erforschung fortschrittlicher TTS-Systeme für eine klare und natürliche Sprachausgabe. Umsetzung innovativer Ansätze zur Verbesserung der Verständlichkeit und Natürlichkeit der erzeugten Sprache.

? Python & PyTorch:

Verwendung von Python und PyTorch für die Entwicklung und das Training von TTS-Modellen.

? Python & Jupyter:

Einsatz von Python und Jupyter-Notebooks zur Steigerung der Effizienz von Datenverarbeitungs- und Verwaltungsprozessen durch Automatisierung dieser.

? Huggingface & NLP:

Verwendung von vortrainierten NLP-Modellen von Huggingface zur Erweiterung und Verbesserung der TTS-Modelle.

? C#, JavaScript & WPF:

Entwicklung mehrerer Benutzeroberfläche für die TTS-Anwendung als Desktop-App mit C# unter Verwendung von WPF und einer Webapp.

? ONNX Runtime:

Verwendung der ONNX Runtime zur Optimierung der Ausführungszeiten der TTS-Modelle.

Technologien/Tools

? Python ? PyTorch ? NumPy ? TTS ? Jupyter ? Huggingface ? C# ? Javascript ? WPF ? ONNX ? SQLite ? Git ? Unit Tests


Python PyTorch NumPy Text-to-Speech Jupyter Huggingface C# Windows Presentation Foundation WPF Controls ONNX SQLite Git Unittest NLP TTS
1 Jahr 6 Monate
2022-09 - 2024-02

Datenintegration im Energiekonzern

Data Engineer Python Data-Dictionary REST ...
Data Engineer

Tätigkeit

? Elastic Stack:

Entwurf und Entwicklung von Datenmodellen in Elastic Search. Implementierung von Datenübertragungslösungen mit Elastic-nativen Tools wie Beats und Logstash, um eine nahtlose und effiziente Datenintegration zu gewährleisten. Datenvisualisierung mit Kibana zur Visualisierung von Datensätzen, Erstellung von benutzerfreundlichen Dashboards.

? ETL:

Integration von ETL-Pipelines mit Apache Airflow und Python zur Verarbeitung verschiedener Datenquellen und Datenformate.

? Redis:

Implementierung eines Redis-basierten Message Brokers für die Kommunikation und Synchronisation zwischen verschiedenen Systemkomponenten.

? FastAPI:

Design und Implementierung von REST APIs mit FastAPI, Schwerpunkt auf Integration und Kommunikation zwischen heterogenen Systemen.

? Python & Jupyter:

Einsatz von Python und Jupyter-Notebooks zur Steigerung der Effizienz von Datenverarbeitungs- und Verwaltungsprozessen durch Automatisierung dieser.

? scikit-learn, Transformers:

Einsatz von KI-gestützten Datenanalysemethoden unter Verwendung von sklearn und transformers in Python. Fokus auf Mustererkennung und Klassifizierung dieser in Gruppen.

? Docker & Kubernetes:

Einsatz von Container-Technologien und Orchestrierungswerkzeugen zur effizienten Verwaltung und Skalierung von Softwareanwendungen.

Technologien/Tools

? Elastic Search ? ETL ? Apache Airflow ? Redis ? Elastic Stack ? Elastic Search ? Beats ? Logstash

? Kibana ? Python ? Jupyter ? REST ? FastAPI ? AI ? scikit-learn ? Transformers ? Jira/Confluence

? Git ? Docker


Elastic Search ETL Redis Elastic Stack Kibana Apache Airflow Atlassian JIRA scrub
Python Data-Dictionary REST FastAPI Künstliche Scikit learn Machine Learning Künstliche Intelligenz Transformers Jupyter Logstash Elastic Stack Docker Git
EON
Remote
9 Monate
2022-01 - 2022-09

Entwicklung eines Emergency Chatbots

Software-Entwickler & Machine Learning Engineer MongoDB Machine Learning Python ...
Software-Entwickler & Machine Learning Engineer

Tätigkeit

? PyTorch & Huggingface:

Verwendung von PyTorch zum Entwickeln und Trainieren von Modellen für maschinelles Lernen, insbesondere für die Verarbeitung natürlicher Sprache und das Verstehen von Benutzeranfragen. Verwendung von Huggingface-Tools, einschließlich der Integration von vortrainierten Modellen.

? LLM (Large Language Models):

Integration von großen Sprachmodellen (Large Language Models), um komplexe Benutzeranfragen zu verstehen und zu reagieren, insbesondere in Notfallsituationen.

? NLP (Natural Language Processing)

Untersuchung und Implementierung verschiedener NLP-Frameworks wie Rasa, Dialogflow oder IBM Watson zur Analyse, zum Verständnis und zur Verarbeitung menschlicher Sprache, um eine genaue und effektive Kommunikation mit den Benutzern zu ermöglichen.

? FastAPI:

Entwicklung einer Schnittstelle mit FastAPI für den Chatbot, um eine schnelle, skalierbare und wartbare API-Bereitstellung der NLP-Modelle zu gewährleisten.

? Unit Tests:

Durchführung umfassender Unit-Tests, um die Zuverlässigkeit und Funktionalität aller Komponenten des Chatbots sicherzustellen.

? Kubernetes:

Einsatz von Kubernetes für die Orchestrierung und das Management der Anwendungen.

Technologien/Tools

? Python ? PyTorch ? Jupyter ? LLM ? NLP ? Rasa ? Dialogflow ? IBM Watson ? Huggingface

? Elastic Search ? FastAPI ? Unit Tests ? Kubernetes ? Git


Python MongoDB Pytorch IBM Watson Elastic Search
MongoDB Machine Learning Python Künstliche Intelligenz Sprachverarbeitung Deep Learning Large Language Models Natural Language Processing FastAPI kubernetes Rasa Dialogflow Git PyTorch Huggingface Unittest
1 Jahr 1 Monat
2021-01 - 2022-01

Entwicklung eines Sprachassistenten im Bereich des AAL (Betreutes Wohnen)

Software Developer & Machine Learning Engineer Internet of Things Python Künstliche Intelligenz ...
Software Developer & Machine Learning Engineer

Tätigkeit

? PyTorch & TensorFlow:

Verwendung von PyTorch und TensorFlow für die Entwicklung und das Training von Deep-Learning-Modellen. Speziell für Spracherkennung (ASR), natürliche Sprachverarbeitung (NLP) und Text-to-Speech (TTS).

? DeepSpeech & Kaldi:

Erforschung und Implementierung von Spracherkennungsmodellen mit DeepSpeech und Kaldi zur Verbesserung der Transkriptionsgenauigkeit von Nutzeranfragen, insbesondere für den Bereich Ambient Assisted Living.

? Rasa:

Entwicklung von NLP-Komponenten mit Rasa zum Verstehen und Verarbeiten von Benutzeranfragen, einschließlich der Gestaltung von Dialogabläufen und Integration in den Sprachassistenten.

? Nvidia Jetson:

Nutzung der Nvidia Jetson-Plattform für Edge-Computing-Anwendungen, um eine schnelle und lokale Verarbeitung von Sprachdaten zu ermöglichen und die Reaktionszeit des Assistenten zu verbessern.

? Eingebettete Systeme & IoT:

Integration des Sprachassistenten in eingebettete Systeme und IoT-Geräte im Bereich des betreuten Wohnens, um eine nahtlose Interaktion und Konnektivität zu gewährleisten.

Technologien/Tools

? Python ? PyTorch ? TensorFlow ? Jupyter ? DeepSpeech ? Kaldi ? Rasa ? NLP ? ASR ? TTS

? Nvidia Jetson ? Unit Tests ? Docker ? Git ? Eingebettete Systeme ? IoT


Nvidia Pytorch ONNX NVIDIA Jetson
Internet of Things Python Künstliche Intelligenz embedded Spracherkennung Sprachverständnis Kaldi Automatic speech recognition Natural Language Processing DeepSpeech TensorFlow Text-to-Speech Rasa NVIDIA Jetson Edge computing
Darmstadt
6 Monate
2021-01 - 2021-06

Datenintegration E-Commerce Offline/Online Daten

Daten Engineer und Software Developer Python SQL Kafka ...
Daten Engineer und Software Developer

Tätigkeit

? Apache Kafka:

Integration von Apache Kafka zur Optimierung der Echtzeit-Datenverarbeitung und -Kommunikation. Nutzung der Streaming-Funktionen von Kafka zum Aufbau einer robusten und skalierbaren Dateninfrastruktur.

? Java:

Entwurf und Implementierung von spezifischen Kafka-Konnektoren in Java für die Integration neuer Datenquellen. Entwicklung von Kafka-Streams mit Schwerpunkt auf der Echtzeitverarbeitung und Speicherung von E-Commerce-Daten in PostgreSQL- und MSSQL-Datenbanken.

? Debezium:

Einsatz von Debezium in Verbindung mit Apache Kafka zum Aufbau einer zuverlässigen Datenpipeline für die Datenreplikation und -synchronisation, unterstützt durch kontinuierliche Change Data Capture (CDC) Mechanismen.

? ETL:

Entwicklung und Optimierung von ETL-Prozessen mittels SSIS zur Gewährleistung einer effizienten Datenextraktion, -transformation und -ladung.

? Unit Tests:

? Durchführung von Testautomatisierung mit JUnit und Pytest zur Sicherstellung der Softwarequalität und zur Reduzierung von Fehlern in der Entwicklungsphase.

? Python:

Entwicklung von Skripten in Python zur Automatisierung von wiederkehrenden Aufgaben und Prozessen, insbesondere im Zusammenhang mit der Datenverwaltung und Systempflege.

? Docker & Kubernetes:

Einsatz von Container-Technologien und Orchestrierungswerkzeugen zur effizienten Verwaltung und Skalierung von Softwareanwendungen.

Technologien/Tools

? Apache Kafka ? PostgreSQL ? MSSQL ? Debezium ? Python ? SQL ? Redis ? JUnit Tests ? ETL

? SSIS ? Java ? Jira/Confluence ? CI/CD ? Docker ? Kubernetes ? E-Commerce


Apache Kafka PostgreSQL MS SQL Datenbanken ETL MS SQL Server Integration Services Atlassian JIRA
Python SQL Kafka Java Scala Debezium DevOps Kubernetes E-Commerce Docker Container Unittest Redis Scrum
1 Jahr
2020-02 - 2021-01

CRM ? ETL, Datenmanagement und Controlling

Software-Entwickler & Software Developer Java Scala Apache Kafka ...
Software-Entwickler & Software Developer

  • Tätigkeit

? Apache Kafka:
Integration von Apache Kafka zur Optimierung der Echtzeit-Datenverarbeitung und -Kommunikation. Nutzung der Streaming-Funktionen von Kafka zum Aufbau einer robusten und skalierbaren Dateninfrastruktur.
? Java:
Entwurf und Implementierung spezifischer Kafka-Konnektoren in Java für die Integration neuer Datenquellen.
? Debezium:
Einsatz von Debezium in Verbindung mit Apache Kafka zum Aufbau einer zuverlässigen Datenpipeline für die Datenreplikation und -synchronisation, unterstützt durch kontinuierliche Change Data Capture (CDC) Mechanismen.
? ETL:
Entwicklung und Optimierung von ETL-Prozessen mittels SSIS zur Gewährleistung einer effizienten Datenextraktion, -transformation und -ladung.
? JUnit:
Durchführung von Testautomatisierung mit JUnit und anderen relevanten Tools zur Sicherstellung der Softwarequalität und zur Reduzierung von Fehlern in der Entwicklungsphase.
? Python:
Entwicklung von Skripten in Python zur Automatisierung von wiederkehrenden Aufgaben und Prozessen, insbesondere im Zusammenhang mit der Datenverwaltung und Systempflege.
Technologien/Tools
? Apache Kafka ? Debezium ? Java ? SQL ? Debezium ? DevOps ? Python ? ETL ? SSIS
? JUnit Tests ? MSSQL ? MySQL ? CI/CD ? Docker

Apache Kafka Debezium Java Scala REST SQL NoSQL DevOps Python MS SQL Server Integration Services
Java Scala Apache Kafka Debezium Python REST ETL DevOps Unittest Scrum
Darmstadt
1 Jahr
2019-02 - 2020-01

Datenverarbeitung und Datenanalyse- Business Intelligence

Software Entwickler / Data Engineer SQL ETL C# ...
Software Entwickler / Data Engineer

Tätigkeit

? Datenmodellierung:

Entwurf und Implementierung eines maßgeschneiderten Datenmodells, das speziell auf die Analyseanforderungen des E-Commerce-Kunden zugeschnitten ist. Fokus auf optimierte Datenmodellierungsmethoden, um Effizienz und Skalierbarkeit der Datenverarbeitung und -analyse zu gewährleisten.

? ETL:

Entwurf und Implementierung von ETL-Pipelines unter Verwendung von SQL Server Integration Services (SSIS) zur effizienten Datenkonsolidierung und -aufbereitung. Entwicklung von Berechnungsmethoden für umfassende statistische Datenanalysen und Berichte.

? Grafana, Tableau:

Erstellung von aussagekräftigen Datenvisualisierungen zur Darstellung von Trends und Analysen. Verwendung von Grafana und Tableau für interaktive Dashboards und Berichte, um Erkenntnisse verständlich und zugänglich zu machen.

? Docker:

Einsatz von Container-Technologien zur effizienten Verwaltung von Softwareanwendungen.

Technologien/Tools

? SQL ? MSSQL ? SSIS ? Grafana ? Tableau ? Docker ? JTL ? E-Commerce


MS SQL Server Integration Services MS SQL Server Grafana RunDeck Tableau
SQL ETL C# E-Commerce JTL
4 Jahre 1 Monat
2015-01 - 2019-01

Integration / Automatisierung / Monitoring der IT-Landschaft

Software Entwickler & IT Architect Python Git Docker ...
Software Entwickler & IT Architect

Tätigkeit

? VMware:

Entwicklung und Implementierung einer virtuellen Infrastruktur an verschiedenen Standorten. Verantwortlich für die kontinuierliche Wartung und Optimierung dieser Systeme.

? ETL:

Integration und Verwaltung von ETL-Pipelines für die Konsolidierung und Homogenisierung heterogener Datenquellen. Umfassende Nutzung von SSIS (SQL Server Integration Services) für eine effiziente Datenverarbeitung.

? Rundeck, Ansible:

Entwicklung und Umsetzung von Automatisierungsstrategien für IT-Infrastrukturprozesse. Erstellung von Skripten in Python, Bash und PowerShell zur Ausführung in RunDeck. Orchestrierung und Konfigurationsmanagement von virtuellen Betriebssystemen mit Ansible.

? Python, C#:

Entwicklung von Skripten und Anwendungen zur Unterstützung, Automatisierung und Überwachung der IT-Infrastruktur. Einsatz von Python und C# zur Optimierung betrieblicher Abläufe.

? Zabbix:

Integration und Konfiguration von Zabbix zur umfassenden Überwachung der IT-Landschaft. Sicherstellung der Systemverfügbarkeit und Leistungsüberwachung.

? Docker:

Einsatz von Container-Technologien zur effizienten Verwaltung von Softwareanwendungen.

Technologien/Tools

? Python? C# ? ETL ? SSIS ? Power BI ? MSSQL ? MySQL ? VMware ESX ? Ansible ? RunDeck ? Git ? Docker ? Zabbix


VMware ESX Zabbix RunDeck Ansible MS SQL Datenbanken MS SQL Server Integration Services Power BI
Python Git Docker C# SQL Ansible Zabbix
Darmstadt

Aus- und Weiterbildung

Aus- und Weiterbildung

2 Jahre 1 Monat
2017-01 - 2019-01

Informatik Studium

MSc. in Informatik, Hochschule Darmstadt
MSc. in Informatik
Hochschule Darmstadt

Software Entwicklung

Kompetenzen

Kompetenzen

Produkte / Standards / Erfahrungen / Methoden

Scrum
Fortgeschritten
DevOps (CI / CD)
Fortgeschritten

Betriebssysteme

Linux
Experte
MS Server
Experte
Windows
Experte

Programmiersprachen

Python
Experte
ML Frameworks (PyTorch, Jax)
Fortgeschritten
C#
Fortgeschritten
Web Stack (JS, HTML, CSS)
Fortgeschritten
SQL
Fortgeschritten
Java
Fortgeschritten
Scala
Basics

Datenkommunikation

Kafka
Experte
REST
Experte
Elasticsearch
Experte
SOAP
Fortgeschritten

Berechnung / Simulation / Versuch / Validierung

Machine Lerning
Experte
DeepSpeach
Experte
Natual language Processing
Experte
Automatic Speech Recognition
Experte
Deep Learning
Experte

Design / Entwicklung / Konstruktion

AWS
Fortgeschritten
Docker
Experte
Kubernetes
Fortgeschritten
Google Cloud Platform
Basics
Microsoft Azure
Basics

Einsatzorte

Einsatzorte

Deutschland, Schweiz, Österreich
möglich

Projekte

Projekte

1 Jahr 4 Monate
2023-01 - heute

Datenintegration im Bahnverkehr

Data Engineer SQL T-SQL Python ...
Data Engineer

? MSSQL / Oracle: 

Durchführung fortgeschrittener Entwicklung und Optimierungen in der Datenbanklandschaft, um bestehende Strukturen und Abfrageeffizienz zu verbessern. Verwendung von T-SQL für komplexe Datenmanipulation und Analyse, gepaart mit Tests zur Sicherstellung der Datenintegrität und -qualität.

? ETL:

Entwurf und Implementierung robuster ETL-Pipelines unter Verwendung von Talend, SSIS und Python, um Daten aus verschiedenen Quellen zu extrahieren, zu transformieren und in Oracle- und MS SQL-Datenbanken zu laden.

? AWS:

Verantwortlich für die Migration von On-Premise-Workloads in die AWS-Cloud unter Verwendung von Cloud-Technologien wie Amazon Relational Database Service (RDS) und S3-Storage.

? Zabbix, Tableau:

Implementierung eines Überwachungssystems für die ETL-Prozesse und Datenbankinfrastruktur unter Einsatz von Zabbix und Tableau. Konfiguration und Wartung, unterstützt durch regelmäßiges Reporting in Tableau und Jira / Confluence.

? Git, Jira:

Verbesserung der Entwicklungs- und Deployment-Prozesse, um die Einführung neuer Features zu beschleunigen. Nutzung von Scrum-Methodiken zur effizienten Koordination und Umsetzung.

? Docker & Kubernetes:

Einsatz von Container-Technologien und Orchestrierungswerkzeugen zur effizienten Verwaltung und Skalierung von Softwareanwendungen.

Technologien/Tools

? MS SQL Server ? Oracle ? AWS ? ETL ? Talend ? SSIS ? (T)-SQL ? Python ? C# ? Docker ? Kubernetes ? Tableau ? Power BI ? Jira/Confluence ? CI/CD ? Git ? Zabbix


MS SQL Server ETL Oracle Apache NiFi MS SQL Server Integration Services Zabbix Git Atlassian JIRA Talend AWS Power BI
SQL T-SQL Python C# SSIS CI/CD DevOps Kubernetes Docker Scrum
Remote
1 Jahr 8 Monate
2022-09 - heute

Entwicklung einer Text-To-Speech Anwendung (Open Source)

Software Developer & Machine Learning Engineer Python PyTorch NumPy ...
Software Developer & Machine Learning Engineer


? TTS-Technologien:

Entwicklung und Erforschung fortschrittlicher TTS-Systeme für eine klare und natürliche Sprachausgabe. Umsetzung innovativer Ansätze zur Verbesserung der Verständlichkeit und Natürlichkeit der erzeugten Sprache.

? Python & PyTorch:

Verwendung von Python und PyTorch für die Entwicklung und das Training von TTS-Modellen.

? Python & Jupyter:

Einsatz von Python und Jupyter-Notebooks zur Steigerung der Effizienz von Datenverarbeitungs- und Verwaltungsprozessen durch Automatisierung dieser.

? Huggingface & NLP:

Verwendung von vortrainierten NLP-Modellen von Huggingface zur Erweiterung und Verbesserung der TTS-Modelle.

? C#, JavaScript & WPF:

Entwicklung mehrerer Benutzeroberfläche für die TTS-Anwendung als Desktop-App mit C# unter Verwendung von WPF und einer Webapp.

? ONNX Runtime:

Verwendung der ONNX Runtime zur Optimierung der Ausführungszeiten der TTS-Modelle.

Technologien/Tools

? Python ? PyTorch ? NumPy ? TTS ? Jupyter ? Huggingface ? C# ? Javascript ? WPF ? ONNX ? SQLite ? Git ? Unit Tests


Python PyTorch NumPy Text-to-Speech Jupyter Huggingface C# Windows Presentation Foundation WPF Controls ONNX SQLite Git Unittest NLP TTS
1 Jahr 6 Monate
2022-09 - 2024-02

Datenintegration im Energiekonzern

Data Engineer Python Data-Dictionary REST ...
Data Engineer

Tätigkeit

? Elastic Stack:

Entwurf und Entwicklung von Datenmodellen in Elastic Search. Implementierung von Datenübertragungslösungen mit Elastic-nativen Tools wie Beats und Logstash, um eine nahtlose und effiziente Datenintegration zu gewährleisten. Datenvisualisierung mit Kibana zur Visualisierung von Datensätzen, Erstellung von benutzerfreundlichen Dashboards.

? ETL:

Integration von ETL-Pipelines mit Apache Airflow und Python zur Verarbeitung verschiedener Datenquellen und Datenformate.

? Redis:

Implementierung eines Redis-basierten Message Brokers für die Kommunikation und Synchronisation zwischen verschiedenen Systemkomponenten.

? FastAPI:

Design und Implementierung von REST APIs mit FastAPI, Schwerpunkt auf Integration und Kommunikation zwischen heterogenen Systemen.

? Python & Jupyter:

Einsatz von Python und Jupyter-Notebooks zur Steigerung der Effizienz von Datenverarbeitungs- und Verwaltungsprozessen durch Automatisierung dieser.

? scikit-learn, Transformers:

Einsatz von KI-gestützten Datenanalysemethoden unter Verwendung von sklearn und transformers in Python. Fokus auf Mustererkennung und Klassifizierung dieser in Gruppen.

? Docker & Kubernetes:

Einsatz von Container-Technologien und Orchestrierungswerkzeugen zur effizienten Verwaltung und Skalierung von Softwareanwendungen.

Technologien/Tools

? Elastic Search ? ETL ? Apache Airflow ? Redis ? Elastic Stack ? Elastic Search ? Beats ? Logstash

? Kibana ? Python ? Jupyter ? REST ? FastAPI ? AI ? scikit-learn ? Transformers ? Jira/Confluence

? Git ? Docker


Elastic Search ETL Redis Elastic Stack Kibana Apache Airflow Atlassian JIRA scrub
Python Data-Dictionary REST FastAPI Künstliche Scikit learn Machine Learning Künstliche Intelligenz Transformers Jupyter Logstash Elastic Stack Docker Git
EON
Remote
9 Monate
2022-01 - 2022-09

Entwicklung eines Emergency Chatbots

Software-Entwickler & Machine Learning Engineer MongoDB Machine Learning Python ...
Software-Entwickler & Machine Learning Engineer

Tätigkeit

? PyTorch & Huggingface:

Verwendung von PyTorch zum Entwickeln und Trainieren von Modellen für maschinelles Lernen, insbesondere für die Verarbeitung natürlicher Sprache und das Verstehen von Benutzeranfragen. Verwendung von Huggingface-Tools, einschließlich der Integration von vortrainierten Modellen.

? LLM (Large Language Models):

Integration von großen Sprachmodellen (Large Language Models), um komplexe Benutzeranfragen zu verstehen und zu reagieren, insbesondere in Notfallsituationen.

? NLP (Natural Language Processing)

Untersuchung und Implementierung verschiedener NLP-Frameworks wie Rasa, Dialogflow oder IBM Watson zur Analyse, zum Verständnis und zur Verarbeitung menschlicher Sprache, um eine genaue und effektive Kommunikation mit den Benutzern zu ermöglichen.

? FastAPI:

Entwicklung einer Schnittstelle mit FastAPI für den Chatbot, um eine schnelle, skalierbare und wartbare API-Bereitstellung der NLP-Modelle zu gewährleisten.

? Unit Tests:

Durchführung umfassender Unit-Tests, um die Zuverlässigkeit und Funktionalität aller Komponenten des Chatbots sicherzustellen.

? Kubernetes:

Einsatz von Kubernetes für die Orchestrierung und das Management der Anwendungen.

Technologien/Tools

? Python ? PyTorch ? Jupyter ? LLM ? NLP ? Rasa ? Dialogflow ? IBM Watson ? Huggingface

? Elastic Search ? FastAPI ? Unit Tests ? Kubernetes ? Git


Python MongoDB Pytorch IBM Watson Elastic Search
MongoDB Machine Learning Python Künstliche Intelligenz Sprachverarbeitung Deep Learning Large Language Models Natural Language Processing FastAPI kubernetes Rasa Dialogflow Git PyTorch Huggingface Unittest
1 Jahr 1 Monat
2021-01 - 2022-01

Entwicklung eines Sprachassistenten im Bereich des AAL (Betreutes Wohnen)

Software Developer & Machine Learning Engineer Internet of Things Python Künstliche Intelligenz ...
Software Developer & Machine Learning Engineer

Tätigkeit

? PyTorch & TensorFlow:

Verwendung von PyTorch und TensorFlow für die Entwicklung und das Training von Deep-Learning-Modellen. Speziell für Spracherkennung (ASR), natürliche Sprachverarbeitung (NLP) und Text-to-Speech (TTS).

? DeepSpeech & Kaldi:

Erforschung und Implementierung von Spracherkennungsmodellen mit DeepSpeech und Kaldi zur Verbesserung der Transkriptionsgenauigkeit von Nutzeranfragen, insbesondere für den Bereich Ambient Assisted Living.

? Rasa:

Entwicklung von NLP-Komponenten mit Rasa zum Verstehen und Verarbeiten von Benutzeranfragen, einschließlich der Gestaltung von Dialogabläufen und Integration in den Sprachassistenten.

? Nvidia Jetson:

Nutzung der Nvidia Jetson-Plattform für Edge-Computing-Anwendungen, um eine schnelle und lokale Verarbeitung von Sprachdaten zu ermöglichen und die Reaktionszeit des Assistenten zu verbessern.

? Eingebettete Systeme & IoT:

Integration des Sprachassistenten in eingebettete Systeme und IoT-Geräte im Bereich des betreuten Wohnens, um eine nahtlose Interaktion und Konnektivität zu gewährleisten.

Technologien/Tools

? Python ? PyTorch ? TensorFlow ? Jupyter ? DeepSpeech ? Kaldi ? Rasa ? NLP ? ASR ? TTS

? Nvidia Jetson ? Unit Tests ? Docker ? Git ? Eingebettete Systeme ? IoT


Nvidia Pytorch ONNX NVIDIA Jetson
Internet of Things Python Künstliche Intelligenz embedded Spracherkennung Sprachverständnis Kaldi Automatic speech recognition Natural Language Processing DeepSpeech TensorFlow Text-to-Speech Rasa NVIDIA Jetson Edge computing
Darmstadt
6 Monate
2021-01 - 2021-06

Datenintegration E-Commerce Offline/Online Daten

Daten Engineer und Software Developer Python SQL Kafka ...
Daten Engineer und Software Developer

Tätigkeit

? Apache Kafka:

Integration von Apache Kafka zur Optimierung der Echtzeit-Datenverarbeitung und -Kommunikation. Nutzung der Streaming-Funktionen von Kafka zum Aufbau einer robusten und skalierbaren Dateninfrastruktur.

? Java:

Entwurf und Implementierung von spezifischen Kafka-Konnektoren in Java für die Integration neuer Datenquellen. Entwicklung von Kafka-Streams mit Schwerpunkt auf der Echtzeitverarbeitung und Speicherung von E-Commerce-Daten in PostgreSQL- und MSSQL-Datenbanken.

? Debezium:

Einsatz von Debezium in Verbindung mit Apache Kafka zum Aufbau einer zuverlässigen Datenpipeline für die Datenreplikation und -synchronisation, unterstützt durch kontinuierliche Change Data Capture (CDC) Mechanismen.

? ETL:

Entwicklung und Optimierung von ETL-Prozessen mittels SSIS zur Gewährleistung einer effizienten Datenextraktion, -transformation und -ladung.

? Unit Tests:

? Durchführung von Testautomatisierung mit JUnit und Pytest zur Sicherstellung der Softwarequalität und zur Reduzierung von Fehlern in der Entwicklungsphase.

? Python:

Entwicklung von Skripten in Python zur Automatisierung von wiederkehrenden Aufgaben und Prozessen, insbesondere im Zusammenhang mit der Datenverwaltung und Systempflege.

? Docker & Kubernetes:

Einsatz von Container-Technologien und Orchestrierungswerkzeugen zur effizienten Verwaltung und Skalierung von Softwareanwendungen.

Technologien/Tools

? Apache Kafka ? PostgreSQL ? MSSQL ? Debezium ? Python ? SQL ? Redis ? JUnit Tests ? ETL

? SSIS ? Java ? Jira/Confluence ? CI/CD ? Docker ? Kubernetes ? E-Commerce


Apache Kafka PostgreSQL MS SQL Datenbanken ETL MS SQL Server Integration Services Atlassian JIRA
Python SQL Kafka Java Scala Debezium DevOps Kubernetes E-Commerce Docker Container Unittest Redis Scrum
1 Jahr
2020-02 - 2021-01

CRM ? ETL, Datenmanagement und Controlling

Software-Entwickler & Software Developer Java Scala Apache Kafka ...
Software-Entwickler & Software Developer

  • Tätigkeit

? Apache Kafka:
Integration von Apache Kafka zur Optimierung der Echtzeit-Datenverarbeitung und -Kommunikation. Nutzung der Streaming-Funktionen von Kafka zum Aufbau einer robusten und skalierbaren Dateninfrastruktur.
? Java:
Entwurf und Implementierung spezifischer Kafka-Konnektoren in Java für die Integration neuer Datenquellen.
? Debezium:
Einsatz von Debezium in Verbindung mit Apache Kafka zum Aufbau einer zuverlässigen Datenpipeline für die Datenreplikation und -synchronisation, unterstützt durch kontinuierliche Change Data Capture (CDC) Mechanismen.
? ETL:
Entwicklung und Optimierung von ETL-Prozessen mittels SSIS zur Gewährleistung einer effizienten Datenextraktion, -transformation und -ladung.
? JUnit:
Durchführung von Testautomatisierung mit JUnit und anderen relevanten Tools zur Sicherstellung der Softwarequalität und zur Reduzierung von Fehlern in der Entwicklungsphase.
? Python:
Entwicklung von Skripten in Python zur Automatisierung von wiederkehrenden Aufgaben und Prozessen, insbesondere im Zusammenhang mit der Datenverwaltung und Systempflege.
Technologien/Tools
? Apache Kafka ? Debezium ? Java ? SQL ? Debezium ? DevOps ? Python ? ETL ? SSIS
? JUnit Tests ? MSSQL ? MySQL ? CI/CD ? Docker

Apache Kafka Debezium Java Scala REST SQL NoSQL DevOps Python MS SQL Server Integration Services
Java Scala Apache Kafka Debezium Python REST ETL DevOps Unittest Scrum
Darmstadt
1 Jahr
2019-02 - 2020-01

Datenverarbeitung und Datenanalyse- Business Intelligence

Software Entwickler / Data Engineer SQL ETL C# ...
Software Entwickler / Data Engineer

Tätigkeit

? Datenmodellierung:

Entwurf und Implementierung eines maßgeschneiderten Datenmodells, das speziell auf die Analyseanforderungen des E-Commerce-Kunden zugeschnitten ist. Fokus auf optimierte Datenmodellierungsmethoden, um Effizienz und Skalierbarkeit der Datenverarbeitung und -analyse zu gewährleisten.

? ETL:

Entwurf und Implementierung von ETL-Pipelines unter Verwendung von SQL Server Integration Services (SSIS) zur effizienten Datenkonsolidierung und -aufbereitung. Entwicklung von Berechnungsmethoden für umfassende statistische Datenanalysen und Berichte.

? Grafana, Tableau:

Erstellung von aussagekräftigen Datenvisualisierungen zur Darstellung von Trends und Analysen. Verwendung von Grafana und Tableau für interaktive Dashboards und Berichte, um Erkenntnisse verständlich und zugänglich zu machen.

? Docker:

Einsatz von Container-Technologien zur effizienten Verwaltung von Softwareanwendungen.

Technologien/Tools

? SQL ? MSSQL ? SSIS ? Grafana ? Tableau ? Docker ? JTL ? E-Commerce


MS SQL Server Integration Services MS SQL Server Grafana RunDeck Tableau
SQL ETL C# E-Commerce JTL
4 Jahre 1 Monat
2015-01 - 2019-01

Integration / Automatisierung / Monitoring der IT-Landschaft

Software Entwickler & IT Architect Python Git Docker ...
Software Entwickler & IT Architect

Tätigkeit

? VMware:

Entwicklung und Implementierung einer virtuellen Infrastruktur an verschiedenen Standorten. Verantwortlich für die kontinuierliche Wartung und Optimierung dieser Systeme.

? ETL:

Integration und Verwaltung von ETL-Pipelines für die Konsolidierung und Homogenisierung heterogener Datenquellen. Umfassende Nutzung von SSIS (SQL Server Integration Services) für eine effiziente Datenverarbeitung.

? Rundeck, Ansible:

Entwicklung und Umsetzung von Automatisierungsstrategien für IT-Infrastrukturprozesse. Erstellung von Skripten in Python, Bash und PowerShell zur Ausführung in RunDeck. Orchestrierung und Konfigurationsmanagement von virtuellen Betriebssystemen mit Ansible.

? Python, C#:

Entwicklung von Skripten und Anwendungen zur Unterstützung, Automatisierung und Überwachung der IT-Infrastruktur. Einsatz von Python und C# zur Optimierung betrieblicher Abläufe.

? Zabbix:

Integration und Konfiguration von Zabbix zur umfassenden Überwachung der IT-Landschaft. Sicherstellung der Systemverfügbarkeit und Leistungsüberwachung.

? Docker:

Einsatz von Container-Technologien zur effizienten Verwaltung von Softwareanwendungen.

Technologien/Tools

? Python? C# ? ETL ? SSIS ? Power BI ? MSSQL ? MySQL ? VMware ESX ? Ansible ? RunDeck ? Git ? Docker ? Zabbix


VMware ESX Zabbix RunDeck Ansible MS SQL Datenbanken MS SQL Server Integration Services Power BI
Python Git Docker C# SQL Ansible Zabbix
Darmstadt

Aus- und Weiterbildung

Aus- und Weiterbildung

2 Jahre 1 Monat
2017-01 - 2019-01

Informatik Studium

MSc. in Informatik, Hochschule Darmstadt
MSc. in Informatik
Hochschule Darmstadt

Software Entwicklung

Kompetenzen

Kompetenzen

Produkte / Standards / Erfahrungen / Methoden

Scrum
Fortgeschritten
DevOps (CI / CD)
Fortgeschritten

Betriebssysteme

Linux
Experte
MS Server
Experte
Windows
Experte

Programmiersprachen

Python
Experte
ML Frameworks (PyTorch, Jax)
Fortgeschritten
C#
Fortgeschritten
Web Stack (JS, HTML, CSS)
Fortgeschritten
SQL
Fortgeschritten
Java
Fortgeschritten
Scala
Basics

Datenkommunikation

Kafka
Experte
REST
Experte
Elasticsearch
Experte
SOAP
Fortgeschritten

Berechnung / Simulation / Versuch / Validierung

Machine Lerning
Experte
DeepSpeach
Experte
Natual language Processing
Experte
Automatic Speech Recognition
Experte
Deep Learning
Experte

Design / Entwicklung / Konstruktion

AWS
Fortgeschritten
Docker
Experte
Kubernetes
Fortgeschritten
Google Cloud Platform
Basics
Microsoft Azure
Basics

Vertrauen Sie auf GULP

Im Bereich Freelancing
Im Bereich Arbeitnehmerüberlassung / Personalvermittlung

Fragen?

Rufen Sie uns an +49 89 500316-300 oder schreiben Sie uns:

Das GULP Freelancer-Portal

Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.