Migration der bestehenden Codestruktur und Implementierung notwendiger AWS SakeMaker Pipelines. Erstellung und Dokumentation der AWS Infrastruktur mit Infrastructure as a Code (terraform). Optimierung des Machine-Learning Modells. Arbeit an der Vorhersage von Zeitreihendaten und der Bereitstellung der Lösung auf AWS Sagemaker. Neben Daten aus industriellen Marktverkäufen wurden Algorithmen wie die ExponentialSmoothing implementiert. Der Zweck bestand darin, die wöchentlichen Verkäufe für einen bestimmten Zeitraum vorherzusagen. seit dem letzten Jahr täglich die AWS-Infrastruktur mit Terraform als IaC erstellt und gewartet. APIs für das Projekt mit AWS API Gateway und Postman erstellt und verwaltet. wendete bei unserem NLP-Projekt mit Norma verschiedene Datentechnik- und Verarbeitungstechniken an. nutzte die Databricks-Plattform, um ein Projekt zur Zeitreihenanalyse zu entwickeln.
Die Lösung wurde in Sagemaker-Pipelines bereitgestellt, um Daten einfach zu verarbeiten, das Modell zu trainieren, die Ergebnisse auszuwerten, das Modell zu registrieren und die Vorhersagen zu verfolgen.
Anomalieerkennung von 99 Sensordaten, welche in Echtzeit aus Metallofen gewonnen werden.
Vergleich von Modellen: Isolation Forest, DBSCAN, Aagglomerative Clustering, LSTM-AutoEncoder,
Algorithmen: YOLOv5, Deepface, OCR
ADAS (Advanced Driver Analyze System) analysiert das Video, welches mit der Auto-Frontkamera aufgenommen wird, um Fußgänger nahe am Auto zu erkennen.
Realisierungsplattformen: Flutter/Firebase
02.2023
AWS Certified Cloud Practitioneer
09.2023
Azure AI-900
10.2023
Google Cloud Training: Terraform for Google Cloud
04.2022
DataCamp: Unsupervised ML mit-scikit-learn
07.2022
DataCanp: Preprocessing for machine learning in python
08.2022
DataCamp: Dimensionality Teduction methods
02.2022
DeepLearning.AI: CNN in Tensorflow
Data Science
Cloud-Technologien
Programmierkenntnisse
Datenintegration
Andere Technologien
Cloud TechnologiesData Science (AWS)
Data Science
Machine Learning
Lebensmittel-Einzelhandel (NORMA)
Migration der bestehenden Codestruktur und Implementierung notwendiger AWS SakeMaker Pipelines. Erstellung und Dokumentation der AWS Infrastruktur mit Infrastructure as a Code (terraform). Optimierung des Machine-Learning Modells. Arbeit an der Vorhersage von Zeitreihendaten und der Bereitstellung der Lösung auf AWS Sagemaker. Neben Daten aus industriellen Marktverkäufen wurden Algorithmen wie die ExponentialSmoothing implementiert. Der Zweck bestand darin, die wöchentlichen Verkäufe für einen bestimmten Zeitraum vorherzusagen. seit dem letzten Jahr täglich die AWS-Infrastruktur mit Terraform als IaC erstellt und gewartet. APIs für das Projekt mit AWS API Gateway und Postman erstellt und verwaltet. wendete bei unserem NLP-Projekt mit Norma verschiedene Datentechnik- und Verarbeitungstechniken an. nutzte die Databricks-Plattform, um ein Projekt zur Zeitreihenanalyse zu entwickeln.
Die Lösung wurde in Sagemaker-Pipelines bereitgestellt, um Daten einfach zu verarbeiten, das Modell zu trainieren, die Ergebnisse auszuwerten, das Modell zu registrieren und die Vorhersagen zu verfolgen.
Anomalieerkennung von 99 Sensordaten, welche in Echtzeit aus Metallofen gewonnen werden.
Vergleich von Modellen: Isolation Forest, DBSCAN, Aagglomerative Clustering, LSTM-AutoEncoder,
Algorithmen: YOLOv5, Deepface, OCR
ADAS (Advanced Driver Analyze System) analysiert das Video, welches mit der Auto-Frontkamera aufgenommen wird, um Fußgänger nahe am Auto zu erkennen.
Realisierungsplattformen: Flutter/Firebase
02.2023
AWS Certified Cloud Practitioneer
09.2023
Azure AI-900
10.2023
Google Cloud Training: Terraform for Google Cloud
04.2022
DataCamp: Unsupervised ML mit-scikit-learn
07.2022
DataCanp: Preprocessing for machine learning in python
08.2022
DataCamp: Dimensionality Teduction methods
02.2022
DeepLearning.AI: CNN in Tensorflow
Data Science
Cloud-Technologien
Programmierkenntnisse
Datenintegration
Andere Technologien
Cloud TechnologiesData Science (AWS)
Data Science
Machine Learning
Lebensmittel-Einzelhandel (NORMA)