Aufbau Data Engineering Infrastruktur mit AWS CDKAWS CDK
Implementierung und Patching von DevOps Pipelines
9 Monate: Fernverkehr Data Lake
Einsatzort: Frankfurt am Main
Kunde: Alexander Thamm & DB Fernverkehr,
Aufgaben:
Aufbau Datalake, ETL Pipelines auf AWS Cloud
Kenntnisse:
Python und Scala auf AWS CloudPython, Scala, Hudi, Glue, Kinesis, Postgres, Spark, Serverless, AWS, CDK, AWS, DevOps, Pipelines, Gitlab
15 Monat: BI Data Mesh und Marketing Performance Analytics
Einsatzort: Hamburg
Kunde: Fielmann
Aufgaben:
Aufbau, Betriebsführung und Pflegen von Marketing bezogene Daten-Laden Strecken. Anbindung von Google Analytics Daten, Kassendaten, Ecommerce-Daten etc.. Kommunizieren mit Verantwortlichen und Product-Owners über Datenschema und Datenschnittstelle
Kenntnisse:
Data Lake (Data Mesh) Prefect, Hudi, dbt, Glue, Redshift Serverless, S3, AWS, Codepipeline, Github Action, Lambda, pySpark, ECS, Stepfunctions, KMS, Google Bigquery, Datadog, Teams, Slack, Eventbridge, SNS, workflows ECS, EC2, Codepipeline, ALB, Route53, Certificate Manager, GDPR
24 Monate: Data Integration und Analytics Plattform
Einsatzort: Frankfurt am Main
Kunde: DB Analytics
Aufgaben:
Im betroffenen Projekt geht es um die Nutzbarmachung und 5 Visualisierung komplexer heterogener Daten aus unterschiedlichen Datenquellen. Dazu sind neue Datenquellen anzubinden und automatisiert zu laden. Darüber hinaus sind Routinen zur Überprüfung der Datenqualität sowie zur Berechnung von Kennzahlen umzusetzen.
Kenntnisse:
Postgres, Redshift, Python, pySpark, Glue, AWS, Azure, Scikit-learn, Gitlab, Jfrog Artifactory, Bash, Jupyter Notebook, Prometheus, Grafana, Alerta, Jenkins, Slack API, AWS AWS, Terraform, Terragrunt, Docker, K8S (EKS), Airflow, Prometheus, Grafana, Docker, Alerta, Ansible, Sagemaker
24 Monate: Aufbau Data Lake und Plattform auf AWS Cloud
Einsatzort: Hamburg
Kunde: DB Systel IoT/M2M
Aufgaben:
Aufbau Cloud Infrastruktur und Data Lake & Plattform für IoT Applikationen mit dem Konzept ?Infrastructure as Code? und ?CICD?. Implementierung von Data Ingestion und ETL Services mit serverless und micro-services.
Kenntnisse:
AWS, Azure, Prometheus, Alerta, Grafana, Golang, Cloudformation, Terraform, Serverless Framework, Terragrunt, Gitlab, Ansible,Jfrog Artifactory, Jenkins, Kubernetes, Docker, Python, PySpark, Glue,Lambda, SNS, SQS, Flask, Dash, Gitlab
Einsatzort: München
Kunde: Telefonica
Aufgaben:
Kenntnisse:
Kafka 2.11, Confluent 4, AWS, Docker, Java
24 Monate: Aufbau Data Plattform und Datenprodukte
Einsatzort: München
Kunde: Germanpersonnel
Aufgaben:
Wir bauten kompletten Data-Science-Platform (mit DWH, ETL, Analytics Dashboard, Vorhersagemodell für Web-Klicks) auf dem AWS Cloud mit Services wie Redshift, Data Pipeline, Quicksight, AWS 7 Machine Learning, Lambda, DMS, API Gateway, Beanstalk, EMR etc.
Kenntnisse:
DWH, ETL, Analytics Dashboard, Redshift, Data Pipeline, Quicksight, AWS 7 Machine Learning, Lambda, DMS, API Gateway, Beanstalk, EMR, AWS, Kimball Model, Data Vault 2.0, SQL, Postgres, Elasticsearch, Python, pySpark, Jupyter Notebook, Flask, R-Shiny, Tableau
6 Monate: Entwicklung von Datenprodukt für Markenerkennung
Einsatzort: Hamburg
Rolle: Praktikant
Kunde: Otto Group
Aufgaben:
Kenntnisse:
Python, Flask, Docker, Exasol
Zertifikate
Berufliche Fähigkeiten
Cloud Architect
DevSecOps & Infrastructure
Data Plattform
Datenanalyse
Data Engineering
Devops
Full-Stack Tech
Berufliche Fähigkeiten - Data
ETL
Web Service
Datenanalyse
Big Data Stack
Vendor Tool
Berufliche Fähigkeiten - Cloud
AWS
Azure
Devops & Automation
Monitoring
Berufliche Erfahrungen
2019-07 - heute
Kunde: Freiberuflich
2018-03 - 2019-07
Rolle: Data Science Consultant
Kunde: Seven Principles AG
Aufgaben:
2014-12 - 2018-02
Rolle: Data Science Consultant
Kunde: Datarella
Aufgaben:
2014-12 - 2015-04
Rolle: Studentenjob
Kunde: Datarella
Aufgaben:
2014-07 - 2014-11
Rolle: Praktikant
Kunde: Otto Group
Aufgaben:
Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.