Skill-Profil eines fest angestellten Mitarbeiters des Dienstleisters
Einsatzorte
Einsatzorte
Deutschland, Schweiz, Österreich
möglich
Projekte
Projekte
6 Monate
2025-10 - heute
Aufbau und Stabilisierung einer skalierbaren Lakehouse-Datenplattform unter Verwendung der Medallion-Architektur und automatisierter Pipelines | Trench Group
Data EngineerSQLTableauDatabricks...
Data Engineer
Entwicklung, Automatisierung und Betrieb robuster Datenpipelines auf Basis der Medallion-Architektur mit dbt und Databricks. Hierbei erfolgte genaues Monitoring, Fehleranalyse und Qualitätssicherung zur Sicherstellung konsistenter, verlässlicher und analytisch nutzbarer Daten. Durch die Optimierung von Skalierbarkeit, Wartbarkeit und Datenverfügbarkeit in unternehmenskritischen Reporting-Prozessen konnten zuverlässige Echtzeitdaten für eine präzise Berichterstattung und schnellere, datengestützte Geschäftsentscheidungen bereitgestellt werden
Entwicklung und Betrieb performanter ETL/ELT-Datenpipelines mit Python & PostgreSQL | Quadra Energy
Data EngineerSQLdbt (core)Gitlab...
Data Engineer
Konzeption, Implementierung und Optimierung von ETL/ELT-Pipelines in Python zur Integration heterogener Datenquellen in PostgreSQL, sowie Monitoring & Alerting (Grafana, Teams, Telegram) und Performance-Tuning. Automatisierung von Geschäftsprozessen und Sicherstellung hoher Datenqualität, Verfügbarkeit und Anpassungsfähigkeit an sich ändernde Business-Anforderungen
Bachelor of Arts, Università degli Studi di Parma, Parma, Italien
Bachelor of Arts
Università degli Studi di Parma, Parma, Italien
Einsatzorte
Einsatzorte
Deutschland, Schweiz, Österreich
möglich
Projekte
Projekte
6 Monate
2025-10 - heute
Aufbau und Stabilisierung einer skalierbaren Lakehouse-Datenplattform unter Verwendung der Medallion-Architektur und automatisierter Pipelines | Trench Group
Data EngineerSQLTableauDatabricks...
Data Engineer
Entwicklung, Automatisierung und Betrieb robuster Datenpipelines auf Basis der Medallion-Architektur mit dbt und Databricks. Hierbei erfolgte genaues Monitoring, Fehleranalyse und Qualitätssicherung zur Sicherstellung konsistenter, verlässlicher und analytisch nutzbarer Daten. Durch die Optimierung von Skalierbarkeit, Wartbarkeit und Datenverfügbarkeit in unternehmenskritischen Reporting-Prozessen konnten zuverlässige Echtzeitdaten für eine präzise Berichterstattung und schnellere, datengestützte Geschäftsentscheidungen bereitgestellt werden
Entwicklung und Betrieb performanter ETL/ELT-Datenpipelines mit Python & PostgreSQL | Quadra Energy
Data EngineerSQLdbt (core)Gitlab...
Data Engineer
Konzeption, Implementierung und Optimierung von ETL/ELT-Pipelines in Python zur Integration heterogener Datenquellen in PostgreSQL, sowie Monitoring & Alerting (Grafana, Teams, Telegram) und Performance-Tuning. Automatisierung von Geschäftsprozessen und Sicherstellung hoher Datenqualität, Verfügbarkeit und Anpassungsfähigkeit an sich ändernde Business-Anforderungen