Im Rahmen eines internationalen Projekts zum Aufbau einer unternehmensweiten Datenplattform auf Azure war [Name auf Anfrage] als DevOps Engineer für die Automatisierung der Infrastruktur, die Integration von Sicherheitskonzepten sowie den stabilen Betrieb der Plattformkomponenten verantwortlich. Die Plattform dient der Datenintegration, dem AI-Enablement und der unternehmensweiten Standardisierung analytischer Prozesse.
Infrastrukturaufbau in Azure mittels Terraform, einschließlich Netzwerk, Storage, Databricks-Umgebungen und Monitoring
Implementierung von CI/CD-Pipelines mit GitLab CI/CD und Azure DevOps zur automatisierten Bereitstellung von Datenplattform-Komponenten
Integration von Databricks mit Unity Catalog, inklusive Einrichtung von Berechtigungsstrukturen, Auditierung und Katalogverwaltung
Aufbau eines zentralen Monitorings mit Azure Monitor und Integration benutzerdefinierter Metriken für den Echtzeitbetrieb
Bereitstellung von Kafka-Komponenten in Confluent Cloud zur Anbindung externer Systeme wie SAP, Dynamics und Klopotek
Umsetzung von Sicherheitsanforderungen (z.?B. Zugriffsschutz, Verschlüsselung, Secret Management)
Unterstützung bei der Entwicklung und dem stabilen Betrieb der MVP-Umgebung in enger Zusammenarbeit mit weiteren Dienstleistern
Azure, Azure Data Lake Storage Gen2, Azure Monitor, Azure DevOps, Terraform, GitLab CI/CD, Databricks, Unity Catalog, Confluent Cloud, Apache Kafka, dbt, Mosaic AI, REST APIs
Zuverlässiger und reproduzierbarer Plattformaufbau durch vollständig automatisierte Infrastrukturbereitstellung
Einbindung von Sicherheits- und Governance-Prinzipien in die Bereitstellungsprozesse
Stabiler Betrieb der Datenplattform durch zentralisiertes Monitoring und Alarmierung
Ermöglichung effizienter Entwicklung durch die automatisierte Bereitstellung von Entwicklungs- und Testumgebungen
Im Rahmen eines Plattformprojekts zur Modernisierung der Dateninfrastruktur bei einem Finanzdienstleister war [Name auf Anfrage] als Senior DevOps Engineer für die Bereitstellung, Automatisierung und den sicheren Betrieb der Cloud-nativen Komponenten im Bereich Streaming und Datenverarbeitung zuständig. Die Lösung wurde in einer hybriden Architektur mit Anbindung an On-Premise-Systeme umgesetzt und ermöglichte die Verarbeitung und Weiterleitung von Events in Echtzeit.
Aufbau und Verwaltung der Infrastruktur in Azure, insbesondere über Azure Kubernetes Service (AKS)
Bereitstellung und Automatisierung der Systemlandschaft mit Terraform und Helm, integriert in GitLab CI/CD
Umsetzung von Security-by-Design-Konzepten, unter anderem durch den Einsatz von HashiCorp Vault zur Geheimnisverwaltung
Unterstützung beim Betrieb der Streaming-Plattform mit Apache Kafka und Confluent Cloud, inklusive Topic-Management, Zugriffssteuerung und Skalierung
Implementierung eines Monitorings mit Grafana und Prometheus zur Echtzeitüberwachung der Plattformkomponenten
Deployment- und Betriebsunterstützung für datenverarbeitende Services wie Apache Flink und Apache NiFi
Erstellung von Betriebshandbüchern, Konzepten und Übergabedokumentation für interne Teams
Azure, Kubernetes (AKS), Terraform, Helm, GitLab CI/CD, Jenkins, Apache Kafka, Confluent Cloud, Apache Flink, Apache NiFi, HashiCorp Vault, Grafana, Prometheus, ArgoCD, REST APIs
Stabile, automatisierte Bereitstellung der gesamten Infrastrukturkomponenten
Deutliche Reduktion manueller Eingriffe durch Infrastructure-as-Code und Pipeline-gestützte Deployments
Integration sicherheitsrelevanter Funktionen in den Plattformbetrieb
Verbesserte Betriebstransparenz und -stabilität durch zentrales Monitoring und Alerting
Design und Implementierung einer skalierbaren, global verteilten, multiregionalen Bereitstellung einer Einzelhandelsanwendung basierend auf AKS mit Azure DevOps unter Verwendung von Terraform.
Integration interner Entwicklungsprozesse mit Kundeninfrastruktur und PaaS-Lösungen.
AWS & Azure-Administration sowie Design und Implementierung einer kosteneffektiven und leistungsstarken Infrastruktur.
Aufbau und Wartung von Produktions- und Entwicklungsumgebungen auf AWS mit EC2 Auto Scaling Groups, Elastic Load Balancers, RDS, Lambda, ECR, Route53, Elasticsearch, s3fs.
- Wartung und Verbesserung einer dockerisierten, auf Microservices basierenden Infrastruktur für eine Finanzanwendung mit strengen Verfügbarkeitsanforderungen.
- Infrastructure as Code mit Terraform und Ansible.
- Wartung von RabbitMQ und Redis Clustern.
- Design und Implementierung von CI/CD-Pipelines in GitLab, Jenkins und Bamboo.
- Wartung und Konfiguration von Zabbix-Server und Grafana.
- DevOps Slack-Integrationen (Log Parsing, Monitoring Alerts, CI/CD-Plugins für Jenkins und Bitbucket) und Confluence-Integrationen (Release-Log).
- Open LDAP-Administration.
Administration großer Enterprise-Produktionsumgebungen für Unternehmenskunden, einschließlich Serverkonfiguration.
- Lösung von größeren Zwischenfällen.
- Design und Implementierung von Lösungen innerhalb eines strikten Sicherheitsregimes unter Verwendung von ITIL Best Practices.
Im Rahmen eines internationalen Projekts zum Aufbau einer unternehmensweiten Datenplattform auf Azure war [Name auf Anfrage] als DevOps Engineer für die Automatisierung der Infrastruktur, die Integration von Sicherheitskonzepten sowie den stabilen Betrieb der Plattformkomponenten verantwortlich. Die Plattform dient der Datenintegration, dem AI-Enablement und der unternehmensweiten Standardisierung analytischer Prozesse.
Infrastrukturaufbau in Azure mittels Terraform, einschließlich Netzwerk, Storage, Databricks-Umgebungen und Monitoring
Implementierung von CI/CD-Pipelines mit GitLab CI/CD und Azure DevOps zur automatisierten Bereitstellung von Datenplattform-Komponenten
Integration von Databricks mit Unity Catalog, inklusive Einrichtung von Berechtigungsstrukturen, Auditierung und Katalogverwaltung
Aufbau eines zentralen Monitorings mit Azure Monitor und Integration benutzerdefinierter Metriken für den Echtzeitbetrieb
Bereitstellung von Kafka-Komponenten in Confluent Cloud zur Anbindung externer Systeme wie SAP, Dynamics und Klopotek
Umsetzung von Sicherheitsanforderungen (z.?B. Zugriffsschutz, Verschlüsselung, Secret Management)
Unterstützung bei der Entwicklung und dem stabilen Betrieb der MVP-Umgebung in enger Zusammenarbeit mit weiteren Dienstleistern
Azure, Azure Data Lake Storage Gen2, Azure Monitor, Azure DevOps, Terraform, GitLab CI/CD, Databricks, Unity Catalog, Confluent Cloud, Apache Kafka, dbt, Mosaic AI, REST APIs
Zuverlässiger und reproduzierbarer Plattformaufbau durch vollständig automatisierte Infrastrukturbereitstellung
Einbindung von Sicherheits- und Governance-Prinzipien in die Bereitstellungsprozesse
Stabiler Betrieb der Datenplattform durch zentralisiertes Monitoring und Alarmierung
Ermöglichung effizienter Entwicklung durch die automatisierte Bereitstellung von Entwicklungs- und Testumgebungen
Im Rahmen eines Plattformprojekts zur Modernisierung der Dateninfrastruktur bei einem Finanzdienstleister war [Name auf Anfrage] als Senior DevOps Engineer für die Bereitstellung, Automatisierung und den sicheren Betrieb der Cloud-nativen Komponenten im Bereich Streaming und Datenverarbeitung zuständig. Die Lösung wurde in einer hybriden Architektur mit Anbindung an On-Premise-Systeme umgesetzt und ermöglichte die Verarbeitung und Weiterleitung von Events in Echtzeit.
Aufbau und Verwaltung der Infrastruktur in Azure, insbesondere über Azure Kubernetes Service (AKS)
Bereitstellung und Automatisierung der Systemlandschaft mit Terraform und Helm, integriert in GitLab CI/CD
Umsetzung von Security-by-Design-Konzepten, unter anderem durch den Einsatz von HashiCorp Vault zur Geheimnisverwaltung
Unterstützung beim Betrieb der Streaming-Plattform mit Apache Kafka und Confluent Cloud, inklusive Topic-Management, Zugriffssteuerung und Skalierung
Implementierung eines Monitorings mit Grafana und Prometheus zur Echtzeitüberwachung der Plattformkomponenten
Deployment- und Betriebsunterstützung für datenverarbeitende Services wie Apache Flink und Apache NiFi
Erstellung von Betriebshandbüchern, Konzepten und Übergabedokumentation für interne Teams
Azure, Kubernetes (AKS), Terraform, Helm, GitLab CI/CD, Jenkins, Apache Kafka, Confluent Cloud, Apache Flink, Apache NiFi, HashiCorp Vault, Grafana, Prometheus, ArgoCD, REST APIs
Stabile, automatisierte Bereitstellung der gesamten Infrastrukturkomponenten
Deutliche Reduktion manueller Eingriffe durch Infrastructure-as-Code und Pipeline-gestützte Deployments
Integration sicherheitsrelevanter Funktionen in den Plattformbetrieb
Verbesserte Betriebstransparenz und -stabilität durch zentrales Monitoring und Alerting
Design und Implementierung einer skalierbaren, global verteilten, multiregionalen Bereitstellung einer Einzelhandelsanwendung basierend auf AKS mit Azure DevOps unter Verwendung von Terraform.
Integration interner Entwicklungsprozesse mit Kundeninfrastruktur und PaaS-Lösungen.
AWS & Azure-Administration sowie Design und Implementierung einer kosteneffektiven und leistungsstarken Infrastruktur.
Aufbau und Wartung von Produktions- und Entwicklungsumgebungen auf AWS mit EC2 Auto Scaling Groups, Elastic Load Balancers, RDS, Lambda, ECR, Route53, Elasticsearch, s3fs.
- Wartung und Verbesserung einer dockerisierten, auf Microservices basierenden Infrastruktur für eine Finanzanwendung mit strengen Verfügbarkeitsanforderungen.
- Infrastructure as Code mit Terraform und Ansible.
- Wartung von RabbitMQ und Redis Clustern.
- Design und Implementierung von CI/CD-Pipelines in GitLab, Jenkins und Bamboo.
- Wartung und Konfiguration von Zabbix-Server und Grafana.
- DevOps Slack-Integrationen (Log Parsing, Monitoring Alerts, CI/CD-Plugins für Jenkins und Bitbucket) und Confluence-Integrationen (Release-Log).
- Open LDAP-Administration.
Administration großer Enterprise-Produktionsumgebungen für Unternehmenskunden, einschließlich Serverkonfiguration.
- Lösung von größeren Zwischenfällen.
- Design und Implementierung von Lösungen innerhalb eines strikten Sicherheitsregimes unter Verwendung von ITIL Best Practices.