Cloud Solution Architect, DevOps Engineer, Scrum Master, Apache Kafka
Aktualisiert am 20.01.2025
Profil
Mitarbeiter eines Dienstleisters
Remote-Arbeit
Verfügbar ab: 06.01.2025
Verfügbar zu: 80%
davon vor Ort: 80%
Skill-Profil eines fest angestellten Mitarbeiters des Dienstleisters
Deutsch
Muttersprache
Englisch
Verhandlungssicher

Einsatzorte

Einsatzorte

Leipzig (+300km)
Deutschland, Schweiz, Österreich
möglich

Projekte

Projekte

9 Monate
2024-04 - 2024-12

Aufbau einer Datenplattform im Finanzsektor

Solution Architekt für Apache Kafka Eco System | Confluent Cloud Azure Kubernetes (AKS) Terraform ...
Solution Architekt für Apache Kafka Eco System | Confluent Cloud

Im Rahmen des Projekts für einen Finanzdienstleister wurde eine umfassende, skalierbare und zukunftsorientierte Datenplattform entworfen und implementiert. Ziel des Projekts war es, eine datenzentrierte Architektur zu schaffen, die organisatorische Anforderungen erfüllt und als Grundlage für die Integration moderner, eventbasierter Systeminteraktionen dient.


Als mit Fokus auf , und lag mein Schwerpunkt auf der Konzeption, Planung und Realisierung der zentralen Messaging-Infrastruktur sowie der Implementierung von Datenverarbeitungs- und Integrationslösungen. Die Plattform wurde sowohl für Echtzeit-Datenströme als auch für die Verarbeitung großer Datenmengen optimiert.



? Aufbau einer Plattform mit klarer Trennung von Datenquellen, Verarbeitung und Speicherung.

? Implementierung eines zentralen basierend auf Kafka und der Confluent Cloud für die effiziente Übertragung von Events.

? Nutzung von , um Echtzeit-Analysen und Transformationen von Datenströmen zu ermöglichen.

? Einführung von als zentrales Tool zur Integration und Verwaltung von Datenflüssen.

? Entwicklung einer sicheren Cloud-Architektur inklusive Netzwerkoptionen zwischen der Modulat-On-Premise-Umgebung und der Confluent Cloud.

? Sicherstellung der Einhaltung regulatorischer Anforderungen, z. B. , sowie datenschutzrechtlicher Vorgaben.

? Umsetzung komplexer Geschäftslogiken, z. B. der automatisierten Übergabe offener Forderungen an Inkassounternehmen durch event- und workflowbasierte Prozesse.



? Nutzung von und zur Automatisierung der Bereitstellung der Infrastruktur und Integration in die bestehenden Systeme der Modulat Leasing AG.

? Entwicklung von für verschiedene Systeme mit Kafka Connect und NiFi, einschließlich der Integration von SQL-Datenbanken, NoSQL-Systemen und externen APIs.

? Implementierung einer Echtzeit-Überwachung der Datenströme mittels , ergänzt durch Alarmierung mit .

? Einsatz von (AKS) zur Bereitstellung und Skalierung der datenverarbeitenden Komponenten.

? Aufbau einer zentralen , um Datenintegrität und Konsistenz sicherzustellen.



Azure, Kubernetes (AKS), Terraform, Helm, Apache Kafka, Confluent Cloud, Apache Flink, Apache NiFi, Jenkins, ArgoCD, Hashicorp Vault, Grafana, PostgreSQL, MySQL, Apache Iceberg, JSON/Avro-Formate, REST APIs, GitLab CI/CD.



? Aufbau einer skalierbaren, robusten Datenplattform als Blaupause für zukünftige Erweiterungen.

? Reduzierung manueller Prozesse durch Automatisierung und Integration von CI/CD-Pipelines.

? Erfüllung regulatorischer und datenschutzrechtlicher Anforderungen.

? Optimierung der Datenqualität und -konsistenz durch zentralisierte Schema-Verwaltung und Echtzeit-Streaming.

? Erstellung detaillierter Betriebskonzepte und Übergabe an das interne IT-Team.


Diese Plattform bietet eine solide Grundlage für zukünftige datengetriebene Projekte und ermöglicht es dem Finanzdienstleister, ihre Geschäftsprozesse effizienter und flexibler zu gestalten.

Azure Kubernetes (AKS) Terraform Helm Apache Kafka Confluent Cloud Apache Flink Apache NiFi ArgoCD Hashicorp Vault Grafana PostgreSQL MySQL Apache Iceberg JSON/Avro-Formate REST APIs GitLab CI/CD.
Azure Kubernetes (AKS) Terraform Helm Apache Kafka Confluent Cloud Apache Flink Apache NiFi ArgoCD Hashicorp Vault Grafana PostgreSQL MySQL Apache Iceberg JSON/Avro-Formate REST APIs GitLab CI/CD.
Hannover
5 Monate
2023-12 - 2024-04

Aufbau einer globalen Data Mesh Plattform mit Kappa Architektur

Apache Kafka Architekt | Azure Architect | DevOps Azure AKS Kubernetes ...
Apache Kafka Architekt | Azure Architect | DevOps
In meiner Rolle als Senior Consultant und Coach war ich federführend beim Aufbau einer
globalen Data Mesh Plattform unter Verwendung der Kappa Architektur beteiligt. Dieses
Projekt zielte darauf ab, eine hoch skalierbare und effiziente Dateninfrastruktur für einen
führenden Anbieter in der Baustoffindustrie zu entwickeln.
Meine Hauptaufgaben umfassten die Architekturplanung und -implementierung, wobei ich
intensiv mit Technologien wie Apache Kafka, Azure Architect und DevOps-Praktiken
arbeitete. Ich spielte eine Schlüsselrolle bei der Integration verschiedener Datenquellen
und -senken durch den Einsatz moderner Technologien wie AKS, Kubernetes, Strimzi
Kafka und der Kafka-Stream API.
Zusätzlich war ich verantwortlich für die Sicherstellung der Datenkonsistenz und
Zugriffsverwaltung mit Tools wie Zookeeper, Kafka Connect, Ranger und dem Rest Proxy.
Mein technisches Wissen erweiterte sich auch auf die Anwendung von Apache Camel und
Apache Iceberg für die Datenmanipulation und -speicherung sowie Cosmos DB, Postgres
und Blob Storage für das Datenmanagement.
Die erfolgreiche Implementierung der Plattform ermöglichte eine verbesserte
Datenverfügbarkeit und -nutzung auf globaler Ebene, was signifikante
Effizienzsteigerungen und Kostenreduzierungen für das Unternehmen zur Folge hatte.
Durch Coaching und Mentoring von Teammitgliedern konnte ich zudem die
Fachkompetenz innerhalb des Teams steigern und eine nachhaltige Nutzung der neuen
Plattform sicherstellen
Strimzi AKS Kubernetes Azure Cosmso DB Postgres Blob Storage Apache Iceberg Apache Camel
Azure AKS Kubernetes Strimzi Kafka Kafka-Stream API Zookeeper Kafka Connect Ranger Rest Proxy (Kafka) Python Kappa / Lambda Architektur Apache Camel Apache Iceberg
Baustoffe
Heidelberg, romote
1 Jahr 5 Monate
2022-12 - 2024-04

Aufbau Real Time IOT Plattform

Apache Kafka Architekt | Azure Architect | DevOps Hashicorp Vault Kafka-Stream API Zookeeper ...
Apache Kafka Architekt | Azure Architect | DevOps
Das Projekt zielt auf die Entwicklung einer hochskalierbaren IoT-Plattform ab, die darauf
ausgerichtet ist, Batteriespeicherdaten von über einer Million Geräten in Echtzeit zu
erfassen und zu verarbeiten. Es integriert MQTT für die Datenerfassung und Apache Kafka
für das Datenstreaming und die -verarbeitung, unterstützt durch Technologien wie
Confluent Cloud und HiveMQ. Die Plattform wird entwickelt, um Leistungsanalysen
durchzuführen und Fernkonfigurationen für die angeschlossenen Geräte zu ermöglichen,
was eine umfassende Überwachung und Verwaltung der Batteriespeicherdaten
sicherstellt.
Apache Kafka Azure MS Azure SQL Database Terraform MQTT Gitlab Azrue DevOps
Hashicorp Vault Kafka-Stream API Zookeeper Kafka Connect Confluent Cloud Strimzi MQTT HiveMQ MySQL ElasticSearch Terraform IAC Kubernetes AKS Azure Cloud Adoption Framework
Energie Branche
Deutschland
4 Jahre 7 Monate
2019-10 - 2024-04

SCRUM Master für Entwicklung einer Saas Plattform

Scrum Master
Scrum Master
Während meiner Tätigkeit als Scrum Master von 2019 bis 2024 leitete ich drei
Entwicklungsteams, die einen SaaS-Service für eine Data-Analytics-Plattform entwickelten.
Diese Plattform sollte Unternehmen weltweit ermöglichen, große Datenmengen effizient zu
analysieren und zu visualisieren. Die Teams arbeiteten in einer multinationalen und
multilingualen Umgebung mit Mitgliedern aus Deutschland, Polen und dem Vereinigten

Königreich.


Aufgaben und Verantwortlichkeiten:

? Scrum-Prozesse: Implementierung und kontinuierliche Verbesserung der ScrumMethodologie zur Sicherstellung einer effizienten und transparenten

Entwicklungsarbeit.

o Moderation von Daily Stand-ups, Sprint Planning, Sprint Review und

Retrospektiven.

o Unterstützung der Product Owner bei der Erstellung und Pflege des

Product Backlogs.

o Förderung von Selbstorganisation und Eigenverantwortung innerhalb der

Teams.

o Beseitigung von Hindernissen (Impediments) und Sicherstellung eines

reibungslosen Arbeitsflusses.

? Teamkoordination und -entwicklung:

o Aufbau und Förderung eines kollaborativen und produktiven

Arbeitsumfelds.

o Durchführung von regelmäßigen Teambuilding-Maßnahmen und

Workshops zur Verbesserung der Teamdynamik.

o Unterstützung bei der interkulturellen Kommunikation und

Zusammenarbeit der multinationalen Teams.

? Zertifikate und Qualifikationen:

o Professional Scrum Master I (PSM I) Zertifizierung: Fundiertes Wissen

und praktische Anwendung der Scrum-Prinzipien und -Praktiken.

? Technische und fachliche Betreuung:

o Zusammenarbeit mit den Entwicklungsteams zur Sicherstellung der

Einhaltung von Qualitätsstandards und Best Practices.

o Unterstützung bei der Einführung neuer Tools und Techniken zur

Verbesserung der Entwicklungsprozesse.

? Multilingual und Multinational:

o Förderung der Zusammenarbeit und Kommunikation zwischen den

deutsch- und englischsprachigen Teammitgliedern.

o Anpassung der Scrum-Methodologie an die kulturellen Besonderheiten der

verschiedenen Teams.

Ergebnisse:

? Erfolgreiche Einführung eines robusten und skalierbaren SaaS-Services für DataAnalytics, der von Unternehmen weltweit genutzt wird.

? Signifikante Verbesserung der Teamproduktivität und -effizienz durch

kontinuierliche Prozessoptimierung.

? Stärkung der Zusammenarbeit und Kommunikation in einem multikulturellen und

multilingualen Umfeld.

4 Jahre
2019-01 - 2022-12

Datenplattform / BI Services / Streaming

Projektmanager | Azure Architect | DevOps | DataEngineer Ansible Hashicorp Vault Kafka-Stream API ...
Projektmanager | Azure Architect | DevOps | DataEngineer
Aufbau, Planung und Leitung eines Cloud Infrastruktur Teams für eine
SaaS Plattformsowie BI Services in Azure unter Berücksichtigung des cloud
adoption framework.
Aufbau einer Geo-redundante Streaming Plattform zum Austausch,
Aggregation undBereitstellung von
Daten aus unterschiedlichen Datenquellen (Apache Kafka Eco-System),
KubernetesCluster (AKS),
sowie skalierbare VM / Docker Lösungen zur Bereitstellung einer PIM sowie
StockTransfer App,
Überwachung der SCRUM Prozess der Softwareentwicklung als Scrum
Master
Apache Kafka Azure MS Azure SQL Database Terraform Power BI Jenkins Azrue DevOps
Ansible Hashicorp Vault Kafka-Stream API Zookeeper Kafka Connect MongoDB MySQL ElasticSearch Terraform IAC Data Lake Datawarehouse Kubernetes AKS Azure Cloud Adoption Framework
Technologie Unternehmen
Leipzig
2 Jahre 6 Monate
2018-04 - 2020-09

Architektur einer Azure Cloud für Custom Application in Kubernetes

Projektmanager | Teamliead DevOps / CloudOps| Azure Architekt Azure MS Azure SQL Database Azure Cloud Adoption Framework ...
Projektmanager | Teamliead DevOps / CloudOps| Azure Architekt
Aufbau einer Azure Cloud nach dem Azure Cloud adoption framework.
Design und Implementierung einer skalierbaren, global verteilten,
multiregionalen Bereitstellung einer Einzelhandelsanwendung, basierend
auf AKS mit Azure Devops, unter Verwendung von TerraformIntegration
der internen Entwicklungsprozesse mit der Kundeninfrastruktur und PaaSLösungen.
Azure MS Azure SQL Database Azure Adoption Framework Azure DevOps AKS Kubernetes Terraform ArgoCD Apache Kafka Cuba
Azure MS Azure SQL Database Azure Cloud Adoption Framework Azure DevOps AKS Kubernetes Terraform ArgoCD Apache Kafka Cuba Plattform Java 11 Ansible ELK Jenkins Bitbucket Atlassian JIRA
Einzelhandelsunternehmen
Leipzig, Münster
3 Jahre 1 Monat
2016-01 - 2019-01

Datenplattform / Stream Events

Teamlead DevOps |Teilprojektleitung | Datenplattform OpenStack Apache Kafka Kafka-Stream API Zookeeper ...
Teamlead DevOps |Teilprojektleitung | Datenplattform
Konzept, Design und Entwicklung einer globale clusterbasierten,
hochverfügbaren Stream Applikation für Log- Management im
OpenStack Umfeld, basierend auf
Apache Kafka, Zookeeper, Java Enterprise, Python und Ansible. Die
Anwendung speichert, puffert (Vermeidung von Peaks), filtert, bereitet
eingehende Logs aus mehreren Clouds (Producers) auf und stellt diese in
Topics für verschiedene Consumer (bspw. Graylog, Splunk) zur weiteren
Analyse bereit. In einem aktiv/aktiv Clusterumfeld werden die Daten
gespiegelt, um die Hochverfügbarkeit zu garantieren.
Apache Kafka OpenStack-Heat Terraform Ansible Ubuntu Linux Kafka Streams Eslastic Search Graylog Splunk Python Cloud Computing Docker Kubernetes
OpenStack Apache Kafka Kafka-Stream API Zookeeper Graylog Ansible JAAS ElasticSearch InfluxDB python Prometheus MongoDB Grafana Kubernetes Openshift Jenkins
Telekommunikations Unternehmen
Bratislava
1 Jahr 1 Monat
2015-01 - 2016-01

Webapplikation für Openstack Securitygroups

Entwickler Python Ansible OpenStack ...
Entwickler
Konzept, Design und Entwicklung einer Webapplikation für Netzwerk &
Security Analyse im OpenStack Umfeld, basierend auf Java Enterprise,
JavaScript, Python und Ansible.
Die Anwendung visualisiert und analysiert Beziehungen von Security
Gruppen, virtuellen Maschinen / Ports und Regeln von OpenStack. IDM
Integration, log Konzentration mit Graylog.
Python Ansible OpenStack API JEE 7: Servlet 3.x JAAS JPA 2.1 PrimeFaces OpenSSO MariaDB OpenStack
Python Ansible OpenStack JAAS PrimeFaces OpenSSO MariaDB
Telekommunikationsdienstleister
Bratislava

Kompetenzen

Kompetenzen

Produkte / Standards / Erfahrungen / Methoden

Projektmanagement
Experte
Cloud Architektur
Experte
Apache kafka
Experte
Scrum Master
Fortgeschritten
DevOps
Experte
Terraform
Experte
Ansible
Fortgeschritten
Jenkins
Experte
ELK
Fortgeschritten
Grafana
Fortgeschritten
Prometheus
Fortgeschritten
  •  Fundierte Kenntnisse der gängigen Standards und Compliance-Vorgaben, einschließlich ISO/IEC 24760-1, 24760-2, 29115, 29146, ISO/IEC 27001 sowie des IT-Sicherheitsgesetzes.
  • Fähigkeit, externe Rahmenwerke und interne Anforderungen in umsetzbare IT-Security-Standards zu übersetzen.
  • Umfangreiches Wissen über IAM- und PAM-Lösungen in On-Premises- und Cloud-Umgebungen.
  • Expertise in der Anforderungsanalyse und der Erstellung von Ist-/Soll-Architekturen.
  • Erfahrung in der Auswahl, Implementierung und Verwaltung von PAM-Technologien wie CyberArk, BeyondTrust und Thycotic.
  • Fundierte Kenntnisse in X.509-Zertifikaten, Smartcards und RSA SecurID.

Datenbanken

SQL
Experte
MySQL
Experte
DB2
Fortgeschritten
SAP HANA
Experte
MongoDB
Fortgeschritten
Oracle
Fortgeschritten

Datenkommunikation

Streamprocessing
Experte
API Solutions
Fortgeschritten

Personalverantwortung

Team Lead
Fortgeschritten

Einsatzorte

Einsatzorte

Leipzig (+300km)
Deutschland, Schweiz, Österreich
möglich

Projekte

Projekte

9 Monate
2024-04 - 2024-12

Aufbau einer Datenplattform im Finanzsektor

Solution Architekt für Apache Kafka Eco System | Confluent Cloud Azure Kubernetes (AKS) Terraform ...
Solution Architekt für Apache Kafka Eco System | Confluent Cloud

Im Rahmen des Projekts für einen Finanzdienstleister wurde eine umfassende, skalierbare und zukunftsorientierte Datenplattform entworfen und implementiert. Ziel des Projekts war es, eine datenzentrierte Architektur zu schaffen, die organisatorische Anforderungen erfüllt und als Grundlage für die Integration moderner, eventbasierter Systeminteraktionen dient.


Als mit Fokus auf , und lag mein Schwerpunkt auf der Konzeption, Planung und Realisierung der zentralen Messaging-Infrastruktur sowie der Implementierung von Datenverarbeitungs- und Integrationslösungen. Die Plattform wurde sowohl für Echtzeit-Datenströme als auch für die Verarbeitung großer Datenmengen optimiert.



? Aufbau einer Plattform mit klarer Trennung von Datenquellen, Verarbeitung und Speicherung.

? Implementierung eines zentralen basierend auf Kafka und der Confluent Cloud für die effiziente Übertragung von Events.

? Nutzung von , um Echtzeit-Analysen und Transformationen von Datenströmen zu ermöglichen.

? Einführung von als zentrales Tool zur Integration und Verwaltung von Datenflüssen.

? Entwicklung einer sicheren Cloud-Architektur inklusive Netzwerkoptionen zwischen der Modulat-On-Premise-Umgebung und der Confluent Cloud.

? Sicherstellung der Einhaltung regulatorischer Anforderungen, z. B. , sowie datenschutzrechtlicher Vorgaben.

? Umsetzung komplexer Geschäftslogiken, z. B. der automatisierten Übergabe offener Forderungen an Inkassounternehmen durch event- und workflowbasierte Prozesse.



? Nutzung von und zur Automatisierung der Bereitstellung der Infrastruktur und Integration in die bestehenden Systeme der Modulat Leasing AG.

? Entwicklung von für verschiedene Systeme mit Kafka Connect und NiFi, einschließlich der Integration von SQL-Datenbanken, NoSQL-Systemen und externen APIs.

? Implementierung einer Echtzeit-Überwachung der Datenströme mittels , ergänzt durch Alarmierung mit .

? Einsatz von (AKS) zur Bereitstellung und Skalierung der datenverarbeitenden Komponenten.

? Aufbau einer zentralen , um Datenintegrität und Konsistenz sicherzustellen.



Azure, Kubernetes (AKS), Terraform, Helm, Apache Kafka, Confluent Cloud, Apache Flink, Apache NiFi, Jenkins, ArgoCD, Hashicorp Vault, Grafana, PostgreSQL, MySQL, Apache Iceberg, JSON/Avro-Formate, REST APIs, GitLab CI/CD.



? Aufbau einer skalierbaren, robusten Datenplattform als Blaupause für zukünftige Erweiterungen.

? Reduzierung manueller Prozesse durch Automatisierung und Integration von CI/CD-Pipelines.

? Erfüllung regulatorischer und datenschutzrechtlicher Anforderungen.

? Optimierung der Datenqualität und -konsistenz durch zentralisierte Schema-Verwaltung und Echtzeit-Streaming.

? Erstellung detaillierter Betriebskonzepte und Übergabe an das interne IT-Team.


Diese Plattform bietet eine solide Grundlage für zukünftige datengetriebene Projekte und ermöglicht es dem Finanzdienstleister, ihre Geschäftsprozesse effizienter und flexibler zu gestalten.

Azure Kubernetes (AKS) Terraform Helm Apache Kafka Confluent Cloud Apache Flink Apache NiFi ArgoCD Hashicorp Vault Grafana PostgreSQL MySQL Apache Iceberg JSON/Avro-Formate REST APIs GitLab CI/CD.
Azure Kubernetes (AKS) Terraform Helm Apache Kafka Confluent Cloud Apache Flink Apache NiFi ArgoCD Hashicorp Vault Grafana PostgreSQL MySQL Apache Iceberg JSON/Avro-Formate REST APIs GitLab CI/CD.
Hannover
5 Monate
2023-12 - 2024-04

Aufbau einer globalen Data Mesh Plattform mit Kappa Architektur

Apache Kafka Architekt | Azure Architect | DevOps Azure AKS Kubernetes ...
Apache Kafka Architekt | Azure Architect | DevOps
In meiner Rolle als Senior Consultant und Coach war ich federführend beim Aufbau einer
globalen Data Mesh Plattform unter Verwendung der Kappa Architektur beteiligt. Dieses
Projekt zielte darauf ab, eine hoch skalierbare und effiziente Dateninfrastruktur für einen
führenden Anbieter in der Baustoffindustrie zu entwickeln.
Meine Hauptaufgaben umfassten die Architekturplanung und -implementierung, wobei ich
intensiv mit Technologien wie Apache Kafka, Azure Architect und DevOps-Praktiken
arbeitete. Ich spielte eine Schlüsselrolle bei der Integration verschiedener Datenquellen
und -senken durch den Einsatz moderner Technologien wie AKS, Kubernetes, Strimzi
Kafka und der Kafka-Stream API.
Zusätzlich war ich verantwortlich für die Sicherstellung der Datenkonsistenz und
Zugriffsverwaltung mit Tools wie Zookeeper, Kafka Connect, Ranger und dem Rest Proxy.
Mein technisches Wissen erweiterte sich auch auf die Anwendung von Apache Camel und
Apache Iceberg für die Datenmanipulation und -speicherung sowie Cosmos DB, Postgres
und Blob Storage für das Datenmanagement.
Die erfolgreiche Implementierung der Plattform ermöglichte eine verbesserte
Datenverfügbarkeit und -nutzung auf globaler Ebene, was signifikante
Effizienzsteigerungen und Kostenreduzierungen für das Unternehmen zur Folge hatte.
Durch Coaching und Mentoring von Teammitgliedern konnte ich zudem die
Fachkompetenz innerhalb des Teams steigern und eine nachhaltige Nutzung der neuen
Plattform sicherstellen
Strimzi AKS Kubernetes Azure Cosmso DB Postgres Blob Storage Apache Iceberg Apache Camel
Azure AKS Kubernetes Strimzi Kafka Kafka-Stream API Zookeeper Kafka Connect Ranger Rest Proxy (Kafka) Python Kappa / Lambda Architektur Apache Camel Apache Iceberg
Baustoffe
Heidelberg, romote
1 Jahr 5 Monate
2022-12 - 2024-04

Aufbau Real Time IOT Plattform

Apache Kafka Architekt | Azure Architect | DevOps Hashicorp Vault Kafka-Stream API Zookeeper ...
Apache Kafka Architekt | Azure Architect | DevOps
Das Projekt zielt auf die Entwicklung einer hochskalierbaren IoT-Plattform ab, die darauf
ausgerichtet ist, Batteriespeicherdaten von über einer Million Geräten in Echtzeit zu
erfassen und zu verarbeiten. Es integriert MQTT für die Datenerfassung und Apache Kafka
für das Datenstreaming und die -verarbeitung, unterstützt durch Technologien wie
Confluent Cloud und HiveMQ. Die Plattform wird entwickelt, um Leistungsanalysen
durchzuführen und Fernkonfigurationen für die angeschlossenen Geräte zu ermöglichen,
was eine umfassende Überwachung und Verwaltung der Batteriespeicherdaten
sicherstellt.
Apache Kafka Azure MS Azure SQL Database Terraform MQTT Gitlab Azrue DevOps
Hashicorp Vault Kafka-Stream API Zookeeper Kafka Connect Confluent Cloud Strimzi MQTT HiveMQ MySQL ElasticSearch Terraform IAC Kubernetes AKS Azure Cloud Adoption Framework
Energie Branche
Deutschland
4 Jahre 7 Monate
2019-10 - 2024-04

SCRUM Master für Entwicklung einer Saas Plattform

Scrum Master
Scrum Master
Während meiner Tätigkeit als Scrum Master von 2019 bis 2024 leitete ich drei
Entwicklungsteams, die einen SaaS-Service für eine Data-Analytics-Plattform entwickelten.
Diese Plattform sollte Unternehmen weltweit ermöglichen, große Datenmengen effizient zu
analysieren und zu visualisieren. Die Teams arbeiteten in einer multinationalen und
multilingualen Umgebung mit Mitgliedern aus Deutschland, Polen und dem Vereinigten

Königreich.


Aufgaben und Verantwortlichkeiten:

? Scrum-Prozesse: Implementierung und kontinuierliche Verbesserung der ScrumMethodologie zur Sicherstellung einer effizienten und transparenten

Entwicklungsarbeit.

o Moderation von Daily Stand-ups, Sprint Planning, Sprint Review und

Retrospektiven.

o Unterstützung der Product Owner bei der Erstellung und Pflege des

Product Backlogs.

o Förderung von Selbstorganisation und Eigenverantwortung innerhalb der

Teams.

o Beseitigung von Hindernissen (Impediments) und Sicherstellung eines

reibungslosen Arbeitsflusses.

? Teamkoordination und -entwicklung:

o Aufbau und Förderung eines kollaborativen und produktiven

Arbeitsumfelds.

o Durchführung von regelmäßigen Teambuilding-Maßnahmen und

Workshops zur Verbesserung der Teamdynamik.

o Unterstützung bei der interkulturellen Kommunikation und

Zusammenarbeit der multinationalen Teams.

? Zertifikate und Qualifikationen:

o Professional Scrum Master I (PSM I) Zertifizierung: Fundiertes Wissen

und praktische Anwendung der Scrum-Prinzipien und -Praktiken.

? Technische und fachliche Betreuung:

o Zusammenarbeit mit den Entwicklungsteams zur Sicherstellung der

Einhaltung von Qualitätsstandards und Best Practices.

o Unterstützung bei der Einführung neuer Tools und Techniken zur

Verbesserung der Entwicklungsprozesse.

? Multilingual und Multinational:

o Förderung der Zusammenarbeit und Kommunikation zwischen den

deutsch- und englischsprachigen Teammitgliedern.

o Anpassung der Scrum-Methodologie an die kulturellen Besonderheiten der

verschiedenen Teams.

Ergebnisse:

? Erfolgreiche Einführung eines robusten und skalierbaren SaaS-Services für DataAnalytics, der von Unternehmen weltweit genutzt wird.

? Signifikante Verbesserung der Teamproduktivität und -effizienz durch

kontinuierliche Prozessoptimierung.

? Stärkung der Zusammenarbeit und Kommunikation in einem multikulturellen und

multilingualen Umfeld.

4 Jahre
2019-01 - 2022-12

Datenplattform / BI Services / Streaming

Projektmanager | Azure Architect | DevOps | DataEngineer Ansible Hashicorp Vault Kafka-Stream API ...
Projektmanager | Azure Architect | DevOps | DataEngineer
Aufbau, Planung und Leitung eines Cloud Infrastruktur Teams für eine
SaaS Plattformsowie BI Services in Azure unter Berücksichtigung des cloud
adoption framework.
Aufbau einer Geo-redundante Streaming Plattform zum Austausch,
Aggregation undBereitstellung von
Daten aus unterschiedlichen Datenquellen (Apache Kafka Eco-System),
KubernetesCluster (AKS),
sowie skalierbare VM / Docker Lösungen zur Bereitstellung einer PIM sowie
StockTransfer App,
Überwachung der SCRUM Prozess der Softwareentwicklung als Scrum
Master
Apache Kafka Azure MS Azure SQL Database Terraform Power BI Jenkins Azrue DevOps
Ansible Hashicorp Vault Kafka-Stream API Zookeeper Kafka Connect MongoDB MySQL ElasticSearch Terraform IAC Data Lake Datawarehouse Kubernetes AKS Azure Cloud Adoption Framework
Technologie Unternehmen
Leipzig
2 Jahre 6 Monate
2018-04 - 2020-09

Architektur einer Azure Cloud für Custom Application in Kubernetes

Projektmanager | Teamliead DevOps / CloudOps| Azure Architekt Azure MS Azure SQL Database Azure Cloud Adoption Framework ...
Projektmanager | Teamliead DevOps / CloudOps| Azure Architekt
Aufbau einer Azure Cloud nach dem Azure Cloud adoption framework.
Design und Implementierung einer skalierbaren, global verteilten,
multiregionalen Bereitstellung einer Einzelhandelsanwendung, basierend
auf AKS mit Azure Devops, unter Verwendung von TerraformIntegration
der internen Entwicklungsprozesse mit der Kundeninfrastruktur und PaaSLösungen.
Azure MS Azure SQL Database Azure Adoption Framework Azure DevOps AKS Kubernetes Terraform ArgoCD Apache Kafka Cuba
Azure MS Azure SQL Database Azure Cloud Adoption Framework Azure DevOps AKS Kubernetes Terraform ArgoCD Apache Kafka Cuba Plattform Java 11 Ansible ELK Jenkins Bitbucket Atlassian JIRA
Einzelhandelsunternehmen
Leipzig, Münster
3 Jahre 1 Monat
2016-01 - 2019-01

Datenplattform / Stream Events

Teamlead DevOps |Teilprojektleitung | Datenplattform OpenStack Apache Kafka Kafka-Stream API Zookeeper ...
Teamlead DevOps |Teilprojektleitung | Datenplattform
Konzept, Design und Entwicklung einer globale clusterbasierten,
hochverfügbaren Stream Applikation für Log- Management im
OpenStack Umfeld, basierend auf
Apache Kafka, Zookeeper, Java Enterprise, Python und Ansible. Die
Anwendung speichert, puffert (Vermeidung von Peaks), filtert, bereitet
eingehende Logs aus mehreren Clouds (Producers) auf und stellt diese in
Topics für verschiedene Consumer (bspw. Graylog, Splunk) zur weiteren
Analyse bereit. In einem aktiv/aktiv Clusterumfeld werden die Daten
gespiegelt, um die Hochverfügbarkeit zu garantieren.
Apache Kafka OpenStack-Heat Terraform Ansible Ubuntu Linux Kafka Streams Eslastic Search Graylog Splunk Python Cloud Computing Docker Kubernetes
OpenStack Apache Kafka Kafka-Stream API Zookeeper Graylog Ansible JAAS ElasticSearch InfluxDB python Prometheus MongoDB Grafana Kubernetes Openshift Jenkins
Telekommunikations Unternehmen
Bratislava
1 Jahr 1 Monat
2015-01 - 2016-01

Webapplikation für Openstack Securitygroups

Entwickler Python Ansible OpenStack ...
Entwickler
Konzept, Design und Entwicklung einer Webapplikation für Netzwerk &
Security Analyse im OpenStack Umfeld, basierend auf Java Enterprise,
JavaScript, Python und Ansible.
Die Anwendung visualisiert und analysiert Beziehungen von Security
Gruppen, virtuellen Maschinen / Ports und Regeln von OpenStack. IDM
Integration, log Konzentration mit Graylog.
Python Ansible OpenStack API JEE 7: Servlet 3.x JAAS JPA 2.1 PrimeFaces OpenSSO MariaDB OpenStack
Python Ansible OpenStack JAAS PrimeFaces OpenSSO MariaDB
Telekommunikationsdienstleister
Bratislava

Kompetenzen

Kompetenzen

Produkte / Standards / Erfahrungen / Methoden

Projektmanagement
Experte
Cloud Architektur
Experte
Apache kafka
Experte
Scrum Master
Fortgeschritten
DevOps
Experte
Terraform
Experte
Ansible
Fortgeschritten
Jenkins
Experte
ELK
Fortgeschritten
Grafana
Fortgeschritten
Prometheus
Fortgeschritten
  •  Fundierte Kenntnisse der gängigen Standards und Compliance-Vorgaben, einschließlich ISO/IEC 24760-1, 24760-2, 29115, 29146, ISO/IEC 27001 sowie des IT-Sicherheitsgesetzes.
  • Fähigkeit, externe Rahmenwerke und interne Anforderungen in umsetzbare IT-Security-Standards zu übersetzen.
  • Umfangreiches Wissen über IAM- und PAM-Lösungen in On-Premises- und Cloud-Umgebungen.
  • Expertise in der Anforderungsanalyse und der Erstellung von Ist-/Soll-Architekturen.
  • Erfahrung in der Auswahl, Implementierung und Verwaltung von PAM-Technologien wie CyberArk, BeyondTrust und Thycotic.
  • Fundierte Kenntnisse in X.509-Zertifikaten, Smartcards und RSA SecurID.

Datenbanken

SQL
Experte
MySQL
Experte
DB2
Fortgeschritten
SAP HANA
Experte
MongoDB
Fortgeschritten
Oracle
Fortgeschritten

Datenkommunikation

Streamprocessing
Experte
API Solutions
Fortgeschritten

Personalverantwortung

Team Lead
Fortgeschritten

Vertrauen Sie auf Randstad

Im Bereich Freelancing
Im Bereich Arbeitnehmerüberlassung / Personalvermittlung

Fragen?

Rufen Sie uns an +49 89 500316-300 oder schreiben Sie uns:

Das Freelancer-Portal

Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.