Software Architect & IT Consultant specialising in Cloud & Dev-Ops projects, with a focus on back-end app. dev., microservices, & environment scaling.
Aktualisiert am 20.08.2024
Profil
Freiberufler / Selbstständiger
Remote-Arbeit
Verfügbar ab: 20.08.2024
Verfügbar zu: 100%
davon vor Ort: 100%
ACS
Cloud
Dev-Ops
Scala
Kafka
J2EE
Troubleshooting
Grafana
Apache Hadoop
Docker
InfluxDB
OpenShift
RedHat Enterprise Linux Admin
Splunk
Elastic Search
Python
Kubernetes
Englisch
Muttersprache
Deutsch
gut / B2
Italienisch
Fließend in Wort und Schrift

Einsatzorte

Einsatzorte

Düsseldorf (+50km)
Deutschland
möglich

Projekte

Projekte

1 Jahr 9 Monate
2022-10 - 2024-06

Azure Automation for DBaaS

Platform Engineer / DBaaS Team
Platform Engineer / DBaaS Team
DevOps-Automatisierungsexperte, der in der Datenbankgruppe des Platform Engineering-Teams bei Amadeus an der Entwicklung der Automatisierungstools zur Migration aktueller SQL-Datenbanken (MariaDB/Oracle/SQL Server) vom vorhandenen Rechenzentrum in die Azure Cloud von Microsoft arbeitet.

Ich habe an der TLS-Implementierung der MariaDB-Architektur bei Amadeus gearbeitet und Ansible-Playbooks und -Rollen erstellt, um bei Bedarf TLS-Zertifikate für den entsprechenden MariaDB-basierten Cluster (der den ProxySQL-Cluster und Orchestrator in OpenShift und Prometheus Exporters umfasste) mit der Enterprise Certificate Authority bei Amadeus (Venafi) zu erstellen und sie als Teil der MariaDB-Clustererstellung in Azure sowie in Hybrid-Cloud-Architekturen (rechenzentrumsübergreifend ? Azure) bereitzustellen. Dies wurde auch in einen sicheren Speichermechanismus für die neuen und vorhandenen Zertifikate mit einem Pull-on-Demand-Modell basierend auf CyberArk Safes und Azure Key Vaults integriert, die als Zertifikats-Repository fungieren.

Ich habe auch an der Ansible-basierten Automatisierung des MariaDB-Backup- und Wiederherstellungssystems gearbeitet, um physische Backups der aktuell laufenden Datenbank zu erstellen und sie mithilfe der Percona-Toolsuite als versionierte Azure Storage Container in Azure Blob Storage zu streamen. Dieses Backup auf Anfrage wurde auch in STRG-M integriert, um das Auslösen und Verwalten täglicher Backups zu ermöglichen.

Die gesamte Arbeit wurde in den Amadeus Automation-Workflow mit BitBucket und Jenkins-basiertem CI-CD integriert und mit SonarQube sowie Unit-Tests der Ansible-Rollen mit Molecule integriert. Die endgültigen erstellten Artefakte wurden an JFrog Artifactory gesendet. Die endgültige Bereitstellung erfolgte über Release Management in Jenkins unter Verwendung von Versions-Tags an einen AWX-Servercluster, der mit Ansible in der entsprechenden Azure-Umgebung bereitgestellt wurde.
Artifactory Python Go Java Prometheus OpenShift Kubernetes Azure MariaDB MySQL MySQL Cluster Backup/Storage Linux Docker Terraform
Amadeus
Erding
1 Jahr 5 Monate
2021-04 - 2022-08

SAP DITA GCP Migration Project (Finanz / Cloud Migration)

Cloud & DevOps Expert Java Groovy GoLang ...
Cloud & DevOps Expert

Cloud- und DevOps-Experte, der in einem Team von Plattform- und Produktspezialisten an der Migration eines großen internen DITA-basierten Dokumentenveröffentlichungssystems arbeitete, das Millionen von html-, pdf-, chm- und anderen Dokumenttypen für die meisten SAP-Geschäftsbereiche verarbeitet. Dieses System wurde umgestaltet, um in ein kleineres, bedarfsorientiertes, cloudbasiertes Microservice-Modell zu passen, das serverlose Technologien verwendet.

Entwurf und Implementierung einer GitOps-Strategie auf der Grundlage eines neuen generischen, modularen CI/CD-Pipeline-Frameworks, das eine wiederverwendbare, gemeinsam genutzte Bibliothek (basierend auf GitHub Enterprise, Jenkins-as-a-Service, Hashicorp Vault, Artifactory) und einer Reihe von REST-API-Diensten von Drittanbietern (SAP Piperlib / HadoLint / SonarQube / BlackDuck / WhiteCross / Fortify / usw.), um eine Reihe von Microservices (Docker-Komponenten auf der Basis von Python / Go-Lang / Java) zu erstellen und sie in verschiedenen Cloud-Umgebungen (GCP / SAP Sideras / usw.) mit Terraform zu aktualisieren und Kanalaktualisierungsbenachrichtigungen in Microsoft Teams zu integrieren, um Build-Fortschritte,

Validierungen und Fehler hervorzuheben. Außerdem unterstützte er das Entwicklungsteam bei SQLbezogenen Client- und Serverproblemen (Postgres / MariaDB / etc.).

Aktive Mitarbeit in Schlüsselbereichen des Projekts wie Cloud Architecture Design, Monitoring, Disaster Recovery, Skalierbarkeit, sowie Sicherheitskonzepte (Least Priv., CAM-Rollen, etc).

Design und Implementierung von CI/CD-Build-Fortschritten, Validierung und Fehlern sowie verschiedener Go-Lang basierter serverloser Funktionen in die SAP Sideras OpenFAAS on k8s Cloud für den Einsatz im Projekt.

IXIASOFT Docker Google Cloud Platform Serverless Jenkins Terraform Prometheus Grafana Google BigTable Fortify WhiteSource BlackDuck Hashicorp Vault OpenFAAS SAP PiperLib HadoLint SonarQube K8S Artifactory Google Container Registry Google Artifact Registry Postgres DB Google Cloud Build Google Cloud Run GitOps SAP Sideras GitHub Enterprise Git
Java Groovy GoLang Python Docker REST Bourne-again-shell Shell-Script OpenFAAS Monitoringsysteme Security Konzepte CI/CD K8S Google Artifact Registry Google Container Registry PostgreSQL Google Cloud Build Google Cloud Run GitOps Git GitHub Enterprise WebHooks
SAP
4 Monate
2021-01 - 2021-04

BMW Global API Management Project.

Architect / DevOps Lead CI/CD Java Python ...
Architect / DevOps Lead

Arbeitete in einem kleinen Team von Plattform- und Produktspezialisten, um eine detaillierte Analyse der aktuellen Architektur für das Global API Management Portal (APIM) bei BMW zu erstellen und verschiedene Vorschläge für die Migration von Teilen der aktuellen API-Management-Plattform sowie des aktuellen Build-Systems zu einer neueren Microservices-basierten Architektur zu erarbeiten.

Die derzeitige Plattformlösung besteht aus APIGEE und verschiedenen Cloud-basierten Komponenten wie OpenShift + Helm und enthält verschiedene stark angepasste Docker-isierte Instanzen von ForgeRock IDM + Prometheus + Grafana + kundenspezifische Java- und TypeScript-basierte Anwendungen.

Zu den detaillierten Vorschlägen gehörten die Anpassung der Architektur zur  Beseitigung von Engpässen und zur Erhöhung der Hochverfügbarkeit, der Stabilität und des Gesamtdurchsatzes in allen Umgebungen sowie Vorschläge zur Verbesserung der aktuellen Sicherheitspraktiken innerhalb des Build-Systems und Vorschläge zur Migration des aktuellen Jenkins-basierten Build-Systems / OpenShift Container Registry auf  eine Azure DevOps-basierte Toolchain und Azure  Container

OpenShift ForgeRock Java Python APIGEE Prometheus Grafana Helm K8S Azure RHEL-Administration Red Hat Enterprise Linux RPM Docker
CI/CD Java Python Javascript OpenShift ForgeRock IAM Prometheus Grafana Azure Applikationsarchitektur RHEL-Administration Red Hat Enterprise Linux RPM Docker
BMW
8 Monate
2020-04 - 2020-11

SIEM Project - QRADAR Integration

DevOps Engineer CI/CD GoLang Agile Entwicklung ...
DevOps Engineer

Als Teil des SIEM-Teams und der laufenden Qualitätskontroll- und Softwareverbesserungsprozesse habe ich einen PoC für externe Support-Tools für QRADAR entwickelt, um eine kontinuierliche Versionierung von Teilen des Benutzerdatenmodells innerhalb von QRADAR zu ermöglichen (derzeit 

nicht in der Standardarchitektur von QRADAR vorhanden). Ich entwarf und implementierte eine domänenspezifische Konfigurationssprache (DSL) und implementierte einen Parser in GoLang auf der Grundlage der HCL2-Spezifikation (wie sie in Terraform von Hashicorp verwendet wird). Diese DSL wurde verwendet, um QRADARs benutzerdefinierte Ereigniseigenschaften (CEP), Protokollquellen und andere verschiedene QRADAR-Datentypen innerhalb eines Software-Proxy-Blocks, der mit der QRADAR-RESTAPI verbunden war, von der DSL in JSON und wieder zurück zu übertragen. Außerdem richtete ich eine Umgebung ein, die aus einer kleinen QRADAR-Instanz und einer GitLab-Instanz bestand, und entwickelte und implementierte eine CI/CD-Pipeline auf der Grundlage von GitLabRunnern, die Build-Sequenzen mit Docker auslösten, um den GoLang-Code, Build- und Ausführungssequenzen für dieses Projekt zu validieren.

IBM QRadar Security Intelligence Platform QRadar QRadar Security Intelligence Platform SIEM Git GITLAB Go Go-Developer HCL Hashicorp Config Language JSON REST Configurationmanagement
CI/CD GoLang Agile Entwicklung DSL Configuration REST QRadar SIEM Git GITLAB
VW Financial Services AG
Braunschweig
4 Monate
2019-09 - 2019-12

Business SLA Monitoring Project

Software Architect / BackEnd Dev / DevOps
Software Architect / BackEnd Dev / DevOps

Architektur, Design und Implementierung eines Proof of Concept für ein Cloud-basiertes MonitoringSubsystem, das in nahezu Echtzeit die kontinuierlicheTransaktionskonformität zu den Business SLA's für eine private Cloud-basierte Anwendung mitexternen Service-Abhängigkeiten.

Das Projekt erforderte die Analyse und Integration verschiedener Überwachungstechnologien (InfluxDB / CassandraDB / Prometheus / TimeScaleDB). Jede dieser Technologien wurde in eineBeispielversion der SCALA-Anwendung des Kunden unter Verwendung von Java und SCALA-APIsintegriert und mit der GitLab CI/CD-Build-Pipeline des Kunden erstellt. Kundenspezifische Dashboardswurden erstellt und für den Kunden angepasst. Die Vor- und Nachteile jeder Technologie wurdendem Kunden zusammen mit Beispieldaten aus Dashboards präsentiert. Auf der Grundlage einerabschließenden Präsentation für den Kunden wurde eine maßgeschneiderte Lösung unterVerwendung von TimeScale implementiert und weitere JAVA- und SCALA-Code-Verfeinerungenwurden in die endgültige Anwendung des Kunden integriert und unterVerwendungskalierbarerDocker-Container für jede der Scala-Anwendungen, Grafana,TimeScale-/Postgres-Instanzenbereitgestellt und schließlich in ihrer Docker-basierten Private Cloud bereitgestellt und mit echtenDaten getestet

BITMARCK Software GmbH, Essen
9 Monate
2018-11 - 2019-07

Sentinel Private Cloud Migration Project

Senior Back End Dev / Ops
Senior Back End Dev / Ops

Ich arbeitete in agilen Teams an der Entwicklung neuer Protokoll- und Ereignisexporteure für Metriken auf Anwendungsebene (funktional und nicht funktional) als Teil der Migration des internen, rechenzentrumsweiten Legacy-Monitoring- und Alarmsystems (Sentinel) zu einem cloudbasierten Monitoring-as-a-Service-Konzept (MaaS), das auf einer Microservices-Architektur basiert und Prometheus, Thanos und Grafana nutzt, die alle in Kubernetes und OpenShift in einer On-Premise Private Cloud laufen. Ich habe mir auch alternative Proof-of-Concepts angesehen, die leichtere Lösungen mit geringerer Bandbreite für die Datenerfassung im Rechenzentrum darstellen und alternative Architekturen und Technologien wie die Datenaggregation und -speicherung mit MySQL sowie die Datenerfassung an lokalen Knoten mit FluentBit und die zentralisierte Protokollverarbeitung mit FluentD in Kubernetes- und OpenShift-basierten Systemen nutzen.

  • Erstellung eines benutzerdefinierten GoLang-Client-Codes zur Extraktion von Daten aus der SPLUNK REST-Schnittstelle / Transformation / Übergabe an Prometheus (selbst entwickelte ETL)
  • Erstellung einer Dockerisierungs- und Unit-Test-Schicht für die Exporter, Integration in das CI/CD-Build-System und Auslieferung an OpenShift
  • Erstellung von Grafana-Beispiel-Dashboards innerhalb von OpenShift, um zu testen, ob die Prometheus-Metriken gültig sind
  • Unterstützung und Erstellung von Proof-of-Concepts für mögliche Cloud-Migrationsprojekte mit Kubernetes (Machbarkeitsstudien) für verschiedene Amadeus Public Cloud-Projekte, die auf die Google Cloud abzielen (S-Box / X-Box), durch Migration der ACS-Projektskripte mit Terraform, Ansible usw. und einschließlich logbasierter Überwachung und Ereignisextraktion mit FluentBit und FluentD
  • Bereitstellung von Funktionsaktualisierungen und Software-Wartung für bereits erstellte Werkzeuge (z. B. ULF-CLI-Tool auf Basis von PySPARK, Python, SCALA, usw.), das Schlüsselparameter vom Benutzer akzeptierte (Start-/Enddatum und Abfrageparameterfelder), die dann verwendet wurden, um Abfragen (mit py-spark) an einen Spark-Cluster zu richten, der mit einem MAPR-Cluster (HADOOP) verbunden war, der nahezu in Echtzeit mit neuen Anwendungsprotokolldaten mit anonymisierten kommerziellen Transaktionen/Buchungen aktualisiert wurde, die schließlich eine Teilmenge der Transaktionsdaten zurückgaben, die durch die vom Endbenutzer gestellten Abfragen gefiltert wurden (in der Regel Entwickler/Betriebsspezialisten, um Anwendungsinkonsistenzen zu diagnostizieren und Transaktionsprobleme zu verfolgen).

Amadeus Data Processing GmbH, Erding
1 Jahr 1 Monat
2017-11 - 2018-11

Cloud Migration & Airline Customer Dashboard

Senior Back End Dev / Ops
Senior Back End Dev / Ops

Implementierung neuer Funktionen im Airline-Dashboard-Projekt innerhalb eines agilen Teams, das benutzerdefinierte Inhouse-ETL entwickelt (Implementierung von Datenkollektoren in Python zur Extraktion, Aggregation, Bereinigung und Transformation von Daten), um bereinigte Datenansichten für Business Intelligence-Teams in einem anpassbaren Dashboard für Endkunden-Fluggesellschaften wie AirFrance und Lufthansa usw. bereitzustellen. Außerdem leistete er Cloud-Support für CloudMigrationsprojekte auf der Grundlage der Referenzarchitektur von Amadeus Cloud Services.

  • Entwicklung neuer Docker-Komponenten unter Verwendung von Python und GoLang als Schnittstelle zu älteren Flugbuchungssystemen über REST-APIs
  • Entwicklung von Mikro-Batching-Techniken (1-Minuten-Fenster) zur Extraktion von Details aus Fluggastdatensätzen (PNR): AirlineIDs &3rd party office ID 's etc. und reaggregiert diese, um neue Zeitreihen e2e Überwachungsansichten von Systemen zu generieren, die über REST & Grafana zugänglich sind.
  • Entwicklung von benutzerdefinierten Metrik-Exportern in Python, die eine Schnittstelle zu BI-Systemen bilden, die ELK verwenden und Elastic Queries ausführen
  • Aggregiert und umformatiert und über REST zugänglich gemacht und die Ergebnisse Prometheus scrape-fähig gemacht.
  • Hinzufügen von Optionen mit MySQL, um lokale Speicherung und Anomalieanalyse (Backtesting) über SQL-Abfragen zu ermöglichen
  • Erstellung von Beispiel-Dashboards in Grafana, um zu testen, dass die Prometheus-Metriken verfügbar sind.
  • Schreiben eines Proof of Concept, um Daten aus SPLUNK zu extrahieren und diese so umzuwandeln, dass sie mit Prometheus gescrapt werden können.
  • Unterstützung bei der Cloud-Migration zu anderen Amadeus Private Cloud-Projekten, die auf RedHat Private Cloud (R-Box) abzielen, durch Migration der ACS-Projektskripte mit Terraform, Ansible usw.
  • Bereitstellung von Funktions-Updates und Software-Wartung der zuvor erstellten Tools (z.B. ULF-CLI-Tool auf Basis von PySPARK, Python, SCALA, etc.)
Amadeus Data Processing GmbH, Erding
2 Jahre 3 Monate
2015-09 - 2017-11

Cloud Project

Senior Back End DevOps / Big Data
Senior Back End DevOps / Big Data

Architektur und Implementierung einer auf Microservices basierenden Cloud-Monitoring-Lösung für einen E-Commerce-Geschäftsbereich innerhalb der privaten Cloud von Amadeus Cloud Services (ACS) für die Backend-E-Commerce-Buchungsmaschine der Buchungswebsite der Inter-Continental Hotel Group (IHG). Die vorgeschlagene High-Level-Lösung basierte auf der Netflix Lambda-Architektur, wurde jedoch stark modifiziert, um auf VMware / OpenStack / OpenShift zu laufen und Java-basierte Middleware, Kafka Broker Cluster, Apache Spark Cluster (mit PySPARK), Zookeeper, Diamond, InfluxDB, Grafana, MapR und FluentD zusammen mit Docker, Puppet & Hiera zu nutzen

  • Implementierung eines CI/CD-Build-Systems auf der Grundlage einer Implementierung von Jenkins mit benutzerdefinierten mehrstufigen Builds / BitBucket / SonarQube.
  • Verwendung von Terraform zum Erstellen und Aktualisieren des MVP-Clusters von VMs innerhalb von OpenStack und zum Auffüllen mit Docker-Images aus Artifactory.
  • Teile des Monitoring-Workflows mit GoLang, Python, JAVA und DockerFiles und Build-Tools (Maven / Makefiles) codiert und gewartet, um Komponenten wie Diamond / FluentD / Kafka/ Influx / Grafana und IAM / LDAP-Clients in einer Lambda-Architektur zusammen mit UnitTests in einer lokalen Umgebung zu bauen und zu verpacken, bereitzustellen undauszuführen (Entwicklung bis zur Produktion).
  • Big Data: Entwicklung von benutzerdefiniertem Inhouse-Tooling (ULF-CLI) in Python und SCALA (PySPARK-Client) innerhalb des MapR HADOOP-Clusters, um eine parallelisierte Suche nach Anwendungsereignissen in Terabytes von Daten innerhalb von AVRO-kodierten Dateien im MapR HDFS-Repository zu ermöglichen, basierend auf vom Benutzer bereitgestellten Regex und Zeitmustern.
  • Entwicklung eines automatisierten Bereinigungstools in SCALA, um die optimale Datenmenge im HDFS zu erhalten, bevor die HDFS-Bereinigung ausgelöst wird.
  • Zusammenarbeit mit QA-Teams, Anwendungsteams und SRE-Teams zum Testen und Bereitstellen von Updates und Patches in verschiedenen Umgebungen.
  • Bereitstellung von Echtzeit-Hilfe und Support für 1st & 2nd Level Support Teams mit dem Überwachungssystem nach dem Go-Live.
IHG Group
5 Monate
2015-03 - 2015-07

Consumer Channels Dev-Ops Team

Tech Lead/ Application Manager
Tech Lead/ Application Manager

Technical Application Manager - Verantwortlich für eine Reihe von Agile-Projekten innerhalb der Consumer Channels-Abteilung von Vodafone GA:

  • Bereitstellung von technischem Support auf allen Ebenen des SW- und HW-Stacks für das gesamte Projektportfolio für die Geschäftsbereiche von Vodafone in den verschiedenen Phasen des Projektlebenszyklus, von der Architekturentwurfsphase über den UmgebungsRollout und die Produktion bis hin zum Go-Live und der SLA-Definition und -Implementierung sowie dem SLA-Reporting und Dashboarding unter Verwendung von Python und MySQL.


Vodafone GA, Ratingen
6 Monate
2014-10 - 2015-03

Pharmaceutical Project

Deployment Architect
Deployment Architect

Arbeitete innerhalb eines kleinen agilen DevOps-Teams an der Architektur, dem Design und der Implementierung einer automatisierten "On-Demand"-Umgebung für ein deutsches Regierungsprojekt zur Arzneimittelbewertung (AMNOG). Die Lösung basierte auf einer hochsicheren Version des Dokumentenmanagement-Stacks von Oracle (Apache / Weblogic / Web Center / Web Center Portal, Oracle RDBMS, LDAP & IAM) und erforderte eine End-to-End-TLSSicherheitsimplementierung über alle Schichten des Anwendungsstacks. Erstellung von Überwachungs- und Tooling-Ergänzungen mit BASH- und Python-Skripten und AWK, MySQL, Graphite

Materna GmbH, Dortmund
1 Jahr 9 Monate
2013-01 - 2014-09

SEPAHUB Project

Tech Lead Dev-Ops/ Application Manager
Tech Lead Dev-Ops/ Application Manager

Einführung und Rollout des SEPAHUB-Clearingsystems für Finanzzahlungen in allen VodafoneBetriebsgesellschaften in Europa. Einschließlich Multi-Umgebungs-Setup, automatisiertes Maschinen-Setup für alle RHEL Linux-VMs; Konfigurationsmanagement mit Puppet und RH Satellite Server; Automatisierung von Paketprüfungen mit Ansible; End-to-End-Smoke-Tests usw. und Bereitstellung von 3rd-Level-Support für die SEPAHUB-Produktionsbetriebsteams. Erstellung von Überwachungs- und Tooling-Ergänzungen mit BASH- und Python-Skripten und AWK, MySQL, Graphite

Vodafone GA-Online, Dusseldorf
11 Monate
2012-02 - 2012-12

Germany Online Shop Project

Deployment Architect
Deployment Architect
  • Definition und Implementierung einer Roadmap für alle neuen Bereitstellungsprozesse im Projekt, um einen CI/CD-Ansatz für alle Rollouts zu implementieren.
  • Fehlerbehebung bei leistungs- und stabilitätsbezogenen Anwendungs- und Systemproblemen während der Abnahmetestphasen.
  • Bereitstellung von Deployment Support für weltweit verteilte Teams für ATG Commerce, Oracle, WebLogic, Solaris, Apache, IAM & LDAP.
  • Architekturdesign-Unterstützung für die geplante SEPA paneuropäische Bankenintegration im Jahr 2014 des Vodafone Deutschland Online Shop Projekts.
  • Systemadministration von Solaris und RHEL basierten Systemen für verschiedene Test- und Prod-Umgebungen.
  • Erstellung von Monitoring- und Tooling-Ergänzungen mit BASH & Python Scripting & AWK, MySQL, Graphite.
Infosys, Dusseldorf
3 Jahre 7 Monate
2007-10 - 2011-04

Mobile Portals

Team Lead/ Performance Specialist
Team Lead/ Performance Specialist

Vodafone Live! & MyWeb: Operations Team Lead & Single Point of Contact for Deployment & Integration activities - verantwortlich für ein Team von 5 Agile-Spezialisten, die für die Wartung der Kernapplikations-Stacks verantwortlich waren, um einen 24x7 Service für 5 verschiedene Vodafone Live! Länderportale bereitzustellen. Analyse und Implementierung von Leistungs- und Stabilitätsverbesserungen für alle Komponenten der Live!-Portalarchitektur auf den Produktionssystemen. Unterstützung beim Migrationsplan und der Implementierung der Migration der Benutzer auf die MyWeb-Plattform. Erstellung von Überwachungswerkzeugen, die BASH- und Python-Skripte sowie AW K, MySQL und Graphite ergänzen.

Core Enablers Team: Bereitstellung von Konfigurations-, Bereitstellungs-, Integrations- und Debugging-Support für Apache- und komplexe Java-basierte Webanwendungen in den Produktionsund Vorproduktions-Event-Rating-Systemen (Vodafone Global Billing- und Mediationssysteme) für alle Opcos

Vodafone
1 Jahr 4 Monate
2006-04 - 2007-07

Content Management / Portal

Web Analytics Specialist
Web Analytics Specialist

Content Management / Portal / Web Analytics vor Ort Spezialist für Vignette, CoreMedia und Weblogic. Zu den Kunden zählen Telecom Italia Mobile, ValueTeam, Hamburg.de, Sal Oppenheim Privatbank, Vodafone (EITO), T-Mobile (KIWI), T-Systems, Autostadt

Tallence, Hamburg
9 Monate
2005-07 - 2006-03

Deployment, Configuration, Integration, Profiling and Debugging

Deployment Specialist ATG (now Oracle)
Deployment Specialist ATG (now Oracle)

Bereitstellung, Konfiguration, Integration, Profiling und Debugging von ATG Dynamo Application Server, ATG Search (Primus Kjetztledge Solutions), ATG Portal, ATG Publishing, ATG Commerce usw. in der gesamten EMEA-Region für Kunden (DGI (französische Steuerbehörde), MAIF, Groupama, AGF, France Telecom, Orange, Masterfoods / Mars, Premier Farnell, DNB Bank, Louis Vuitton usw.)

Reading, UK
6 Monate
2005-01 - 2005-06

Analysis of the VISTA in order to improve system stability, performance and scalability

Analysis of the VISTA (Vodafone Intranet system) in order to improve system stability, performance and scalability via a series of workshops, code & architectural reviews looking at the utilisation of Weblogic and Vignette.

Vodafone, Malaga (Spain)/ Ratingen (Germany)
3 Monate
2004-10 - 2004-12

Content Management

Content Management Specialist
Content Management Specialist

On site architectural performance and scalability reviews of the CMS in use Daimler Chrysler (Stuttgart) and T-Mobile (Bonn). 

Tallence, Hamburg (Germany)
1 Jahr 4 Monate
2003-07 - 2004-10

Analyzing, troubleshooting and optimizing

Project Manager/ Technical Architect
Project Manager/ Technical Architect

Analyzing, troubleshooting and optimizing the ALLTIM intranet portal and its subsidiary Weblogic systems.

Leading a team of 5 developers to design and implement the RPDA (Report Piani Di Azione) project for TIM, using Weblogic, Vignette V7 and 3rd party software in order to visualise the state of any project that is active displaying GANTT charts, etc.

Telecom Italia Mobile (Italy)
6 Monate
2003-01 - 2003-06

Integrating and Configuring for VISTA intranet portal

Integration Specialist
Integration Specialist

Integrating and Configuring Vignette, Epicentric, Weblogic, Volantis, Oracle, and Sun for Vodafone VISTA intranet portal. 

Vodafone Germany

Aus- und Weiterbildung

Aus- und Weiterbildung

1990 - 1994
Elektroingenieurwesen
University, Newcastle upon Tyne (UK)

Kurse und Zertifizierungen
07/2011
Red Hat System Administrator Certification

08/2011
Red Hat System Engineer Course

09/2011

  • Oracle Solaris 10 System Administration Course
  • Oracle10 OCP Course

02/2012
  • Red Hat System Engineer Exam.
  • Oracle Solaris 10 System Administration Exam.

Position

Position

Freelance IT Consultant / Cloud & Dev-Ops 

Kompetenzen

Kompetenzen

Top-Skills

ACS Cloud Dev-Ops Scala Kafka J2EE Troubleshooting Grafana Apache Hadoop Docker InfluxDB OpenShift RedHat Enterprise Linux Admin Splunk Elastic Search Python Kubernetes

Produkte / Standards / Erfahrungen / Methoden

Agile Entwicklung
Configurationmanagement
Git
IBM QRadar Security Intelligence Platform
QRadar
QRadar Security Intelligence Platform
REST
SIEM

Profil

  • In den letzten Jahren (2015 - 2024) habe ich in verschiedenen Cloud-Projekten an der Architektur, Implementierung und Fehlerbehebung von On-Premise- und Public-Cloud-Lösungen für hochvolumige transaktionale Anwendungsstacks gearbeitet. Ich habe auch CI/CD-Systeme mit Jenkins und GitLab entworfen und implementiert, um skalierbare Microservice-basierte Komponenten zu erstellen, die für die Cloud geeignet sind (GCP / AWS / Azure / Sideras / OpenFAAS).
  • Ich habe auch umfangreiche Erfahrung in der Einrichtung von Überwachungssystemen, die bei der Fehlersuche und Visualisierung von Datenflüssen helfen und Indikatoren für die Verfügbarkeit von Diensten und die Stabilität von Anwendungen liefern.
  • Vor 2015 habe ich mehr als 15 Jahre als freiberuflicher IT-Berater in DevOps / SRE-bezogenen Bereichen in der Telekommunikationsbranche in der EMEA-Region gearbeitet.


Fachlicher Schwerpunkt: Cloud & DevOps Experte

  • über 25 Jahre Erfahrung in der Entwicklung, Implementierung, Bereitstellung und Skalierung komplexer IT-Lösungen für große Unternehmen.
  • über 5 Jahre Erfahrung in der Implementierung von On-Premise & Public / Multi Cloud basierten Architekturen mit Kubernetes / OpenShift / OpenStack.
  • mehr als 10 Jahre Erfahrung in der Automatisierung der Infrastrukturbereitstellung (VMs und Anwendungsstacks) mit Tools wie Puppet, Ansible und Python.
  • über 10 Jahre Erfahrung in der Arbeit in Teams mit Prozessmodellen wie Agile, Kanban & Scrum und der Atlassian Toolsuite (Jira etc).
  • mehr als 10 Jahre Erfahrung im Management von Rollouts von Kundenanwendungen in der Produktion (monolithische und verteilte Microservice-Architekturen).
  • mehr als 10 Jahre Erfahrung in der Erweiterung und Anpassung von JAVA-/Python-/GoLang-basierten Legacy-Anwendungen in Microservice-basierten Architekturen.
  • über 5 Jahre Erfahrung in der Implementierung von "Infrastructure as a Code" (IaaC) mit Tools von Hashicorp (Terraform, Vault, Consul)
  • mehr als 5 Jahre Erfahrung in der Einrichtung von VPC's in einer Cloud-Umgebung mit Terraform / Docker / Pods / Kubernetes / OpenShift und VM's.
  • mehr als 5 Jahre Erfahrung in der Implementierung und Nutzung von Kafka Message Broker Clustern (inkl. MirrorMaker / KStreams) in Kubernetes.
  • Umfangreiche Erfahrung bei der Fehlersuche und -behebung von Apache Kafka Clustern im Zusammenhang mit ZooKeeper / Leader Election Problemen in VM 's.
  • Erfahrung in der Entwicklung von Kafka-Testclients mit Python und GoLang-basierten APIs zum Testen und Verfolgen des Kafka-Nachrichtendurchsatzes.
  • Erfahrung in der Architektur und Entwicklung kundenspezifischer ETL-Pipelines mit Python, PySPARK und GO-Lang für die Datenextraktion für BI-Teams.
  • Erfahrung in der Implementierung von CI/CD-Pipelines - Einrichtung und Konfiguration von Jenkins und GitLab zum Erstellen, Testen, Markieren und Speichern von Artefakten in Repos.
  • Erfahrung in der Entwicklung von CI/CD-Pipelines zur Erstellung und Befüllung von Cloud-Umgebungen mit Terraform, Artifactory, Ansible, Puppet, Hiera, BitBucket.
  • Erfahrung in der Konzeption und Implementierung von M-a-a-S-Monitoring-Systemen für funktionale/nicht funktionale Anforderungen für Anwendungsstapel.
  • Erfahrung in der Implementierung von benutzerdefinierten Dashboards für Überwachungssysteme für Anwendungsstacks basierend auf Grafana / Elastic ELK / Splunk.
  • Erfahrung in der Migration von Legacy Data Centre Monitoring Systemen zu Cloud-basiertem Monitoring-as-a-Service unter Verwendung von Prometheus und Thanos.
  • Erfahrung in der Implementierung und Nutzung von Zeitserien-Überwachungstechnologien wie Prometheus, Thanos, Influx, Timescale und Grafana
  • Erfahrung im Umgang mit komplexen Anwendungsdatenformaten: PNR, AVRO, XML, JSON, YAML, HCL.
  • Erfahrung im Umgang mit Elastic (ELK) & SPLUNK - Dashboard-Erstellung sowie GoLang & Python API's zur Datenextraktion etc.
  • Erfahrung mit ITIL / Change Management Systemen und Remedy Ticketing Systemen.
  • Erfahrung mit Serverless Tools und Technologien (OpenFAAS / Sideras / Cloud Functions / Cloud Build / Cloud Run)

Technologieerfahrung
Configuration Management / Software Languages
  • Ansible, Puppet, Hiera, Ruby, GoLang, Python, C
  • Git, SVN, CVS, Mercurial / Jenkins / SBT / Maven, Kaniko, Crane
  • PL/SQL, Shell scripting, BASH, YAML, Hashicorp HCL2

Development / Software Lifecycle Support
  • ITIL / Change Management / Remedy Ticketing
  • Eclipse, IntelIiJ IDEA, PyCharm, GoLand
  • Bitbucket / GitHub / Gitlab / JIRA / Confluence

Cloud & Operating Systems
  • AWS, Azure, Google Cloud (GCP), RedHat Cloud, VMware VIO
  • Docker, Swarm, Kubernetes (GKE / EKS), OpenStack, OpenShift
  • Red Hat Enterprise Linux (RHEL) System Administrator / Centos, Debian

Storage / Reporting / Big Data
  • Hadoop MAPR 5 / 6, HDFS, Spark 1.6 / 2.x, PySPARK
  • SQL: MySQL, Oracle RDBMS, Postgres
  • Elastic Search, ELK, Kibana, MongoDB, ETL.

Hashicorp Tools
  • Terraform, Consul, Vault, YAML, HCL2

Visualisation
  • Grafana, InfluxDB, Prometheus, Splunk, Kibana

Betriebssysteme

Consul
Docker
GCE
k8s
Openshift
Openstack
RedHat Linux certified SysAdmin
Vault
VIO
VMWare

Programmiersprachen

Ansible
BASH
C/C++
Go
Go-Developer
GoLang
Java
JSON
PL/SQL
Python
Ruby
Scala
Shell scripting

Datenbanken

Hadoop MAPR 5 / 6
HDFS
Spark 1.6 / 2.x
SQL
MySQL, Oracle RDBMS, Postgres
Elastic Search
ELK
Kibana
MongoDB
ETL

Datenkommunikation

DSL

Design / Entwicklung / Konstruktion

CI/CD
Configuration
GITLAB
Hashicorp Config Language
HCL

Branchen

Branchen

Telecoms

Travel & Logistics

Insurance

Financial Services

Einsatzorte

Einsatzorte

Düsseldorf (+50km)
Deutschland
möglich

Projekte

Projekte

1 Jahr 9 Monate
2022-10 - 2024-06

Azure Automation for DBaaS

Platform Engineer / DBaaS Team
Platform Engineer / DBaaS Team
DevOps-Automatisierungsexperte, der in der Datenbankgruppe des Platform Engineering-Teams bei Amadeus an der Entwicklung der Automatisierungstools zur Migration aktueller SQL-Datenbanken (MariaDB/Oracle/SQL Server) vom vorhandenen Rechenzentrum in die Azure Cloud von Microsoft arbeitet.

Ich habe an der TLS-Implementierung der MariaDB-Architektur bei Amadeus gearbeitet und Ansible-Playbooks und -Rollen erstellt, um bei Bedarf TLS-Zertifikate für den entsprechenden MariaDB-basierten Cluster (der den ProxySQL-Cluster und Orchestrator in OpenShift und Prometheus Exporters umfasste) mit der Enterprise Certificate Authority bei Amadeus (Venafi) zu erstellen und sie als Teil der MariaDB-Clustererstellung in Azure sowie in Hybrid-Cloud-Architekturen (rechenzentrumsübergreifend ? Azure) bereitzustellen. Dies wurde auch in einen sicheren Speichermechanismus für die neuen und vorhandenen Zertifikate mit einem Pull-on-Demand-Modell basierend auf CyberArk Safes und Azure Key Vaults integriert, die als Zertifikats-Repository fungieren.

Ich habe auch an der Ansible-basierten Automatisierung des MariaDB-Backup- und Wiederherstellungssystems gearbeitet, um physische Backups der aktuell laufenden Datenbank zu erstellen und sie mithilfe der Percona-Toolsuite als versionierte Azure Storage Container in Azure Blob Storage zu streamen. Dieses Backup auf Anfrage wurde auch in STRG-M integriert, um das Auslösen und Verwalten täglicher Backups zu ermöglichen.

Die gesamte Arbeit wurde in den Amadeus Automation-Workflow mit BitBucket und Jenkins-basiertem CI-CD integriert und mit SonarQube sowie Unit-Tests der Ansible-Rollen mit Molecule integriert. Die endgültigen erstellten Artefakte wurden an JFrog Artifactory gesendet. Die endgültige Bereitstellung erfolgte über Release Management in Jenkins unter Verwendung von Versions-Tags an einen AWX-Servercluster, der mit Ansible in der entsprechenden Azure-Umgebung bereitgestellt wurde.
Artifactory Python Go Java Prometheus OpenShift Kubernetes Azure MariaDB MySQL MySQL Cluster Backup/Storage Linux Docker Terraform
Amadeus
Erding
1 Jahr 5 Monate
2021-04 - 2022-08

SAP DITA GCP Migration Project (Finanz / Cloud Migration)

Cloud & DevOps Expert Java Groovy GoLang ...
Cloud & DevOps Expert

Cloud- und DevOps-Experte, der in einem Team von Plattform- und Produktspezialisten an der Migration eines großen internen DITA-basierten Dokumentenveröffentlichungssystems arbeitete, das Millionen von html-, pdf-, chm- und anderen Dokumenttypen für die meisten SAP-Geschäftsbereiche verarbeitet. Dieses System wurde umgestaltet, um in ein kleineres, bedarfsorientiertes, cloudbasiertes Microservice-Modell zu passen, das serverlose Technologien verwendet.

Entwurf und Implementierung einer GitOps-Strategie auf der Grundlage eines neuen generischen, modularen CI/CD-Pipeline-Frameworks, das eine wiederverwendbare, gemeinsam genutzte Bibliothek (basierend auf GitHub Enterprise, Jenkins-as-a-Service, Hashicorp Vault, Artifactory) und einer Reihe von REST-API-Diensten von Drittanbietern (SAP Piperlib / HadoLint / SonarQube / BlackDuck / WhiteCross / Fortify / usw.), um eine Reihe von Microservices (Docker-Komponenten auf der Basis von Python / Go-Lang / Java) zu erstellen und sie in verschiedenen Cloud-Umgebungen (GCP / SAP Sideras / usw.) mit Terraform zu aktualisieren und Kanalaktualisierungsbenachrichtigungen in Microsoft Teams zu integrieren, um Build-Fortschritte,

Validierungen und Fehler hervorzuheben. Außerdem unterstützte er das Entwicklungsteam bei SQLbezogenen Client- und Serverproblemen (Postgres / MariaDB / etc.).

Aktive Mitarbeit in Schlüsselbereichen des Projekts wie Cloud Architecture Design, Monitoring, Disaster Recovery, Skalierbarkeit, sowie Sicherheitskonzepte (Least Priv., CAM-Rollen, etc).

Design und Implementierung von CI/CD-Build-Fortschritten, Validierung und Fehlern sowie verschiedener Go-Lang basierter serverloser Funktionen in die SAP Sideras OpenFAAS on k8s Cloud für den Einsatz im Projekt.

IXIASOFT Docker Google Cloud Platform Serverless Jenkins Terraform Prometheus Grafana Google BigTable Fortify WhiteSource BlackDuck Hashicorp Vault OpenFAAS SAP PiperLib HadoLint SonarQube K8S Artifactory Google Container Registry Google Artifact Registry Postgres DB Google Cloud Build Google Cloud Run GitOps SAP Sideras GitHub Enterprise Git
Java Groovy GoLang Python Docker REST Bourne-again-shell Shell-Script OpenFAAS Monitoringsysteme Security Konzepte CI/CD K8S Google Artifact Registry Google Container Registry PostgreSQL Google Cloud Build Google Cloud Run GitOps Git GitHub Enterprise WebHooks
SAP
4 Monate
2021-01 - 2021-04

BMW Global API Management Project.

Architect / DevOps Lead CI/CD Java Python ...
Architect / DevOps Lead

Arbeitete in einem kleinen Team von Plattform- und Produktspezialisten, um eine detaillierte Analyse der aktuellen Architektur für das Global API Management Portal (APIM) bei BMW zu erstellen und verschiedene Vorschläge für die Migration von Teilen der aktuellen API-Management-Plattform sowie des aktuellen Build-Systems zu einer neueren Microservices-basierten Architektur zu erarbeiten.

Die derzeitige Plattformlösung besteht aus APIGEE und verschiedenen Cloud-basierten Komponenten wie OpenShift + Helm und enthält verschiedene stark angepasste Docker-isierte Instanzen von ForgeRock IDM + Prometheus + Grafana + kundenspezifische Java- und TypeScript-basierte Anwendungen.

Zu den detaillierten Vorschlägen gehörten die Anpassung der Architektur zur  Beseitigung von Engpässen und zur Erhöhung der Hochverfügbarkeit, der Stabilität und des Gesamtdurchsatzes in allen Umgebungen sowie Vorschläge zur Verbesserung der aktuellen Sicherheitspraktiken innerhalb des Build-Systems und Vorschläge zur Migration des aktuellen Jenkins-basierten Build-Systems / OpenShift Container Registry auf  eine Azure DevOps-basierte Toolchain und Azure  Container

OpenShift ForgeRock Java Python APIGEE Prometheus Grafana Helm K8S Azure RHEL-Administration Red Hat Enterprise Linux RPM Docker
CI/CD Java Python Javascript OpenShift ForgeRock IAM Prometheus Grafana Azure Applikationsarchitektur RHEL-Administration Red Hat Enterprise Linux RPM Docker
BMW
8 Monate
2020-04 - 2020-11

SIEM Project - QRADAR Integration

DevOps Engineer CI/CD GoLang Agile Entwicklung ...
DevOps Engineer

Als Teil des SIEM-Teams und der laufenden Qualitätskontroll- und Softwareverbesserungsprozesse habe ich einen PoC für externe Support-Tools für QRADAR entwickelt, um eine kontinuierliche Versionierung von Teilen des Benutzerdatenmodells innerhalb von QRADAR zu ermöglichen (derzeit 

nicht in der Standardarchitektur von QRADAR vorhanden). Ich entwarf und implementierte eine domänenspezifische Konfigurationssprache (DSL) und implementierte einen Parser in GoLang auf der Grundlage der HCL2-Spezifikation (wie sie in Terraform von Hashicorp verwendet wird). Diese DSL wurde verwendet, um QRADARs benutzerdefinierte Ereigniseigenschaften (CEP), Protokollquellen und andere verschiedene QRADAR-Datentypen innerhalb eines Software-Proxy-Blocks, der mit der QRADAR-RESTAPI verbunden war, von der DSL in JSON und wieder zurück zu übertragen. Außerdem richtete ich eine Umgebung ein, die aus einer kleinen QRADAR-Instanz und einer GitLab-Instanz bestand, und entwickelte und implementierte eine CI/CD-Pipeline auf der Grundlage von GitLabRunnern, die Build-Sequenzen mit Docker auslösten, um den GoLang-Code, Build- und Ausführungssequenzen für dieses Projekt zu validieren.

IBM QRadar Security Intelligence Platform QRadar QRadar Security Intelligence Platform SIEM Git GITLAB Go Go-Developer HCL Hashicorp Config Language JSON REST Configurationmanagement
CI/CD GoLang Agile Entwicklung DSL Configuration REST QRadar SIEM Git GITLAB
VW Financial Services AG
Braunschweig
4 Monate
2019-09 - 2019-12

Business SLA Monitoring Project

Software Architect / BackEnd Dev / DevOps
Software Architect / BackEnd Dev / DevOps

Architektur, Design und Implementierung eines Proof of Concept für ein Cloud-basiertes MonitoringSubsystem, das in nahezu Echtzeit die kontinuierlicheTransaktionskonformität zu den Business SLA's für eine private Cloud-basierte Anwendung mitexternen Service-Abhängigkeiten.

Das Projekt erforderte die Analyse und Integration verschiedener Überwachungstechnologien (InfluxDB / CassandraDB / Prometheus / TimeScaleDB). Jede dieser Technologien wurde in eineBeispielversion der SCALA-Anwendung des Kunden unter Verwendung von Java und SCALA-APIsintegriert und mit der GitLab CI/CD-Build-Pipeline des Kunden erstellt. Kundenspezifische Dashboardswurden erstellt und für den Kunden angepasst. Die Vor- und Nachteile jeder Technologie wurdendem Kunden zusammen mit Beispieldaten aus Dashboards präsentiert. Auf der Grundlage einerabschließenden Präsentation für den Kunden wurde eine maßgeschneiderte Lösung unterVerwendung von TimeScale implementiert und weitere JAVA- und SCALA-Code-Verfeinerungenwurden in die endgültige Anwendung des Kunden integriert und unterVerwendungskalierbarerDocker-Container für jede der Scala-Anwendungen, Grafana,TimeScale-/Postgres-Instanzenbereitgestellt und schließlich in ihrer Docker-basierten Private Cloud bereitgestellt und mit echtenDaten getestet

BITMARCK Software GmbH, Essen
9 Monate
2018-11 - 2019-07

Sentinel Private Cloud Migration Project

Senior Back End Dev / Ops
Senior Back End Dev / Ops

Ich arbeitete in agilen Teams an der Entwicklung neuer Protokoll- und Ereignisexporteure für Metriken auf Anwendungsebene (funktional und nicht funktional) als Teil der Migration des internen, rechenzentrumsweiten Legacy-Monitoring- und Alarmsystems (Sentinel) zu einem cloudbasierten Monitoring-as-a-Service-Konzept (MaaS), das auf einer Microservices-Architektur basiert und Prometheus, Thanos und Grafana nutzt, die alle in Kubernetes und OpenShift in einer On-Premise Private Cloud laufen. Ich habe mir auch alternative Proof-of-Concepts angesehen, die leichtere Lösungen mit geringerer Bandbreite für die Datenerfassung im Rechenzentrum darstellen und alternative Architekturen und Technologien wie die Datenaggregation und -speicherung mit MySQL sowie die Datenerfassung an lokalen Knoten mit FluentBit und die zentralisierte Protokollverarbeitung mit FluentD in Kubernetes- und OpenShift-basierten Systemen nutzen.

  • Erstellung eines benutzerdefinierten GoLang-Client-Codes zur Extraktion von Daten aus der SPLUNK REST-Schnittstelle / Transformation / Übergabe an Prometheus (selbst entwickelte ETL)
  • Erstellung einer Dockerisierungs- und Unit-Test-Schicht für die Exporter, Integration in das CI/CD-Build-System und Auslieferung an OpenShift
  • Erstellung von Grafana-Beispiel-Dashboards innerhalb von OpenShift, um zu testen, ob die Prometheus-Metriken gültig sind
  • Unterstützung und Erstellung von Proof-of-Concepts für mögliche Cloud-Migrationsprojekte mit Kubernetes (Machbarkeitsstudien) für verschiedene Amadeus Public Cloud-Projekte, die auf die Google Cloud abzielen (S-Box / X-Box), durch Migration der ACS-Projektskripte mit Terraform, Ansible usw. und einschließlich logbasierter Überwachung und Ereignisextraktion mit FluentBit und FluentD
  • Bereitstellung von Funktionsaktualisierungen und Software-Wartung für bereits erstellte Werkzeuge (z. B. ULF-CLI-Tool auf Basis von PySPARK, Python, SCALA, usw.), das Schlüsselparameter vom Benutzer akzeptierte (Start-/Enddatum und Abfrageparameterfelder), die dann verwendet wurden, um Abfragen (mit py-spark) an einen Spark-Cluster zu richten, der mit einem MAPR-Cluster (HADOOP) verbunden war, der nahezu in Echtzeit mit neuen Anwendungsprotokolldaten mit anonymisierten kommerziellen Transaktionen/Buchungen aktualisiert wurde, die schließlich eine Teilmenge der Transaktionsdaten zurückgaben, die durch die vom Endbenutzer gestellten Abfragen gefiltert wurden (in der Regel Entwickler/Betriebsspezialisten, um Anwendungsinkonsistenzen zu diagnostizieren und Transaktionsprobleme zu verfolgen).

Amadeus Data Processing GmbH, Erding
1 Jahr 1 Monat
2017-11 - 2018-11

Cloud Migration & Airline Customer Dashboard

Senior Back End Dev / Ops
Senior Back End Dev / Ops

Implementierung neuer Funktionen im Airline-Dashboard-Projekt innerhalb eines agilen Teams, das benutzerdefinierte Inhouse-ETL entwickelt (Implementierung von Datenkollektoren in Python zur Extraktion, Aggregation, Bereinigung und Transformation von Daten), um bereinigte Datenansichten für Business Intelligence-Teams in einem anpassbaren Dashboard für Endkunden-Fluggesellschaften wie AirFrance und Lufthansa usw. bereitzustellen. Außerdem leistete er Cloud-Support für CloudMigrationsprojekte auf der Grundlage der Referenzarchitektur von Amadeus Cloud Services.

  • Entwicklung neuer Docker-Komponenten unter Verwendung von Python und GoLang als Schnittstelle zu älteren Flugbuchungssystemen über REST-APIs
  • Entwicklung von Mikro-Batching-Techniken (1-Minuten-Fenster) zur Extraktion von Details aus Fluggastdatensätzen (PNR): AirlineIDs &3rd party office ID 's etc. und reaggregiert diese, um neue Zeitreihen e2e Überwachungsansichten von Systemen zu generieren, die über REST & Grafana zugänglich sind.
  • Entwicklung von benutzerdefinierten Metrik-Exportern in Python, die eine Schnittstelle zu BI-Systemen bilden, die ELK verwenden und Elastic Queries ausführen
  • Aggregiert und umformatiert und über REST zugänglich gemacht und die Ergebnisse Prometheus scrape-fähig gemacht.
  • Hinzufügen von Optionen mit MySQL, um lokale Speicherung und Anomalieanalyse (Backtesting) über SQL-Abfragen zu ermöglichen
  • Erstellung von Beispiel-Dashboards in Grafana, um zu testen, dass die Prometheus-Metriken verfügbar sind.
  • Schreiben eines Proof of Concept, um Daten aus SPLUNK zu extrahieren und diese so umzuwandeln, dass sie mit Prometheus gescrapt werden können.
  • Unterstützung bei der Cloud-Migration zu anderen Amadeus Private Cloud-Projekten, die auf RedHat Private Cloud (R-Box) abzielen, durch Migration der ACS-Projektskripte mit Terraform, Ansible usw.
  • Bereitstellung von Funktions-Updates und Software-Wartung der zuvor erstellten Tools (z.B. ULF-CLI-Tool auf Basis von PySPARK, Python, SCALA, etc.)
Amadeus Data Processing GmbH, Erding
2 Jahre 3 Monate
2015-09 - 2017-11

Cloud Project

Senior Back End DevOps / Big Data
Senior Back End DevOps / Big Data

Architektur und Implementierung einer auf Microservices basierenden Cloud-Monitoring-Lösung für einen E-Commerce-Geschäftsbereich innerhalb der privaten Cloud von Amadeus Cloud Services (ACS) für die Backend-E-Commerce-Buchungsmaschine der Buchungswebsite der Inter-Continental Hotel Group (IHG). Die vorgeschlagene High-Level-Lösung basierte auf der Netflix Lambda-Architektur, wurde jedoch stark modifiziert, um auf VMware / OpenStack / OpenShift zu laufen und Java-basierte Middleware, Kafka Broker Cluster, Apache Spark Cluster (mit PySPARK), Zookeeper, Diamond, InfluxDB, Grafana, MapR und FluentD zusammen mit Docker, Puppet & Hiera zu nutzen

  • Implementierung eines CI/CD-Build-Systems auf der Grundlage einer Implementierung von Jenkins mit benutzerdefinierten mehrstufigen Builds / BitBucket / SonarQube.
  • Verwendung von Terraform zum Erstellen und Aktualisieren des MVP-Clusters von VMs innerhalb von OpenStack und zum Auffüllen mit Docker-Images aus Artifactory.
  • Teile des Monitoring-Workflows mit GoLang, Python, JAVA und DockerFiles und Build-Tools (Maven / Makefiles) codiert und gewartet, um Komponenten wie Diamond / FluentD / Kafka/ Influx / Grafana und IAM / LDAP-Clients in einer Lambda-Architektur zusammen mit UnitTests in einer lokalen Umgebung zu bauen und zu verpacken, bereitzustellen undauszuführen (Entwicklung bis zur Produktion).
  • Big Data: Entwicklung von benutzerdefiniertem Inhouse-Tooling (ULF-CLI) in Python und SCALA (PySPARK-Client) innerhalb des MapR HADOOP-Clusters, um eine parallelisierte Suche nach Anwendungsereignissen in Terabytes von Daten innerhalb von AVRO-kodierten Dateien im MapR HDFS-Repository zu ermöglichen, basierend auf vom Benutzer bereitgestellten Regex und Zeitmustern.
  • Entwicklung eines automatisierten Bereinigungstools in SCALA, um die optimale Datenmenge im HDFS zu erhalten, bevor die HDFS-Bereinigung ausgelöst wird.
  • Zusammenarbeit mit QA-Teams, Anwendungsteams und SRE-Teams zum Testen und Bereitstellen von Updates und Patches in verschiedenen Umgebungen.
  • Bereitstellung von Echtzeit-Hilfe und Support für 1st & 2nd Level Support Teams mit dem Überwachungssystem nach dem Go-Live.
IHG Group
5 Monate
2015-03 - 2015-07

Consumer Channels Dev-Ops Team

Tech Lead/ Application Manager
Tech Lead/ Application Manager

Technical Application Manager - Verantwortlich für eine Reihe von Agile-Projekten innerhalb der Consumer Channels-Abteilung von Vodafone GA:

  • Bereitstellung von technischem Support auf allen Ebenen des SW- und HW-Stacks für das gesamte Projektportfolio für die Geschäftsbereiche von Vodafone in den verschiedenen Phasen des Projektlebenszyklus, von der Architekturentwurfsphase über den UmgebungsRollout und die Produktion bis hin zum Go-Live und der SLA-Definition und -Implementierung sowie dem SLA-Reporting und Dashboarding unter Verwendung von Python und MySQL.


Vodafone GA, Ratingen
6 Monate
2014-10 - 2015-03

Pharmaceutical Project

Deployment Architect
Deployment Architect

Arbeitete innerhalb eines kleinen agilen DevOps-Teams an der Architektur, dem Design und der Implementierung einer automatisierten "On-Demand"-Umgebung für ein deutsches Regierungsprojekt zur Arzneimittelbewertung (AMNOG). Die Lösung basierte auf einer hochsicheren Version des Dokumentenmanagement-Stacks von Oracle (Apache / Weblogic / Web Center / Web Center Portal, Oracle RDBMS, LDAP & IAM) und erforderte eine End-to-End-TLSSicherheitsimplementierung über alle Schichten des Anwendungsstacks. Erstellung von Überwachungs- und Tooling-Ergänzungen mit BASH- und Python-Skripten und AWK, MySQL, Graphite

Materna GmbH, Dortmund
1 Jahr 9 Monate
2013-01 - 2014-09

SEPAHUB Project

Tech Lead Dev-Ops/ Application Manager
Tech Lead Dev-Ops/ Application Manager

Einführung und Rollout des SEPAHUB-Clearingsystems für Finanzzahlungen in allen VodafoneBetriebsgesellschaften in Europa. Einschließlich Multi-Umgebungs-Setup, automatisiertes Maschinen-Setup für alle RHEL Linux-VMs; Konfigurationsmanagement mit Puppet und RH Satellite Server; Automatisierung von Paketprüfungen mit Ansible; End-to-End-Smoke-Tests usw. und Bereitstellung von 3rd-Level-Support für die SEPAHUB-Produktionsbetriebsteams. Erstellung von Überwachungs- und Tooling-Ergänzungen mit BASH- und Python-Skripten und AWK, MySQL, Graphite

Vodafone GA-Online, Dusseldorf
11 Monate
2012-02 - 2012-12

Germany Online Shop Project

Deployment Architect
Deployment Architect
  • Definition und Implementierung einer Roadmap für alle neuen Bereitstellungsprozesse im Projekt, um einen CI/CD-Ansatz für alle Rollouts zu implementieren.
  • Fehlerbehebung bei leistungs- und stabilitätsbezogenen Anwendungs- und Systemproblemen während der Abnahmetestphasen.
  • Bereitstellung von Deployment Support für weltweit verteilte Teams für ATG Commerce, Oracle, WebLogic, Solaris, Apache, IAM & LDAP.
  • Architekturdesign-Unterstützung für die geplante SEPA paneuropäische Bankenintegration im Jahr 2014 des Vodafone Deutschland Online Shop Projekts.
  • Systemadministration von Solaris und RHEL basierten Systemen für verschiedene Test- und Prod-Umgebungen.
  • Erstellung von Monitoring- und Tooling-Ergänzungen mit BASH & Python Scripting & AWK, MySQL, Graphite.
Infosys, Dusseldorf
3 Jahre 7 Monate
2007-10 - 2011-04

Mobile Portals

Team Lead/ Performance Specialist
Team Lead/ Performance Specialist

Vodafone Live! & MyWeb: Operations Team Lead & Single Point of Contact for Deployment & Integration activities - verantwortlich für ein Team von 5 Agile-Spezialisten, die für die Wartung der Kernapplikations-Stacks verantwortlich waren, um einen 24x7 Service für 5 verschiedene Vodafone Live! Länderportale bereitzustellen. Analyse und Implementierung von Leistungs- und Stabilitätsverbesserungen für alle Komponenten der Live!-Portalarchitektur auf den Produktionssystemen. Unterstützung beim Migrationsplan und der Implementierung der Migration der Benutzer auf die MyWeb-Plattform. Erstellung von Überwachungswerkzeugen, die BASH- und Python-Skripte sowie AW K, MySQL und Graphite ergänzen.

Core Enablers Team: Bereitstellung von Konfigurations-, Bereitstellungs-, Integrations- und Debugging-Support für Apache- und komplexe Java-basierte Webanwendungen in den Produktionsund Vorproduktions-Event-Rating-Systemen (Vodafone Global Billing- und Mediationssysteme) für alle Opcos

Vodafone
1 Jahr 4 Monate
2006-04 - 2007-07

Content Management / Portal

Web Analytics Specialist
Web Analytics Specialist

Content Management / Portal / Web Analytics vor Ort Spezialist für Vignette, CoreMedia und Weblogic. Zu den Kunden zählen Telecom Italia Mobile, ValueTeam, Hamburg.de, Sal Oppenheim Privatbank, Vodafone (EITO), T-Mobile (KIWI), T-Systems, Autostadt

Tallence, Hamburg
9 Monate
2005-07 - 2006-03

Deployment, Configuration, Integration, Profiling and Debugging

Deployment Specialist ATG (now Oracle)
Deployment Specialist ATG (now Oracle)

Bereitstellung, Konfiguration, Integration, Profiling und Debugging von ATG Dynamo Application Server, ATG Search (Primus Kjetztledge Solutions), ATG Portal, ATG Publishing, ATG Commerce usw. in der gesamten EMEA-Region für Kunden (DGI (französische Steuerbehörde), MAIF, Groupama, AGF, France Telecom, Orange, Masterfoods / Mars, Premier Farnell, DNB Bank, Louis Vuitton usw.)

Reading, UK
6 Monate
2005-01 - 2005-06

Analysis of the VISTA in order to improve system stability, performance and scalability

Analysis of the VISTA (Vodafone Intranet system) in order to improve system stability, performance and scalability via a series of workshops, code & architectural reviews looking at the utilisation of Weblogic and Vignette.

Vodafone, Malaga (Spain)/ Ratingen (Germany)
3 Monate
2004-10 - 2004-12

Content Management

Content Management Specialist
Content Management Specialist

On site architectural performance and scalability reviews of the CMS in use Daimler Chrysler (Stuttgart) and T-Mobile (Bonn). 

Tallence, Hamburg (Germany)
1 Jahr 4 Monate
2003-07 - 2004-10

Analyzing, troubleshooting and optimizing

Project Manager/ Technical Architect
Project Manager/ Technical Architect

Analyzing, troubleshooting and optimizing the ALLTIM intranet portal and its subsidiary Weblogic systems.

Leading a team of 5 developers to design and implement the RPDA (Report Piani Di Azione) project for TIM, using Weblogic, Vignette V7 and 3rd party software in order to visualise the state of any project that is active displaying GANTT charts, etc.

Telecom Italia Mobile (Italy)
6 Monate
2003-01 - 2003-06

Integrating and Configuring for VISTA intranet portal

Integration Specialist
Integration Specialist

Integrating and Configuring Vignette, Epicentric, Weblogic, Volantis, Oracle, and Sun for Vodafone VISTA intranet portal. 

Vodafone Germany

Aus- und Weiterbildung

Aus- und Weiterbildung

1990 - 1994
Elektroingenieurwesen
University, Newcastle upon Tyne (UK)

Kurse und Zertifizierungen
07/2011
Red Hat System Administrator Certification

08/2011
Red Hat System Engineer Course

09/2011

  • Oracle Solaris 10 System Administration Course
  • Oracle10 OCP Course

02/2012
  • Red Hat System Engineer Exam.
  • Oracle Solaris 10 System Administration Exam.

Position

Position

Freelance IT Consultant / Cloud & Dev-Ops 

Kompetenzen

Kompetenzen

Top-Skills

ACS Cloud Dev-Ops Scala Kafka J2EE Troubleshooting Grafana Apache Hadoop Docker InfluxDB OpenShift RedHat Enterprise Linux Admin Splunk Elastic Search Python Kubernetes

Produkte / Standards / Erfahrungen / Methoden

Agile Entwicklung
Configurationmanagement
Git
IBM QRadar Security Intelligence Platform
QRadar
QRadar Security Intelligence Platform
REST
SIEM

Profil

  • In den letzten Jahren (2015 - 2024) habe ich in verschiedenen Cloud-Projekten an der Architektur, Implementierung und Fehlerbehebung von On-Premise- und Public-Cloud-Lösungen für hochvolumige transaktionale Anwendungsstacks gearbeitet. Ich habe auch CI/CD-Systeme mit Jenkins und GitLab entworfen und implementiert, um skalierbare Microservice-basierte Komponenten zu erstellen, die für die Cloud geeignet sind (GCP / AWS / Azure / Sideras / OpenFAAS).
  • Ich habe auch umfangreiche Erfahrung in der Einrichtung von Überwachungssystemen, die bei der Fehlersuche und Visualisierung von Datenflüssen helfen und Indikatoren für die Verfügbarkeit von Diensten und die Stabilität von Anwendungen liefern.
  • Vor 2015 habe ich mehr als 15 Jahre als freiberuflicher IT-Berater in DevOps / SRE-bezogenen Bereichen in der Telekommunikationsbranche in der EMEA-Region gearbeitet.


Fachlicher Schwerpunkt: Cloud & DevOps Experte

  • über 25 Jahre Erfahrung in der Entwicklung, Implementierung, Bereitstellung und Skalierung komplexer IT-Lösungen für große Unternehmen.
  • über 5 Jahre Erfahrung in der Implementierung von On-Premise & Public / Multi Cloud basierten Architekturen mit Kubernetes / OpenShift / OpenStack.
  • mehr als 10 Jahre Erfahrung in der Automatisierung der Infrastrukturbereitstellung (VMs und Anwendungsstacks) mit Tools wie Puppet, Ansible und Python.
  • über 10 Jahre Erfahrung in der Arbeit in Teams mit Prozessmodellen wie Agile, Kanban & Scrum und der Atlassian Toolsuite (Jira etc).
  • mehr als 10 Jahre Erfahrung im Management von Rollouts von Kundenanwendungen in der Produktion (monolithische und verteilte Microservice-Architekturen).
  • mehr als 10 Jahre Erfahrung in der Erweiterung und Anpassung von JAVA-/Python-/GoLang-basierten Legacy-Anwendungen in Microservice-basierten Architekturen.
  • über 5 Jahre Erfahrung in der Implementierung von "Infrastructure as a Code" (IaaC) mit Tools von Hashicorp (Terraform, Vault, Consul)
  • mehr als 5 Jahre Erfahrung in der Einrichtung von VPC's in einer Cloud-Umgebung mit Terraform / Docker / Pods / Kubernetes / OpenShift und VM's.
  • mehr als 5 Jahre Erfahrung in der Implementierung und Nutzung von Kafka Message Broker Clustern (inkl. MirrorMaker / KStreams) in Kubernetes.
  • Umfangreiche Erfahrung bei der Fehlersuche und -behebung von Apache Kafka Clustern im Zusammenhang mit ZooKeeper / Leader Election Problemen in VM 's.
  • Erfahrung in der Entwicklung von Kafka-Testclients mit Python und GoLang-basierten APIs zum Testen und Verfolgen des Kafka-Nachrichtendurchsatzes.
  • Erfahrung in der Architektur und Entwicklung kundenspezifischer ETL-Pipelines mit Python, PySPARK und GO-Lang für die Datenextraktion für BI-Teams.
  • Erfahrung in der Implementierung von CI/CD-Pipelines - Einrichtung und Konfiguration von Jenkins und GitLab zum Erstellen, Testen, Markieren und Speichern von Artefakten in Repos.
  • Erfahrung in der Entwicklung von CI/CD-Pipelines zur Erstellung und Befüllung von Cloud-Umgebungen mit Terraform, Artifactory, Ansible, Puppet, Hiera, BitBucket.
  • Erfahrung in der Konzeption und Implementierung von M-a-a-S-Monitoring-Systemen für funktionale/nicht funktionale Anforderungen für Anwendungsstapel.
  • Erfahrung in der Implementierung von benutzerdefinierten Dashboards für Überwachungssysteme für Anwendungsstacks basierend auf Grafana / Elastic ELK / Splunk.
  • Erfahrung in der Migration von Legacy Data Centre Monitoring Systemen zu Cloud-basiertem Monitoring-as-a-Service unter Verwendung von Prometheus und Thanos.
  • Erfahrung in der Implementierung und Nutzung von Zeitserien-Überwachungstechnologien wie Prometheus, Thanos, Influx, Timescale und Grafana
  • Erfahrung im Umgang mit komplexen Anwendungsdatenformaten: PNR, AVRO, XML, JSON, YAML, HCL.
  • Erfahrung im Umgang mit Elastic (ELK) & SPLUNK - Dashboard-Erstellung sowie GoLang & Python API's zur Datenextraktion etc.
  • Erfahrung mit ITIL / Change Management Systemen und Remedy Ticketing Systemen.
  • Erfahrung mit Serverless Tools und Technologien (OpenFAAS / Sideras / Cloud Functions / Cloud Build / Cloud Run)

Technologieerfahrung
Configuration Management / Software Languages
  • Ansible, Puppet, Hiera, Ruby, GoLang, Python, C
  • Git, SVN, CVS, Mercurial / Jenkins / SBT / Maven, Kaniko, Crane
  • PL/SQL, Shell scripting, BASH, YAML, Hashicorp HCL2

Development / Software Lifecycle Support
  • ITIL / Change Management / Remedy Ticketing
  • Eclipse, IntelIiJ IDEA, PyCharm, GoLand
  • Bitbucket / GitHub / Gitlab / JIRA / Confluence

Cloud & Operating Systems
  • AWS, Azure, Google Cloud (GCP), RedHat Cloud, VMware VIO
  • Docker, Swarm, Kubernetes (GKE / EKS), OpenStack, OpenShift
  • Red Hat Enterprise Linux (RHEL) System Administrator / Centos, Debian

Storage / Reporting / Big Data
  • Hadoop MAPR 5 / 6, HDFS, Spark 1.6 / 2.x, PySPARK
  • SQL: MySQL, Oracle RDBMS, Postgres
  • Elastic Search, ELK, Kibana, MongoDB, ETL.

Hashicorp Tools
  • Terraform, Consul, Vault, YAML, HCL2

Visualisation
  • Grafana, InfluxDB, Prometheus, Splunk, Kibana

Betriebssysteme

Consul
Docker
GCE
k8s
Openshift
Openstack
RedHat Linux certified SysAdmin
Vault
VIO
VMWare

Programmiersprachen

Ansible
BASH
C/C++
Go
Go-Developer
GoLang
Java
JSON
PL/SQL
Python
Ruby
Scala
Shell scripting

Datenbanken

Hadoop MAPR 5 / 6
HDFS
Spark 1.6 / 2.x
SQL
MySQL, Oracle RDBMS, Postgres
Elastic Search
ELK
Kibana
MongoDB
ETL

Datenkommunikation

DSL

Design / Entwicklung / Konstruktion

CI/CD
Configuration
GITLAB
Hashicorp Config Language
HCL

Branchen

Branchen

Telecoms

Travel & Logistics

Insurance

Financial Services

Vertrauen Sie auf Randstad

Im Bereich Freelancing
Im Bereich Arbeitnehmerüberlassung / Personalvermittlung

Fragen?

Rufen Sie uns an +49 89 500316-300 oder schreiben Sie uns:

Das Freelancer-Portal

Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.