Entwicklung und Weiterentwicklung einer hochperformanten, weltweit verteilten Data Transfer Platform zur automatisierten Übertragung und Transformation von Millionen Datensätzen täglich im regulierten Financial-Umfeld.
Die DTF ist eine Java/Spring Boot-basierte Lösung, deployed auf einem global verteilten Kubernetes-Cluster (OpenShift). Sie wird von UC4 (Workload Automation) per REST-API getriggert und orchestriert komplexe Datenflüsse zwischen heterogenen Quell- und Zielsystemen ? inklusive regelbasierter Transformation via Scripting.
Technische Highlights
Architekturschwerpunkt: Event-Driven Architecture mit geografisch verteilten Worker-Nodes, Compliance-konforme Datenverarbeitung (Datensatz bleibt in Region A, wird nicht in Region X verarbeitet)
Messaging & Integration: JMS mit IBM MQ als zentrales Messaging-Backbone, ergänzt durch Kafka für spezifische Use Cases
Konfigurationsmanagement: Transfer-Regeln (Source ? Transformation ? Target) sind in XML definiert und versioniert in einem Git-Repository; Laufzeit-Abruf der Konfigurationen über eindeutige Transfer-IDs
Persistierung: PostgreSQL mit ORM/JPA in hochverfügbarer Cluster-Konfiguration
Entwicklungsmethodik: 100% Test Driven Development (TDD) ? vollständige Entwicklung ohne Zugriff auf Produktionsdaten oder Debug-Möglichkeiten auf Remote-Systemen; sämtliche Business-Logik und Schnittstellen via JUnit und Citrus testgetrieben implementiert
Observability: OpenTelemetry (Jaeger), Prometheus, Grafana für Monitoring und Distributed Tracing
CI/CD: GitLab CI/CD, ArgoCD (GitOps)
Collaboration: Jira, Confluence, GitLab
Verantwortlichkeiten & Tätigkeiten
Design und Implementierung neuer Transfer-Flows und Business-Rules
Entwicklung und Wartung von Microservices in Java/Spring Boot
Sicherstellung von Resilience, Security und Performance in global verteilten Kubernetes-Umgebungen
Implementierung von Message-driven Architekturen mit IBM MQ und Kafka
Testgetriebene Entwicklung mit vollständiger Testabdeckung (Unit-, Integration-, End-to-End-Tests)
Troubleshooting und Performance-Optimierung in hochverfügbaren, latenz-sensitiven Systemen
Enge Zusammenarbeit mit DevOps, Compliance und Product Ownern zur Umsetzung regulatorischer Anforderungen
Technische Highlights
Monitoring: Grafana für Applikations- und Infrastruktur-Monitoring
Verantwortlichkeiten & Tätigkeiten
Entwicklung und Weiterentwicklung einer hochperformanten, weltweit verteilten Data Transfer Platform zur automatisierten Übertragung und Transformation von Millionen Datensätzen täglich im regulierten Financial-Umfeld.
Die DTF ist eine Java/Spring Boot-basierte Lösung, deployed auf einem global verteilten Kubernetes-Cluster (OpenShift). Sie wird von UC4 (Workload Automation) per REST-API getriggert und orchestriert komplexe Datenflüsse zwischen heterogenen Quell- und Zielsystemen ? inklusive regelbasierter Transformation via Scripting.
Technische Highlights
Architekturschwerpunkt: Event-Driven Architecture mit geografisch verteilten Worker-Nodes, Compliance-konforme Datenverarbeitung (Datensatz bleibt in Region A, wird nicht in Region X verarbeitet)
Messaging & Integration: JMS mit IBM MQ als zentrales Messaging-Backbone, ergänzt durch Kafka für spezifische Use Cases
Konfigurationsmanagement: Transfer-Regeln (Source ? Transformation ? Target) sind in XML definiert und versioniert in einem Git-Repository; Laufzeit-Abruf der Konfigurationen über eindeutige Transfer-IDs
Persistierung: PostgreSQL mit ORM/JPA in hochverfügbarer Cluster-Konfiguration
Entwicklungsmethodik: 100% Test Driven Development (TDD) ? vollständige Entwicklung ohne Zugriff auf Produktionsdaten oder Debug-Möglichkeiten auf Remote-Systemen; sämtliche Business-Logik und Schnittstellen via JUnit und Citrus testgetrieben implementiert
Observability: OpenTelemetry (Jaeger), Prometheus, Grafana für Monitoring und Distributed Tracing
CI/CD: GitLab CI/CD, ArgoCD (GitOps)
Collaboration: Jira, Confluence, GitLab
Verantwortlichkeiten & Tätigkeiten
Design und Implementierung neuer Transfer-Flows und Business-Rules
Entwicklung und Wartung von Microservices in Java/Spring Boot
Sicherstellung von Resilience, Security und Performance in global verteilten Kubernetes-Umgebungen
Implementierung von Message-driven Architekturen mit IBM MQ und Kafka
Testgetriebene Entwicklung mit vollständiger Testabdeckung (Unit-, Integration-, End-to-End-Tests)
Troubleshooting und Performance-Optimierung in hochverfügbaren, latenz-sensitiven Systemen
Enge Zusammenarbeit mit DevOps, Compliance und Product Ownern zur Umsetzung regulatorischer Anforderungen
Technische Highlights
Monitoring: Grafana für Applikations- und Infrastruktur-Monitoring
Verantwortlichkeiten & Tätigkeiten