Automatisierung der Finanzdatenverarbeitung für außländische Börsen
Ich habe für die WM-Gruppe ein Projekt zur Automatisierung der Finanzdatenverarbeitung für Wertpapiere der Börsen entwickelt. Mit Spring Boot, Java, RESTful APIs und Hibernate habe ich Daten über die Börsen-APIs regelmäßig abgerufen und in einer MariaDB gespeichert. Ich nutzte Maven für das Build-Management und Jackson zur JSON Datenverarbeitung. Dadurch wurde die manuelle Arbeit um 15% reduziert und Fehler um 20% minimiert. Mein System verbessert die Datenaktualität erheblich.
Automatisierte ISIN-Datenverwaltung mit interner Web-Oberfläche
Ich habe eine vollständige Lösung zur Verwaltung von ISIN-Daten für Zertifikate und Anleihen entwickelt, die sowohl automatisierte Datenprozesse als auch eine benutzerfreundliche Web-Oberfläche umfasst. Basierend auf Spring Boot und React.js habe ich ein System implementiert, das Mitarbeitern eine intuitive Möglichkeit bietet, ISINs zuzuweisen - inklusive Validierung, Compliance-Prüfung und Audit-Logging.
Die von mir entwickelte RESTful API ermöglicht die nahtlose Integration in bestehende
WM-Systeme, während die interne Web-Anwendung (gesichert durch OAuth2 und
Firmen-SSO) eine effiziente Nutzung direkt im Browser ermöglicht. Ich habe die Lösung mit MariaDB und Hibernate/JPA für maximale Performance umgesetzt und durch
Docker/Kubernetes skalierbar gestaltet.
Meine Implementierung reduziert manuelle Fehler um 30% und verbessert die Datenkonsistenz deutlich. Besonderen Wert habe ich auf Sicherheit gelegt - das System läuft ausschließlich im Firmennetzwerk und protokolliert alle Änderungen lückenlos. Die Architektur erlaubt zudem einfache Erweiterungen für weitere Börsen oder Asset-Klassen.
Ergebnis: Eine robuste, benutzerfreundliche Lösung, die Prozesse beschleunigt und
Compliance-Anforderungen vollständig erfüll.
Entwicklung einer KI-Chat-Lo?sung auf Basis lokaler LLMs fu?r die Mitarbeiter
Ich habe einen Proof of Concept fu?r einen KI-Chatbot entwickelt, der auf einem lokal
betriebenen, von Hugging Face bezogenen und feinabgestimmten Open-Source-LLM basiert.
Dieser Chatbot arbeitet ressourcenschonend ohne Cloud-Anbindung und generiert pra?zise
SQL-Statements, die erst nach Besta?tigung durch den Nutzer ausgefu?hrt werden ? ein
intelligentes "Man-in-the-Middle"-Konzept, das Missversta?ndnisse ausschließt. Fu?r den produktiven Einsatz optimiert, habe ich die Backend-Architektur, Entwicklung und DevOps
verantwortet. Die Lo?sung entlastet Mitarbeiter, indem sie die zeitraubende Suche nach
Datenbankbefehlen u?berflu?ssig macht, und setzt auf Effizienz, Datensouvera?nita?t sowie
moderne Technologien wie LangChain und MariaDB).
Bankweite Datensammlung und -analyse fu?r Software- und Kundeneinfu?hrungen
In diesem Projekt habe ich eine zentrale Plattform zur bankweiten Koordination von Software- und Kundeneinfu?hrungen konzipiert und umgesetzt. Mein Fokus lag darauf, eine einheitliche Datenerfassung und -analyse zu etablieren, um Abha?ngigkeiten von externen Dienstleistern wie Cancom zu reduzieren und einen mo?glichen Wechsel zu erleichtern. Ich entwickelte eine skalierbare Lo?sung, die alle relevanten Systeme, Releases und Kundendaten in Echtzeit aggregiert und visualisiert. Durch den Einsatz von Java, Spring Framework und Kafka baute ich eine robuste Backend-Architektur, wa?hrend ich mit Apache JMeter Lasttests durchfu?hrte, um die Stabilita?t zu gewa?hrleisten. Meine Lo?sung ermo?glichte es, Release-Zyklen transparenter zu gestalten und Engpa?sse fru?hzeitig zu identifizieren. Zudem fu?hrte ich eine YAML-basierte Konfiguration ein, um Anpassungen ohne Code-A?nderungen vornehmen zu ko?nnen. Durch meine Initiative wurden manuelle Prozesse enorm reduziert, und die Bank gewann mehr Kontrolle u?ber ihre IT-Infrastruktur. Das Ergebnis war eine zukunftssichere Plattform, die nicht nur die Ablo?sung externer Dienstleister vereinfachte, sondern auch die Entscheidungsfindung durch datengesteuerte Analysen beschleunigte. Mein Beitrag sicherte eine reibungslose Migration und setzte neue Standards fu?r bankinterne Prozess.
Entwicklung individueller Integrationen fu?r Bankensysteme ? Banking Omnikanal
Ich war dafu?r verantwortlich, die Gescha?ftsanforderungen der Bank technisch umzusetzen. Meine Hauptaufgabe bestand darin, die Integration zwischen verschiedenen Banksystemen zu ermo?glichen, die von unterschiedlichen Entwicklerteams betrieben wurden. Ich habe u?ber 100 Integration-Adapter entwickelt, die als Schnittstelle zwischen den Systemen dienten. Diese Adapter u?bersetzten Datenformate und gewa?hrleisteten die Kommunikation (z. B. zwischen APIs, Datenbanken).
Umsetzung:
- Erstellung von Data Transfer Objects (DTOs) und API-Komponenten basierend auf
vordefinierten XML/JSON-Schemata.
- Anpassung von Softwarekomponenten, um sie in das bestehende Integrations-Framework
einzubinden.
Testen & Auslieferung:
- Vorbereitung von Testdaten und aktive Mitwirkung in Testphasen (z. B. Integrationstests), um
Fehler fru?hzeitig zu erkennen.
- Modularisierte Auslieferung von Komponenten, um eine schrittweise Implementierung in der
Produktionsumgebung zu ermo?glichen.
DevOps & Automatisierung:
- Einbindung von Testautomatisierung in die CI/CD-Pipeline (Continuous Testing), um Qualita?t
und Geschwindigkeit der Releases zu steigern.
Ergebnis: Durch diese strukturierte Vorgehensweise konnten Integrationen effizient umgesetzt
und stabil in der Live-Umgebung betrieben werden.
Weiterentwicklung eines Integrationsframeworks fu?r Banking Omnikanal
In meinem Projekt zur Integration von Bankensystemen lag der Fokus auf der Entwicklung einer zentralen Software-Bibliothek. Diese ermo?glichte es Clientanwendungen, sich nahtlos mit einer unternehmensweiten Integrationsplattform zu verbinden. Das Ziel war, die Teams zu entlasten: Statt individuelle Lo?sungen fu?r die Anbindung zu entwickeln, konnten sie nun einfach vordefinierte Verbindungseinstellungen nutzen.
Eines meiner Kernprojekte in der Integrationsabteilung war die Entwicklung eines Frameworks
zur automatisierten Erstellung von Integrationsadaptern. Da sich durch einheitliche Methoden
und kontinuierliche Optimierung regelma?ßig neue Anforderungen ergaben, musste das
Framework laufend angepasst werden. Typische Anpassungen umfassten:
- Kleinere A?nderungen: Anpassungen der Versionierung oder Benennung.
- Umfangreichere Anpassungen: Strukturelle Anpassungen von Payloads und Headern.
Implementierung neuer Technologien
Ein zentraler Meilenstein war die Einfu?hrung des Kafka-Messaging-Protokolls als Ersatz fu?r
IBM MQ. Zudem habe ich das Framework um JSON-basierte Nachrichtenverarbeitung
erweitert. Dafu?r setzte ich folgende Schwerpunkte:
- Evaluierung von Tools fu?r die effiziente Verarbeitung von JSON-Daten.
- Konvertierung von JSON in Java-Klassen.
- Serialisierung/Deserialisierung von Java-Objekten.
- Validierung von JSON-Nachrichten anhand definierter JSON-Schemata.
Multi-Protocol IoT Sensor Data Collection and Processing System
In diesem Projekt habe ich das Backend eines innovativen Gutschein- und Cashback-Portals
entwickelt und eine skalierbare Architektur mit modernsten Technologien wie Java 21, Kotlin
und Spring Boot entworfen. Durch den Einsatz von Spring Security, Keycloak, OAuth 2.0 und
OpenID Connect habe ich eine sichere Single-Sign-On-Lösung inklusive Social Login realisiert.
Die flexible REST-API ermöglicht nahtlose Erweiterungen und die Integration verschiedener
Cashback-Partner, während Docker, Nginx und SSL/TLS für eine robuste, sichere
Bereitstellung sorgen. Mit Git, GitHub Actions und CI/CD-Pipelines habe ich einen effizienten
Entwicklungsprozess etabliert, der zukunftssichere Anpassungen gewährleistet.
In diesem Projekt habe ich ein verteiltes IoT-System entwickelt, das verschiedene Sensoren über unterschiedliche
Protokolle (TCP/IP und MQTT/UDP) miteinander verbindet. Ich habe einen IoT-Gateway implementiert, der als
zentraler Kommunikationsknoten zwischen Sensoren und Cloud-System dient. Die Cloud-Komponente verarbeitet die
Sensordaten und leitet sie an einen Koordinator weiter, der die Datenverteilung auf zwei Datenbanken verwaltet. Für
die Containerisierung und Orchestrierung habe ich Docker und Docker Compose eingesetzt, während ich MQTT für
die asynchrone Kommunikation zwischen Sensoren und dem Gateway nutzte. Das System ist modular aufgebaut und
ermöglicht eine skalierbare Verarbeitung von Sensordaten in Echtzeit
Pizza-Bestellsystem mit Multi-Rollen-Architektur
Ich habe ein Pizza-Bestellsystem entwickelt, das verschiedene Benutzerrollen (Kunde, Bäcker, Fahrer) unterstützt. Ich
habe eine Datenbankanbindung mit MySQLi implementiert und eine responsive Benutzeroberfläche mit HTML, CSS
und JavaScript erstellt. Das System ermöglicht Kunden das Bestellen von Pizza, Bäckern die Bestellungsverwaltung und
Fahrern die Lieferungsverwaltung. Ich habe AJAX für asynchrone Kommunikation zwischen Frontend und Backend
eingesetzt und eine sichere Authentifizierung implementiert. Die Anwendung folgt dem MVC-Pattern und nutzt
objektorientierte PHP-Programmierung mit Vererbung von einer Basis-Page-Klasse.
Multimedia Billard Tisch
In diesem Projekt habe ich ein innovatives Billard-System entwickelt, das reale Billardkugeln mit digitalen Effekten und
Spielmodi kombiniert. Ich habe ein präzises Tracking-System mit Kinect-Kamera implementiert, das die Position und
Bewegung der Kugeln in Echtzeit erfasst und verarbeitet. Durch die Integration von Unity habe ich eine immersive 3D-
Simulation mit realistischer Physik und verschiedenen Spielmodi (8-Ball, 9-Ball, Trickshot) entwickelt. Ich habe ein
flexibles Regelwerk-System implementiert, das Fouls erkennt und entsprechende Konsequenzen ausführt. Die
Benutzeroberfläche habe ich mit Unity UI Extensions und TextMeshPro gestaltet, während die Dokumentation mit
MkDocs erstellt wurde. Das Projekt wurde in einem agilen Team mit Scrum-Methodik entwickelt, wobei ich die
Verantwortung für verschiedene Komponenten des Systems übernommen habe.
Interaktives Quiz-System zur Wissensvermittlung und -überprüfung
Das Projekt entwickelt ein interaktives Quiz-System zur Wissensvermittlung. Die Implementierung erfolgt in mehreren
Phasen: Zunächst wird eine Datenstruktur für Fragen, Antworten und Kategorien erstellt. Anschließend wird eine
Datenbankanbindung mit JPA implementiert. Das System ermöglicht die zufällige Auswahl von Fragen aus
verschiedenen Kategorien. Spieler können Fragen beantworten und erhalten sofortiges Feedback. Die Spielergebnisse
werden in der Datenbank gespeichert und können analysiert werden. Die Codequalität wird durch Checkstyle und
SpotBugs sichergestellt. Das Projekt folgt dem Google Java Style Guide und nutzt eine CI/CD Pipeline für
automatisierte Tests.
Ich habe ein intelligentes Buch-Empfehlungssystem entwickelt, das Lesern personalisierte
Vorschla?ge basierend auf ihren Vorlieben und Lesegewohnheiten bietet. Das System nutzt
moderne Machine-Learning-Verfahren wie kollaboratives Filtern, Content-Based Filtering und
Neuronale Netze, um passende Bu?cher vorherzusagen. Zusa?tzlich kommen Algorithmen wie
KNN, Clustering und Matrix-Faktorisierung (NMF) zum Einsatz, um pra?zise Empfehlungen zu
generieren. Die Webanwendung ist mit Python (Flask) umgesetzt und la?sst sich einfach in
bestehende Plattformen integrieren. Mein Ziel war es, ein skalierbares System zu schaffen, das
nicht nur Bu?cher vorschla?gt, sondern auch die Nutzerbindung erho?ht.
Ich das Backend eines innovativen Gutschein- und Cashback-Portals
entwickelt und eine skalierbare Architektur mit modernsten Technologien wie Java 21, Kotlin
und Spring Boot entworfen. Durch den Einsatz von Spring Security, Keycloak, OAuth 2.0 und
OpenID Connect habe ich eine sichere Single-Sign-On-Lo?sung inklusive Social Login realisiert.
Die flexible REST-API ermo?glicht nahtlose Erweiterungen und die Integration verschiedener
Cashback-Partner, wa?hrend Docker, Nginx und SSL/TLS fu?r eine robuste, sichere
Bereitstellung sorgen. Mit Git, GitHub Actions und CI/CD-Pipelines habe ich einen effizienten
Entwicklungsprozess etabliert, der zukunftssichere Anpassungen gewa?hrleistet.
Ich war auch fu?r die Entwicklung eines Proof of Concept (PoC) verantwortlich, um
zu pru?fen, ob sich Single Sign-On (SSO) in die bestehende monolithische SAP Commerce
(Hybris)-Plattform integrieren la?sst. Nachdem der PoC erfolgreich evaluiert und die Machbarkeit
dem Team pra?sentiert wurde, haben wir gemeinsam die na?chsten Schritte detailliert geplant
und umgesetzt. Meine Hauptaufgaben umfassten dabei:
1. Migration von Kundendaten: Sichere U?bertragung bestehender Benutzerkonten und
Passwo?rter aus SAP Commerce in das Keycloak-Identity-Management-System
2. Nahtlose Benutzerumstellung: Gewa?hrleistung einer unterbrechungsfreien
Session-Verwaltung, um laufende Nutzeraktivita?ten wa?hrend der Migration nicht zu
beeintra?chtigen.
3. Event-Driven-Architektur: Entwicklung eines ereignisbasierten Modells zur Integration von
Keycloak mit externen Drittsystemen.
4. Zentrale E-Mail-Kommunikation: Ersatz der Keycloak-Standardfunktionen durch einen
einheitlichen Service fu?r E-Mail-Benachrichtigungen.
5. Sicherheitsimplementierung: Native Einbindung von OAuth 2.0 und OpenID Connect u?ber
Spring Security in SAP Commerce.
Zusa?tzlich lag die Projektdokumentation in meiner Verantwortung, ebenso wie die
Durchfu?hrung umfangreicher Tests, um die Stabilita?t und Funktionssicherheit der Lo?sung
sicherzustellen
Implementierung von Social Sign-In Methoden (Google, AppleID)
Projektziel: Implementierung alternativer Anmeldeverfahren (z. B. Social Logins) und
Verbesserung der Benutzerauthentifizierung.
Projektvorbereitung: Ich analysierte zuna?chst die Kundendaten sowie die Struktur der
Kontodaten, inklusive Datenbanktabellen, Beziehungen und der zugrunde liegenden
Java-Modelle. Auf dieser Basis erstellte ich eine detaillierte Projektplanung mit Schritten zur
schrittweisen Einfu?hrung der neuen Anmeldeoptionen.
Umsetzung & Zusammenarbeit: Gemeinsam mit dem Team (insbesondere UX-Designern)
entwickelten wir A/B-Tests, um die Akzeptanz der neuen Anmeldeverfahren zu messen.
Wichtige umgesetzte Funktionen:
Apple ID Integration: Hidden-Email-Funktion zum Schutz der Nutzerdaten.
Kontoverwaltung: Mo?glichkeit zur A?nderung der registrierten E-Mail-Adresse.
Account-Wiederherstellung: Zugriffsrettung u?ber Social Sign-In bei verlorenen Zugangsdaten.
Passwortfunktionen: ?Passwort vergessen?-Flow und Vergabe neuer Passwo?rter.
Technische Optimierung:
- Refactoring des bestehenden Codes: Die veraltete Facebook-Sign-In-Implementierung wurde
u?berarbeitet.
- Standardisierung: Alle Social-Login-Methoden (z. B. Facebook, Apple ID) wurden mit dem
Spring OAuth-Client vereinheitlicht.
Ergebnis: Ho?here Wartbarkeit, einfachere Skalierung und schnellere Integration zuku?nftiger
Anmeldeoptionen.
Optimierung der Datenbankleistung durch Zwischenspeicherung & Template-Lo?sungen
Ziel dieses Projekts war es, die Belastung der Datenbank durch regelma?ßige Exporte von
Produkt- und Kundendaten in Drittsysteme zu verringern. Dafu?r habe ich ein Projekt initiiert,
das auf die Nutzung eines Zwischenspeichers basierend auf Apache Solr setzte. In diesem Fall
diente Apache Solr nicht als Suchmaschine, sondern als schnelles Speichersystem, das
großen Datenmengen einen raschen Zugriff ermo?glicht und diese effizient verarbeitet. Dadurch
wurde die Hauptdatenbank signifikant entlastet, je nach Anzahl der angebundenen
Drittsysteme. Gleichzeitig verbesserten sich die Verarbeitungsgeschwindigkeit der Daten und
die Generierung von Ausgabedaten erheblich.
Zusa?tzlich wurde eine Template-Lo?sung eingesetzt, die es erlaubte, neue Ausgabeformate fu?r
verschiedene Zielgruppen schnell zu erstellen und anzuwenden. So konnten innerhalb
ku?rzester Zeit neue Datenformate entwickelt und an neue Nutzergruppen angepasst werden.
Außerdem entwickelte ich eine Anwendung fu?r die Generierung von Produkt-Feeds. Dieses
System war modular aufgebaut, basierend auf Transformatoren und Adaptern, und konnte
unabha?ngig von den spezifischen Datenquellen oder -konsumenten betrieben werden. Dabei
konnte ich wertvolle Erfahrungen in der Implementierung hexagonaler Architekturen sammeln.
Diese Art von Architektur ist mir vertraut, und ich verstehe ihre praktische Bedeutung insbesondere in Bezug auf Domain-Driven Design (DDD)
AI KnowHow:
Exploratory Data Analysis, Statistical Programming, Feature Engineering, Statistical Hypothesis, Testing, Linear
Regression, Regression Analysis, Decision Tree, Classification Algorithms, Ensemble Learning, Dimensionality
Reduction, Principal Component Analysis (PCA), Unsupervised Learning, Supervised Learning, Machine Learning
(ML) Algorithms, Cluster Analysis, K-Means Clustering, Time Series Forecasting, Artificial Neural Networks, Deep
Learning, Recurrent Neural Network (RNN), Long Short-Term Memory (LSTM), Gated Recurrent Unit (GRU),
Attention Models, Reinforcement Learning, Natural Language Processing (NLP), Sentiment Analysis, Chatbots,
Recommender Systems, Fraud Detection, Model Deployment, Streamlit, Pathlib, Langchain, Groq, pandas,
StrOutputParser
Automatisierung der Finanzdatenverarbeitung für außländische Börsen
Ich habe für die WM-Gruppe ein Projekt zur Automatisierung der Finanzdatenverarbeitung für Wertpapiere der Börsen entwickelt. Mit Spring Boot, Java, RESTful APIs und Hibernate habe ich Daten über die Börsen-APIs regelmäßig abgerufen und in einer MariaDB gespeichert. Ich nutzte Maven für das Build-Management und Jackson zur JSON Datenverarbeitung. Dadurch wurde die manuelle Arbeit um 15% reduziert und Fehler um 20% minimiert. Mein System verbessert die Datenaktualität erheblich.
Automatisierte ISIN-Datenverwaltung mit interner Web-Oberfläche
Ich habe eine vollständige Lösung zur Verwaltung von ISIN-Daten für Zertifikate und Anleihen entwickelt, die sowohl automatisierte Datenprozesse als auch eine benutzerfreundliche Web-Oberfläche umfasst. Basierend auf Spring Boot und React.js habe ich ein System implementiert, das Mitarbeitern eine intuitive Möglichkeit bietet, ISINs zuzuweisen - inklusive Validierung, Compliance-Prüfung und Audit-Logging.
Die von mir entwickelte RESTful API ermöglicht die nahtlose Integration in bestehende
WM-Systeme, während die interne Web-Anwendung (gesichert durch OAuth2 und
Firmen-SSO) eine effiziente Nutzung direkt im Browser ermöglicht. Ich habe die Lösung mit MariaDB und Hibernate/JPA für maximale Performance umgesetzt und durch
Docker/Kubernetes skalierbar gestaltet.
Meine Implementierung reduziert manuelle Fehler um 30% und verbessert die Datenkonsistenz deutlich. Besonderen Wert habe ich auf Sicherheit gelegt - das System läuft ausschließlich im Firmennetzwerk und protokolliert alle Änderungen lückenlos. Die Architektur erlaubt zudem einfache Erweiterungen für weitere Börsen oder Asset-Klassen.
Ergebnis: Eine robuste, benutzerfreundliche Lösung, die Prozesse beschleunigt und
Compliance-Anforderungen vollständig erfüll.
Entwicklung einer KI-Chat-Lo?sung auf Basis lokaler LLMs fu?r die Mitarbeiter
Ich habe einen Proof of Concept fu?r einen KI-Chatbot entwickelt, der auf einem lokal
betriebenen, von Hugging Face bezogenen und feinabgestimmten Open-Source-LLM basiert.
Dieser Chatbot arbeitet ressourcenschonend ohne Cloud-Anbindung und generiert pra?zise
SQL-Statements, die erst nach Besta?tigung durch den Nutzer ausgefu?hrt werden ? ein
intelligentes "Man-in-the-Middle"-Konzept, das Missversta?ndnisse ausschließt. Fu?r den produktiven Einsatz optimiert, habe ich die Backend-Architektur, Entwicklung und DevOps
verantwortet. Die Lo?sung entlastet Mitarbeiter, indem sie die zeitraubende Suche nach
Datenbankbefehlen u?berflu?ssig macht, und setzt auf Effizienz, Datensouvera?nita?t sowie
moderne Technologien wie LangChain und MariaDB).
Bankweite Datensammlung und -analyse fu?r Software- und Kundeneinfu?hrungen
In diesem Projekt habe ich eine zentrale Plattform zur bankweiten Koordination von Software- und Kundeneinfu?hrungen konzipiert und umgesetzt. Mein Fokus lag darauf, eine einheitliche Datenerfassung und -analyse zu etablieren, um Abha?ngigkeiten von externen Dienstleistern wie Cancom zu reduzieren und einen mo?glichen Wechsel zu erleichtern. Ich entwickelte eine skalierbare Lo?sung, die alle relevanten Systeme, Releases und Kundendaten in Echtzeit aggregiert und visualisiert. Durch den Einsatz von Java, Spring Framework und Kafka baute ich eine robuste Backend-Architektur, wa?hrend ich mit Apache JMeter Lasttests durchfu?hrte, um die Stabilita?t zu gewa?hrleisten. Meine Lo?sung ermo?glichte es, Release-Zyklen transparenter zu gestalten und Engpa?sse fru?hzeitig zu identifizieren. Zudem fu?hrte ich eine YAML-basierte Konfiguration ein, um Anpassungen ohne Code-A?nderungen vornehmen zu ko?nnen. Durch meine Initiative wurden manuelle Prozesse enorm reduziert, und die Bank gewann mehr Kontrolle u?ber ihre IT-Infrastruktur. Das Ergebnis war eine zukunftssichere Plattform, die nicht nur die Ablo?sung externer Dienstleister vereinfachte, sondern auch die Entscheidungsfindung durch datengesteuerte Analysen beschleunigte. Mein Beitrag sicherte eine reibungslose Migration und setzte neue Standards fu?r bankinterne Prozess.
Entwicklung individueller Integrationen fu?r Bankensysteme ? Banking Omnikanal
Ich war dafu?r verantwortlich, die Gescha?ftsanforderungen der Bank technisch umzusetzen. Meine Hauptaufgabe bestand darin, die Integration zwischen verschiedenen Banksystemen zu ermo?glichen, die von unterschiedlichen Entwicklerteams betrieben wurden. Ich habe u?ber 100 Integration-Adapter entwickelt, die als Schnittstelle zwischen den Systemen dienten. Diese Adapter u?bersetzten Datenformate und gewa?hrleisteten die Kommunikation (z. B. zwischen APIs, Datenbanken).
Umsetzung:
- Erstellung von Data Transfer Objects (DTOs) und API-Komponenten basierend auf
vordefinierten XML/JSON-Schemata.
- Anpassung von Softwarekomponenten, um sie in das bestehende Integrations-Framework
einzubinden.
Testen & Auslieferung:
- Vorbereitung von Testdaten und aktive Mitwirkung in Testphasen (z. B. Integrationstests), um
Fehler fru?hzeitig zu erkennen.
- Modularisierte Auslieferung von Komponenten, um eine schrittweise Implementierung in der
Produktionsumgebung zu ermo?glichen.
DevOps & Automatisierung:
- Einbindung von Testautomatisierung in die CI/CD-Pipeline (Continuous Testing), um Qualita?t
und Geschwindigkeit der Releases zu steigern.
Ergebnis: Durch diese strukturierte Vorgehensweise konnten Integrationen effizient umgesetzt
und stabil in der Live-Umgebung betrieben werden.
Weiterentwicklung eines Integrationsframeworks fu?r Banking Omnikanal
In meinem Projekt zur Integration von Bankensystemen lag der Fokus auf der Entwicklung einer zentralen Software-Bibliothek. Diese ermo?glichte es Clientanwendungen, sich nahtlos mit einer unternehmensweiten Integrationsplattform zu verbinden. Das Ziel war, die Teams zu entlasten: Statt individuelle Lo?sungen fu?r die Anbindung zu entwickeln, konnten sie nun einfach vordefinierte Verbindungseinstellungen nutzen.
Eines meiner Kernprojekte in der Integrationsabteilung war die Entwicklung eines Frameworks
zur automatisierten Erstellung von Integrationsadaptern. Da sich durch einheitliche Methoden
und kontinuierliche Optimierung regelma?ßig neue Anforderungen ergaben, musste das
Framework laufend angepasst werden. Typische Anpassungen umfassten:
- Kleinere A?nderungen: Anpassungen der Versionierung oder Benennung.
- Umfangreichere Anpassungen: Strukturelle Anpassungen von Payloads und Headern.
Implementierung neuer Technologien
Ein zentraler Meilenstein war die Einfu?hrung des Kafka-Messaging-Protokolls als Ersatz fu?r
IBM MQ. Zudem habe ich das Framework um JSON-basierte Nachrichtenverarbeitung
erweitert. Dafu?r setzte ich folgende Schwerpunkte:
- Evaluierung von Tools fu?r die effiziente Verarbeitung von JSON-Daten.
- Konvertierung von JSON in Java-Klassen.
- Serialisierung/Deserialisierung von Java-Objekten.
- Validierung von JSON-Nachrichten anhand definierter JSON-Schemata.
Multi-Protocol IoT Sensor Data Collection and Processing System
In diesem Projekt habe ich das Backend eines innovativen Gutschein- und Cashback-Portals
entwickelt und eine skalierbare Architektur mit modernsten Technologien wie Java 21, Kotlin
und Spring Boot entworfen. Durch den Einsatz von Spring Security, Keycloak, OAuth 2.0 und
OpenID Connect habe ich eine sichere Single-Sign-On-Lösung inklusive Social Login realisiert.
Die flexible REST-API ermöglicht nahtlose Erweiterungen und die Integration verschiedener
Cashback-Partner, während Docker, Nginx und SSL/TLS für eine robuste, sichere
Bereitstellung sorgen. Mit Git, GitHub Actions und CI/CD-Pipelines habe ich einen effizienten
Entwicklungsprozess etabliert, der zukunftssichere Anpassungen gewährleistet.
In diesem Projekt habe ich ein verteiltes IoT-System entwickelt, das verschiedene Sensoren über unterschiedliche
Protokolle (TCP/IP und MQTT/UDP) miteinander verbindet. Ich habe einen IoT-Gateway implementiert, der als
zentraler Kommunikationsknoten zwischen Sensoren und Cloud-System dient. Die Cloud-Komponente verarbeitet die
Sensordaten und leitet sie an einen Koordinator weiter, der die Datenverteilung auf zwei Datenbanken verwaltet. Für
die Containerisierung und Orchestrierung habe ich Docker und Docker Compose eingesetzt, während ich MQTT für
die asynchrone Kommunikation zwischen Sensoren und dem Gateway nutzte. Das System ist modular aufgebaut und
ermöglicht eine skalierbare Verarbeitung von Sensordaten in Echtzeit
Pizza-Bestellsystem mit Multi-Rollen-Architektur
Ich habe ein Pizza-Bestellsystem entwickelt, das verschiedene Benutzerrollen (Kunde, Bäcker, Fahrer) unterstützt. Ich
habe eine Datenbankanbindung mit MySQLi implementiert und eine responsive Benutzeroberfläche mit HTML, CSS
und JavaScript erstellt. Das System ermöglicht Kunden das Bestellen von Pizza, Bäckern die Bestellungsverwaltung und
Fahrern die Lieferungsverwaltung. Ich habe AJAX für asynchrone Kommunikation zwischen Frontend und Backend
eingesetzt und eine sichere Authentifizierung implementiert. Die Anwendung folgt dem MVC-Pattern und nutzt
objektorientierte PHP-Programmierung mit Vererbung von einer Basis-Page-Klasse.
Multimedia Billard Tisch
In diesem Projekt habe ich ein innovatives Billard-System entwickelt, das reale Billardkugeln mit digitalen Effekten und
Spielmodi kombiniert. Ich habe ein präzises Tracking-System mit Kinect-Kamera implementiert, das die Position und
Bewegung der Kugeln in Echtzeit erfasst und verarbeitet. Durch die Integration von Unity habe ich eine immersive 3D-
Simulation mit realistischer Physik und verschiedenen Spielmodi (8-Ball, 9-Ball, Trickshot) entwickelt. Ich habe ein
flexibles Regelwerk-System implementiert, das Fouls erkennt und entsprechende Konsequenzen ausführt. Die
Benutzeroberfläche habe ich mit Unity UI Extensions und TextMeshPro gestaltet, während die Dokumentation mit
MkDocs erstellt wurde. Das Projekt wurde in einem agilen Team mit Scrum-Methodik entwickelt, wobei ich die
Verantwortung für verschiedene Komponenten des Systems übernommen habe.
Interaktives Quiz-System zur Wissensvermittlung und -überprüfung
Das Projekt entwickelt ein interaktives Quiz-System zur Wissensvermittlung. Die Implementierung erfolgt in mehreren
Phasen: Zunächst wird eine Datenstruktur für Fragen, Antworten und Kategorien erstellt. Anschließend wird eine
Datenbankanbindung mit JPA implementiert. Das System ermöglicht die zufällige Auswahl von Fragen aus
verschiedenen Kategorien. Spieler können Fragen beantworten und erhalten sofortiges Feedback. Die Spielergebnisse
werden in der Datenbank gespeichert und können analysiert werden. Die Codequalität wird durch Checkstyle und
SpotBugs sichergestellt. Das Projekt folgt dem Google Java Style Guide und nutzt eine CI/CD Pipeline für
automatisierte Tests.
Ich habe ein intelligentes Buch-Empfehlungssystem entwickelt, das Lesern personalisierte
Vorschla?ge basierend auf ihren Vorlieben und Lesegewohnheiten bietet. Das System nutzt
moderne Machine-Learning-Verfahren wie kollaboratives Filtern, Content-Based Filtering und
Neuronale Netze, um passende Bu?cher vorherzusagen. Zusa?tzlich kommen Algorithmen wie
KNN, Clustering und Matrix-Faktorisierung (NMF) zum Einsatz, um pra?zise Empfehlungen zu
generieren. Die Webanwendung ist mit Python (Flask) umgesetzt und la?sst sich einfach in
bestehende Plattformen integrieren. Mein Ziel war es, ein skalierbares System zu schaffen, das
nicht nur Bu?cher vorschla?gt, sondern auch die Nutzerbindung erho?ht.
Ich das Backend eines innovativen Gutschein- und Cashback-Portals
entwickelt und eine skalierbare Architektur mit modernsten Technologien wie Java 21, Kotlin
und Spring Boot entworfen. Durch den Einsatz von Spring Security, Keycloak, OAuth 2.0 und
OpenID Connect habe ich eine sichere Single-Sign-On-Lo?sung inklusive Social Login realisiert.
Die flexible REST-API ermo?glicht nahtlose Erweiterungen und die Integration verschiedener
Cashback-Partner, wa?hrend Docker, Nginx und SSL/TLS fu?r eine robuste, sichere
Bereitstellung sorgen. Mit Git, GitHub Actions und CI/CD-Pipelines habe ich einen effizienten
Entwicklungsprozess etabliert, der zukunftssichere Anpassungen gewa?hrleistet.
Ich war auch fu?r die Entwicklung eines Proof of Concept (PoC) verantwortlich, um
zu pru?fen, ob sich Single Sign-On (SSO) in die bestehende monolithische SAP Commerce
(Hybris)-Plattform integrieren la?sst. Nachdem der PoC erfolgreich evaluiert und die Machbarkeit
dem Team pra?sentiert wurde, haben wir gemeinsam die na?chsten Schritte detailliert geplant
und umgesetzt. Meine Hauptaufgaben umfassten dabei:
1. Migration von Kundendaten: Sichere U?bertragung bestehender Benutzerkonten und
Passwo?rter aus SAP Commerce in das Keycloak-Identity-Management-System
2. Nahtlose Benutzerumstellung: Gewa?hrleistung einer unterbrechungsfreien
Session-Verwaltung, um laufende Nutzeraktivita?ten wa?hrend der Migration nicht zu
beeintra?chtigen.
3. Event-Driven-Architektur: Entwicklung eines ereignisbasierten Modells zur Integration von
Keycloak mit externen Drittsystemen.
4. Zentrale E-Mail-Kommunikation: Ersatz der Keycloak-Standardfunktionen durch einen
einheitlichen Service fu?r E-Mail-Benachrichtigungen.
5. Sicherheitsimplementierung: Native Einbindung von OAuth 2.0 und OpenID Connect u?ber
Spring Security in SAP Commerce.
Zusa?tzlich lag die Projektdokumentation in meiner Verantwortung, ebenso wie die
Durchfu?hrung umfangreicher Tests, um die Stabilita?t und Funktionssicherheit der Lo?sung
sicherzustellen
Implementierung von Social Sign-In Methoden (Google, AppleID)
Projektziel: Implementierung alternativer Anmeldeverfahren (z. B. Social Logins) und
Verbesserung der Benutzerauthentifizierung.
Projektvorbereitung: Ich analysierte zuna?chst die Kundendaten sowie die Struktur der
Kontodaten, inklusive Datenbanktabellen, Beziehungen und der zugrunde liegenden
Java-Modelle. Auf dieser Basis erstellte ich eine detaillierte Projektplanung mit Schritten zur
schrittweisen Einfu?hrung der neuen Anmeldeoptionen.
Umsetzung & Zusammenarbeit: Gemeinsam mit dem Team (insbesondere UX-Designern)
entwickelten wir A/B-Tests, um die Akzeptanz der neuen Anmeldeverfahren zu messen.
Wichtige umgesetzte Funktionen:
Apple ID Integration: Hidden-Email-Funktion zum Schutz der Nutzerdaten.
Kontoverwaltung: Mo?glichkeit zur A?nderung der registrierten E-Mail-Adresse.
Account-Wiederherstellung: Zugriffsrettung u?ber Social Sign-In bei verlorenen Zugangsdaten.
Passwortfunktionen: ?Passwort vergessen?-Flow und Vergabe neuer Passwo?rter.
Technische Optimierung:
- Refactoring des bestehenden Codes: Die veraltete Facebook-Sign-In-Implementierung wurde
u?berarbeitet.
- Standardisierung: Alle Social-Login-Methoden (z. B. Facebook, Apple ID) wurden mit dem
Spring OAuth-Client vereinheitlicht.
Ergebnis: Ho?here Wartbarkeit, einfachere Skalierung und schnellere Integration zuku?nftiger
Anmeldeoptionen.
Optimierung der Datenbankleistung durch Zwischenspeicherung & Template-Lo?sungen
Ziel dieses Projekts war es, die Belastung der Datenbank durch regelma?ßige Exporte von
Produkt- und Kundendaten in Drittsysteme zu verringern. Dafu?r habe ich ein Projekt initiiert,
das auf die Nutzung eines Zwischenspeichers basierend auf Apache Solr setzte. In diesem Fall
diente Apache Solr nicht als Suchmaschine, sondern als schnelles Speichersystem, das
großen Datenmengen einen raschen Zugriff ermo?glicht und diese effizient verarbeitet. Dadurch
wurde die Hauptdatenbank signifikant entlastet, je nach Anzahl der angebundenen
Drittsysteme. Gleichzeitig verbesserten sich die Verarbeitungsgeschwindigkeit der Daten und
die Generierung von Ausgabedaten erheblich.
Zusa?tzlich wurde eine Template-Lo?sung eingesetzt, die es erlaubte, neue Ausgabeformate fu?r
verschiedene Zielgruppen schnell zu erstellen und anzuwenden. So konnten innerhalb
ku?rzester Zeit neue Datenformate entwickelt und an neue Nutzergruppen angepasst werden.
Außerdem entwickelte ich eine Anwendung fu?r die Generierung von Produkt-Feeds. Dieses
System war modular aufgebaut, basierend auf Transformatoren und Adaptern, und konnte
unabha?ngig von den spezifischen Datenquellen oder -konsumenten betrieben werden. Dabei
konnte ich wertvolle Erfahrungen in der Implementierung hexagonaler Architekturen sammeln.
Diese Art von Architektur ist mir vertraut, und ich verstehe ihre praktische Bedeutung insbesondere in Bezug auf Domain-Driven Design (DDD)
AI KnowHow:
Exploratory Data Analysis, Statistical Programming, Feature Engineering, Statistical Hypothesis, Testing, Linear
Regression, Regression Analysis, Decision Tree, Classification Algorithms, Ensemble Learning, Dimensionality
Reduction, Principal Component Analysis (PCA), Unsupervised Learning, Supervised Learning, Machine Learning
(ML) Algorithms, Cluster Analysis, K-Means Clustering, Time Series Forecasting, Artificial Neural Networks, Deep
Learning, Recurrent Neural Network (RNN), Long Short-Term Memory (LSTM), Gated Recurrent Unit (GRU),
Attention Models, Reinforcement Learning, Natural Language Processing (NLP), Sentiment Analysis, Chatbots,
Recommender Systems, Fraud Detection, Model Deployment, Streamlit, Pathlib, Langchain, Groq, pandas,
StrOutputParser