Software- und KI Entwicklung mit Java, SpringBoot, Python, Pandas, NumPy, LLM, React
Aktualisiert am 11.04.2025
Profil
Mitarbeiter eines Dienstleisters
Remote-Arbeit
Verfügbar ab: 01.04.2025
Verfügbar zu: 100%
davon vor Ort: 100%
Skill-Profil eines fest angestellten Mitarbeiters des Dienstleisters

Einsatzorte

Einsatzorte

Frankfurt am Main (+500km)
Deutschland, Österreich
möglich

Projekte

Projekte

1 Jahr 6 Monate
2023-10 - heute

Finanzdatenverarbeitung und ISIN Datenverwaltung

Software Entwickler Spring Boot Java RESTful API ...
Software Entwickler

Automatisierung der Finanzdatenverarbeitung für außländische Börsen

Ich habe für die WM-Gruppe ein Projekt zur Automatisierung der Finanzdatenverarbeitung für Wertpapiere der Börsen entwickelt. Mit Spring Boot, Java, RESTful APIs und Hibernate habe ich Daten über die Börsen-APIs regelmäßig abgerufen und in einer MariaDB gespeichert. Ich nutzte Maven für das Build-Management und Jackson zur JSON Datenverarbeitung. Dadurch wurde die manuelle Arbeit um 15% reduziert und Fehler um 20% minimiert. Mein System verbessert die Datenaktualität erheblich.


Automatisierte ISIN-Datenverwaltung mit interner Web-Oberfläche

Ich habe eine vollständige Lösung zur Verwaltung von ISIN-Daten für Zertifikate und Anleihen entwickelt, die sowohl automatisierte Datenprozesse als auch eine benutzerfreundliche Web-Oberfläche umfasst. Basierend auf Spring Boot und React.js habe ich ein System implementiert, das Mitarbeitern eine intuitive Möglichkeit bietet, ISINs zuzuweisen - inklusive Validierung, Compliance-Prüfung und Audit-Logging.

Die von mir entwickelte RESTful API ermöglicht die nahtlose Integration in bestehende

WM-Systeme, während die interne Web-Anwendung (gesichert durch OAuth2 und

Firmen-SSO) eine effiziente Nutzung direkt im Browser ermöglicht. Ich habe die Lösung mit MariaDB und Hibernate/JPA für maximale Performance umgesetzt und durch

Docker/Kubernetes skalierbar gestaltet.

Meine Implementierung reduziert manuelle Fehler um 30% und verbessert die Datenkonsistenz deutlich. Besonderen Wert habe ich auf Sicherheit gelegt - das System läuft ausschließlich im Firmennetzwerk und protokolliert alle Änderungen lückenlos. Die Architektur erlaubt zudem einfache Erweiterungen für weitere Börsen oder Asset-Klassen.

Ergebnis: Eine robuste, benutzerfreundliche Lösung, die Prozesse beschleunigt und

Compliance-Anforderungen vollständig erfüll.

Spring Boot Java RESTful API JSON XML MySQL MariaDB Hibernate JPA Maven Gradle Apache HttpClient OkHttp Jackson Gson Lombok JUnit Mockito Docker Kubernetes Jenkins Git Log4j SLF4J React.js Hibernate/JPA OAuth2
WM Gruppe
hybrid
1 Jahr 4 Monate
2022-06 - 2023-09

Integrationen für Bankensysteme, KI Entwicklung, Datensammlung und -analyse

Software Entwickler Java Groovy CDI ...
Software Entwickler

Entwicklung einer KI-Chat-Lo?sung auf Basis lokaler LLMs fu?r die Mitarbeiter

Ich habe einen Proof of Concept fu?r einen KI-Chatbot entwickelt, der auf einem lokal betriebenen, von Hugging Face bezogenen und feinabgestimmten Open-Source-LLM basiert. Dieser Chatbot arbeitet ressourcenschonend ohne Cloud-Anbindung und generiert pra?zise SQL-Statements, die erst nach Besta?tigung durch den Nutzer ausgefu?hrt werden ? ein intelligentes "Man-in-the-Middle"-Konzept, das Missversta?ndnisse ausschließt. Fu?r den produktiven Einsatz optimiert, habe ich die Backend-Architektur, Entwicklung und DevOps verantwortet. Die Lo?sung entlastet Mitarbeiter, indem sie die zeitraubende Suche nach Datenbankbefehlen u?berflu?ssig macht, und setzt auf Effizienz, Datensouvera?nita?t sowie moderne Technologien wie LangChain und MariaDB).

Bankweite Datensammlung und -analyse fu?r Software- und Kundeneinfu?hrungen

In diesem Projekt habe ich eine zentrale Plattform zur bankweiten Koordination von Software- und Kundeneinfu?hrungen konzipiert und umgesetzt. Mein Fokus lag darauf, eine einheitliche Datenerfassung und -analyse zu etablieren, um Abha?ngigkeiten von externen Dienstleistern wie Cancom zu reduzieren und einen mo?glichen Wechsel zu erleichtern. Ich entwickelte eine skalierbare Lo?sung, die alle relevanten Systeme, Releases und Kundendaten in Echtzeit aggregiert und visualisiert. Durch den Einsatz von Java, Spring Framework und Kafka baute ich eine robuste Backend-Architektur, wa?hrend ich mit Apache JMeter Lasttests durchfu?hrte, um die Stabilita?t zu gewa?hrleisten. Meine Lo?sung ermo?glichte es, Release-Zyklen transparenter zu gestalten und Engpa?sse fru?hzeitig zu identifizieren. Zudem fu?hrte ich eine YAML-basierte Konfiguration ein, um Anpassungen ohne Code-A?nderungen vornehmen zu ko?nnen. Durch meine Initiative wurden manuelle Prozesse enorm reduziert, und die Bank gewann mehr Kontrolle u?ber ihre IT-Infrastruktur. Das Ergebnis war eine zukunftssichere Plattform, die nicht nur die Ablo?sung externer Dienstleister vereinfachte, sondern auch die Entscheidungsfindung durch datengesteuerte Analysen beschleunigte. Mein Beitrag sicherte eine reibungslose Migration und setzte neue Standards fu?r bankinterne Prozess.

Entwicklung individueller Integrationen fu?r Bankensysteme ? Banking Omnikanal

Ich war dafu?r verantwortlich, die Gescha?ftsanforderungen der Bank technisch umzusetzen. Meine Hauptaufgabe bestand darin, die Integration zwischen verschiedenen Banksystemen zu ermo?glichen, die von unterschiedlichen Entwicklerteams betrieben wurden. Ich habe u?ber 100 Integration-Adapter entwickelt, die als Schnittstelle zwischen den Systemen dienten. Diese Adapter u?bersetzten Datenformate und gewa?hrleisteten die Kommunikation (z. B. zwischen APIs, Datenbanken).

Umsetzung:
- Erstellung von Data Transfer Objects (DTOs) und API-Komponenten basierend auf vordefinierten XML/JSON-Schemata.
- Anpassung von Softwarekomponenten, um sie in das bestehende Integrations-Framework einzubinden.
Testen & Auslieferung:
- Vorbereitung von Testdaten und aktive Mitwirkung in Testphasen (z. B. Integrationstests), um Fehler fru?hzeitig zu erkennen.
- Modularisierte Auslieferung von Komponenten, um eine schrittweise Implementierung in der Produktionsumgebung zu ermo?glichen.
DevOps & Automatisierung:
- Einbindung von Testautomatisierung in die CI/CD-Pipeline (Continuous Testing), um Qualita?t und Geschwindigkeit der Releases zu steigern.

Ergebnis: Durch diese strukturierte Vorgehensweise konnten Integrationen effizient umgesetzt und stabil in der Live-Umgebung betrieben werden.

Weiterentwicklung eines Integrationsframeworks fu?r Banking Omnikanal

In meinem Projekt zur Integration von Bankensystemen lag der Fokus auf der Entwicklung einer zentralen Software-Bibliothek. Diese ermo?glichte es Clientanwendungen, sich nahtlos mit einer unternehmensweiten Integrationsplattform zu verbinden. Das Ziel war, die Teams zu entlasten: Statt individuelle Lo?sungen fu?r die Anbindung zu entwickeln, konnten sie nun einfach vordefinierte Verbindungseinstellungen nutzen.

Eines meiner Kernprojekte in der Integrationsabteilung war die Entwicklung eines Frameworks zur automatisierten Erstellung von Integrationsadaptern. Da sich durch einheitliche Methoden und kontinuierliche Optimierung regelma?ßig neue Anforderungen ergaben, musste das Framework laufend angepasst werden. Typische Anpassungen umfassten:
- Kleinere A?nderungen: Anpassungen der Versionierung oder Benennung.
- Umfangreichere Anpassungen: Strukturelle Anpassungen von Payloads und Headern. Implementierung neuer Technologien
Ein zentraler Meilenstein war die Einfu?hrung des Kafka-Messaging-Protokolls als Ersatz fu?r
IBM MQ. Zudem habe ich das Framework um JSON-basierte Nachrichtenverarbeitung erweitert. Dafu?r setzte ich folgende Schwerpunkte:
- Evaluierung von Tools fu?r die effiziente Verarbeitung von JSON-Daten.
- Konvertierung von JSON in Java-Klassen.
- Serialisierung/Deserialisierung von Java-Objekten.
- Validierung von JSON-Nachrichten anhand definierter JSON-Schemata.


Java Groovy CDI JEE Spring Framework Gradle Git jUnit Mockito Wildfly IBM WebSphere MQ Kafka Jenkins Red Hat Enterprise Linux Bash XML/XSD Altova XMLSpy Jira Confluence YAML-based custom configuration IBM WebSphere MQ Apache JMeter Lasttests UnitTests YAML CI/CD REST-APIs Datenbank-Adapter (SQL/NoSQL) XML/JSON BitBucket Docker Kubernetes Logstash Python ELK-Stack Elastic Search Grafana Kibana ELK JMeter REST Java 21 Kotlin JavaScript HTML MariaDB MySQL PyMySQL PostgreSQL Flask FastAPI Spring Boot Nginx GitHub Actions CI/CD-Tools CI/CD-Pipelines SSL/TLS Hugging Face LangChain Open-Source-LLM-Modelle Pandas Ollama LM Studio LLM
Aareal Bank AG
hybrid
2 Jahre 6 Monate
2019-09 - 2022-02

Upwork Freelancing

Software Engineer Java 11 Gradle JPA (EclipseLink) ...
Software Engineer

Multi-Protocol IoT Sensor Data Collection and Processing System


In diesem Projekt habe ich das Backend eines innovativen Gutschein- und Cashback-Portals

entwickelt und eine skalierbare Architektur mit modernsten Technologien wie Java 21, Kotlin

und Spring Boot entworfen. Durch den Einsatz von Spring Security, Keycloak, OAuth 2.0 und

OpenID Connect habe ich eine sichere Single-Sign-On-Lösung inklusive Social Login realisiert.

Die flexible REST-API ermöglicht nahtlose Erweiterungen und die Integration verschiedener

Cashback-Partner, während Docker, Nginx und SSL/TLS für eine robuste, sichere

Bereitstellung sorgen. Mit Git, GitHub Actions und CI/CD-Pipelines habe ich einen effizienten

Entwicklungsprozess etabliert, der zukunftssichere Anpassungen gewährleistet.

In diesem Projekt habe ich ein verteiltes IoT-System entwickelt, das verschiedene Sensoren über unterschiedliche

Protokolle (TCP/IP und MQTT/UDP) miteinander verbindet. Ich habe einen IoT-Gateway implementiert, der als

zentraler Kommunikationsknoten zwischen Sensoren und Cloud-System dient. Die Cloud-Komponente verarbeitet die

Sensordaten und leitet sie an einen Koordinator weiter, der die Datenverteilung auf zwei Datenbanken verwaltet. Für

die Containerisierung und Orchestrierung habe ich Docker und Docker Compose eingesetzt, während ich MQTT für

die asynchrone Kommunikation zwischen Sensoren und dem Gateway nutzte. Das System ist modular aufgebaut und

ermöglicht eine skalierbare Verarbeitung von Sensordaten in Echtzeit


Pizza-Bestellsystem mit Multi-Rollen-Architektur


Ich habe ein Pizza-Bestellsystem entwickelt, das verschiedene Benutzerrollen (Kunde, Bäcker, Fahrer) unterstützt. Ich

habe eine Datenbankanbindung mit MySQLi implementiert und eine responsive Benutzeroberfläche mit HTML, CSS

und JavaScript erstellt. Das System ermöglicht Kunden das Bestellen von Pizza, Bäckern die Bestellungsverwaltung und

Fahrern die Lieferungsverwaltung. Ich habe AJAX für asynchrone Kommunikation zwischen Frontend und Backend

eingesetzt und eine sichere Authentifizierung implementiert. Die Anwendung folgt dem MVC-Pattern und nutzt

objektorientierte PHP-Programmierung mit Vererbung von einer Basis-Page-Klasse.


Multimedia Billard Tisch


In diesem Projekt habe ich ein innovatives Billard-System entwickelt, das reale Billardkugeln mit digitalen Effekten und

Spielmodi kombiniert. Ich habe ein präzises Tracking-System mit Kinect-Kamera implementiert, das die Position und

Bewegung der Kugeln in Echtzeit erfasst und verarbeitet. Durch die Integration von Unity habe ich eine immersive 3D-

Simulation mit realistischer Physik und verschiedenen Spielmodi (8-Ball, 9-Ball, Trickshot) entwickelt. Ich habe ein

flexibles Regelwerk-System implementiert, das Fouls erkennt und entsprechende Konsequenzen ausführt. Die

Benutzeroberfläche habe ich mit Unity UI Extensions und TextMeshPro gestaltet, während die Dokumentation mit

MkDocs erstellt wurde. Das Projekt wurde in einem agilen Team mit Scrum-Methodik entwickelt, wobei ich die

Verantwortung für verschiedene Komponenten des Systems übernommen habe.


Interaktives Quiz-System zur Wissensvermittlung und -überprüfung


Das Projekt entwickelt ein interaktives Quiz-System zur Wissensvermittlung. Die Implementierung erfolgt in mehreren

Phasen: Zunächst wird eine Datenstruktur für Fragen, Antworten und Kategorien erstellt. Anschließend wird eine

Datenbankanbindung mit JPA implementiert. Das System ermöglicht die zufällige Auswahl von Fragen aus

verschiedenen Kategorien. Spieler können Fragen beantworten und erhalten sofortiges Feedback. Die Spielergebnisse

werden in der Datenbank gespeichert und können analysiert werden. Die Codequalität wird durch Checkstyle und

SpotBugs sichergestellt. Das Projekt folgt dem Google Java Style Guide und nutzt eine CI/CD Pipeline für

automatisierte Tests.









Java 11 Gradle JPA (EclipseLink) PostgreSQL JUnit 5 Git GitLab Checkstyle SpotBugs IntelliJ IDEA Docker Maven Central Repository JPA EntityManager CSV Parser StandardCharsets BufferedReader EntityTransaction EntityManagerFactory Javadoc Google Java Style Guide CI/CD Pipeline OpenJDK Unity C# Python MkDocs GitLab CI/CD Emgu CV (OpenCV für .NET) Kinect SDK Newtonsoft.Json .NET Framework 4.7.2 Windows Forms MQTT 3D-Modellierung Computer Vision Echtzeit-Visualisierung Scrum/Agile Methoden Unity UI Extensions Unity Timeline Unity TextMeshPro Unity UGUI Unity Physics Engine PHP 7.4 MySQLi HTML CSS JavaScript jQuery Bootstrap Apache MariaDB Docker Compose PHPMyAdmin Java Maven UDP TCP/IP Thrift Eclipse Mosquitto Portainer JSON Microservices Architecture Apache Thrift JUnit (for testing) Git (for version control) IntelliJ IDEA (for development) Windows PowerShell YAML
Upwork
remote
1 Jahr 6 Monate
2018-04 - 2019-09

KI-basiertes Empfehlungssystem

Software Engineer Java 17 Spring Boot Apache Camel ...
Software Engineer

Ich habe ein intelligentes Buch-Empfehlungssystem entwickelt, das Lesern personalisierte Vorschla?ge basierend auf ihren Vorlieben und Lesegewohnheiten bietet. Das System nutzt moderne Machine-Learning-Verfahren wie kollaboratives Filtern, Content-Based Filtering und Neuronale Netze, um passende Bu?cher vorherzusagen. Zusa?tzlich kommen Algorithmen wie KNN, Clustering und Matrix-Faktorisierung (NMF) zum Einsatz, um pra?zise Empfehlungen zu generieren. Die Webanwendung ist mit Python (Flask) umgesetzt und la?sst sich einfach in bestehende Plattformen integrieren. Mein Ziel war es, ein skalierbares System zu schaffen, das nicht nur Bu?cher vorschla?gt, sondern auch die Nutzerbindung erho?ht.


Ich das Backend eines innovativen Gutschein- und Cashback-Portals entwickelt und eine skalierbare Architektur mit modernsten Technologien wie Java 21, Kotlin und Spring Boot entworfen. Durch den Einsatz von Spring Security, Keycloak, OAuth 2.0 und OpenID Connect habe ich eine sichere Single-Sign-On-Lo?sung inklusive Social Login realisiert. Die flexible REST-API ermo?glicht nahtlose Erweiterungen und die Integration verschiedener Cashback-Partner, wa?hrend Docker, Nginx und SSL/TLS fu?r eine robuste, sichere Bereitstellung sorgen. Mit Git, GitHub Actions und CI/CD-Pipelines habe ich einen effizienten Entwicklungsprozess etabliert, der zukunftssichere Anpassungen gewa?hrleistet.

Ich war auch fu?r die Entwicklung eines Proof of Concept (PoC) verantwortlich, um zu pru?fen, ob sich Single Sign-On (SSO) in die bestehende monolithische SAP Commerce (Hybris)-Plattform integrieren la?sst. Nachdem der PoC erfolgreich evaluiert und die Machbarkeit dem Team pra?sentiert wurde, haben wir gemeinsam die na?chsten Schritte detailliert geplant und umgesetzt. Meine Hauptaufgaben umfassten dabei:
1. Migration von Kundendaten: Sichere U?bertragung bestehender Benutzerkonten und Passwo?rter aus SAP Commerce in das Keycloak-Identity-Management-System

2. Nahtlose Benutzerumstellung: Gewa?hrleistung einer unterbrechungsfreien Session-Verwaltung, um laufende Nutzeraktivita?ten wa?hrend der Migration nicht zu beeintra?chtigen.
3. Event-Driven-Architektur: Entwicklung eines ereignisbasierten Modells zur Integration von Keycloak mit externen Drittsystemen.

4. Zentrale E-Mail-Kommunikation: Ersatz der Keycloak-Standardfunktionen durch einen einheitlichen Service fu?r E-Mail-Benachrichtigungen.
5. Sicherheitsimplementierung: Native Einbindung von OAuth 2.0 und OpenID Connect u?ber Spring Security in SAP Commerce.
Zusa?tzlich lag die Projektdokumentation in meiner Verantwortung, ebenso wie die Durchfu?hrung umfangreicher Tests, um die Stabilita?t und Funktionssicherheit der Lo?sung sicherzustellen


Implementierung von Social Sign-In Methoden (Google, AppleID)

Projektziel: Implementierung alternativer Anmeldeverfahren (z. B. Social Logins) und Verbesserung der Benutzerauthentifizierung.
Projektvorbereitung: Ich analysierte zuna?chst die Kundendaten sowie die Struktur der Kontodaten, inklusive Datenbanktabellen, Beziehungen und der zugrunde liegenden Java-Modelle. Auf dieser Basis erstellte ich eine detaillierte Projektplanung mit Schritten zur schrittweisen Einfu?hrung der neuen Anmeldeoptionen.
Umsetzung & Zusammenarbeit: Gemeinsam mit dem Team (insbesondere UX-Designern) entwickelten wir A/B-Tests, um die Akzeptanz der neuen Anmeldeverfahren zu messen. Wichtige umgesetzte Funktionen:
Apple ID Integration: Hidden-Email-Funktion zum Schutz der Nutzerdaten.
Kontoverwaltung: Mo?glichkeit zur A?nderung der registrierten E-Mail-Adresse. Account-Wiederherstellung: Zugriffsrettung u?ber Social Sign-In bei verlorenen Zugangsdaten. Passwortfunktionen: ?Passwort vergessen?-Flow und Vergabe neuer Passwo?rter.
Technische Optimierung:
- Refactoring des bestehenden Codes: Die veraltete Facebook-Sign-In-Implementierung wurde u?berarbeitet.
- Standardisierung: Alle Social-Login-Methoden (z. B. Facebook, Apple ID) wurden mit dem Spring OAuth-Client vereinheitlicht.
Ergebnis: Ho?here Wartbarkeit, einfachere Skalierung und schnellere Integration zuku?nftiger Anmeldeoptionen.


Optimierung der Datenbankleistung durch Zwischenspeicherung & Template-Lo?sungen



Ziel dieses Projekts war es, die Belastung der Datenbank durch regelma?ßige Exporte von Produkt- und Kundendaten in Drittsysteme zu verringern. Dafu?r habe ich ein Projekt initiiert, das auf die Nutzung eines Zwischenspeichers basierend auf Apache Solr setzte. In diesem Fall diente Apache Solr nicht als Suchmaschine, sondern als schnelles Speichersystem, das
großen Datenmengen einen raschen Zugriff ermo?glicht und diese effizient verarbeitet. Dadurch wurde die Hauptdatenbank signifikant entlastet, je nach Anzahl der angebundenen Drittsysteme. Gleichzeitig verbesserten sich die Verarbeitungsgeschwindigkeit der Daten und die Generierung von Ausgabedaten erheblich.
Zusa?tzlich wurde eine Template-Lo?sung eingesetzt, die es erlaubte, neue Ausgabeformate fu?r verschiedene Zielgruppen schnell zu erstellen und anzuwenden. So konnten innerhalb ku?rzester Zeit neue Datenformate entwickelt und an neue Nutzergruppen angepasst werden. Außerdem entwickelte ich eine Anwendung fu?r die Generierung von Produkt-Feeds. Dieses System war modular aufgebaut, basierend auf Transformatoren und Adaptern, und konnte unabha?ngig von den spezifischen Datenquellen oder -konsumenten betrieben werden. Dabei konnte ich wertvolle Erfahrungen in der Implementierung hexagonaler Architekturen sammeln.

Diese Art von Architektur ist mir vertraut, und ich verstehe ihre praktische Bedeutung insbesondere in Bezug auf Domain-Driven Design (DDD)



Java 17 Spring Boot Apache Camel Apache Solr SonarQube Git/GitHub Actions Docker Nexus Docker Registry CI CD Pipelines Terraform MACH-Architektur Hexagonale Architektur DDD ELK Stack AWS DynamoDB S3 EC2 OAuth 2.0 OpenID SAP Commerce Keycloak Quarkus Python NumPy Pandas Scikit TensorFlow Keras NMF Neo4J Redis Kafka RabbitMQ Elastic Search Kotlin
Turnsole Technologies
remote

Aus- und Weiterbildung

Aus- und Weiterbildung

2 Monate
2024-06 - 2024-07

Natural Language Processing

Natural Language ProcessingSpecialization Certificate, DeepLearning.AI
Natural Language ProcessingSpecialization Certificate
DeepLearning.AI
2 Monate
2024-05 - 2024-06

Machine Learning Professional

IBM Machine Learning Professional Certificate, IBM
IBM Machine Learning Professional Certificate
IBM
3 Jahre 1 Monat
2020-09 - 2023-09

Informatik

BSc. Informatik, Hochschule Darmstadt
BSc. Informatik
Hochschule Darmstadt
4 Jahre 1 Monat
2011-09 - 2015-09

Elektrotechnik

BSc. Elektrotechnik, Aleppo University
BSc. Elektrotechnik
Aleppo University

Position

Position

Softwareentwicklung, KI-Entwicklung

Kompetenzen

Kompetenzen

Produkte / Standards / Erfahrungen / Methoden

LangChain
Experte
Pandas
Experte
Spring Boot
Experte
NumPy
Experte
PyTorch
Fortgeschritten
TensorFlow
Fortgeschritten

AI KnowHow:


Exploratory Data Analysis, Statistical Programming, Feature Engineering, Statistical Hypothesis, Testing, Linear Regression, Regression Analysis, Decision Tree, Classification Algorithms, Ensemble Learning, Dimensionality Reduction, Principal Component Analysis (PCA), Unsupervised Learning, Supervised Learning, Machine Learning (ML) Algorithms, Cluster Analysis, K-Means Clustering, Time Series Forecasting, Artificial Neural Networks, Deep Learning, Recurrent Neural Network (RNN), Long Short-Term Memory (LSTM), Gated Recurrent Unit (GRU), Attention Models, Reinforcement Learning, Natural Language Processing (NLP), Sentiment Analysis, Chatbots, Recommender Systems, Fraud Detection, Model Deployment, Streamlit, Pathlib, Langchain, Groq, pandas, StrOutputParser

Programmiersprachen

Java
Experte
Python
Experte
C#
Fortgeschritten
PHP
Fortgeschritten
C++
Basics

Datenbanken

MySQL
Fortgeschritten
SQLite
Fortgeschritten
MongoDB
Fortgeschritten
Oracle
Fortgeschritten
DynamoDB
Fortgeschritten

Branchen

Branchen

Banken und Finanzen

Einsatzorte

Einsatzorte

Frankfurt am Main (+500km)
Deutschland, Österreich
möglich

Projekte

Projekte

1 Jahr 6 Monate
2023-10 - heute

Finanzdatenverarbeitung und ISIN Datenverwaltung

Software Entwickler Spring Boot Java RESTful API ...
Software Entwickler

Automatisierung der Finanzdatenverarbeitung für außländische Börsen

Ich habe für die WM-Gruppe ein Projekt zur Automatisierung der Finanzdatenverarbeitung für Wertpapiere der Börsen entwickelt. Mit Spring Boot, Java, RESTful APIs und Hibernate habe ich Daten über die Börsen-APIs regelmäßig abgerufen und in einer MariaDB gespeichert. Ich nutzte Maven für das Build-Management und Jackson zur JSON Datenverarbeitung. Dadurch wurde die manuelle Arbeit um 15% reduziert und Fehler um 20% minimiert. Mein System verbessert die Datenaktualität erheblich.


Automatisierte ISIN-Datenverwaltung mit interner Web-Oberfläche

Ich habe eine vollständige Lösung zur Verwaltung von ISIN-Daten für Zertifikate und Anleihen entwickelt, die sowohl automatisierte Datenprozesse als auch eine benutzerfreundliche Web-Oberfläche umfasst. Basierend auf Spring Boot und React.js habe ich ein System implementiert, das Mitarbeitern eine intuitive Möglichkeit bietet, ISINs zuzuweisen - inklusive Validierung, Compliance-Prüfung und Audit-Logging.

Die von mir entwickelte RESTful API ermöglicht die nahtlose Integration in bestehende

WM-Systeme, während die interne Web-Anwendung (gesichert durch OAuth2 und

Firmen-SSO) eine effiziente Nutzung direkt im Browser ermöglicht. Ich habe die Lösung mit MariaDB und Hibernate/JPA für maximale Performance umgesetzt und durch

Docker/Kubernetes skalierbar gestaltet.

Meine Implementierung reduziert manuelle Fehler um 30% und verbessert die Datenkonsistenz deutlich. Besonderen Wert habe ich auf Sicherheit gelegt - das System läuft ausschließlich im Firmennetzwerk und protokolliert alle Änderungen lückenlos. Die Architektur erlaubt zudem einfache Erweiterungen für weitere Börsen oder Asset-Klassen.

Ergebnis: Eine robuste, benutzerfreundliche Lösung, die Prozesse beschleunigt und

Compliance-Anforderungen vollständig erfüll.

Spring Boot Java RESTful API JSON XML MySQL MariaDB Hibernate JPA Maven Gradle Apache HttpClient OkHttp Jackson Gson Lombok JUnit Mockito Docker Kubernetes Jenkins Git Log4j SLF4J React.js Hibernate/JPA OAuth2
WM Gruppe
hybrid
1 Jahr 4 Monate
2022-06 - 2023-09

Integrationen für Bankensysteme, KI Entwicklung, Datensammlung und -analyse

Software Entwickler Java Groovy CDI ...
Software Entwickler

Entwicklung einer KI-Chat-Lo?sung auf Basis lokaler LLMs fu?r die Mitarbeiter

Ich habe einen Proof of Concept fu?r einen KI-Chatbot entwickelt, der auf einem lokal betriebenen, von Hugging Face bezogenen und feinabgestimmten Open-Source-LLM basiert. Dieser Chatbot arbeitet ressourcenschonend ohne Cloud-Anbindung und generiert pra?zise SQL-Statements, die erst nach Besta?tigung durch den Nutzer ausgefu?hrt werden ? ein intelligentes "Man-in-the-Middle"-Konzept, das Missversta?ndnisse ausschließt. Fu?r den produktiven Einsatz optimiert, habe ich die Backend-Architektur, Entwicklung und DevOps verantwortet. Die Lo?sung entlastet Mitarbeiter, indem sie die zeitraubende Suche nach Datenbankbefehlen u?berflu?ssig macht, und setzt auf Effizienz, Datensouvera?nita?t sowie moderne Technologien wie LangChain und MariaDB).

Bankweite Datensammlung und -analyse fu?r Software- und Kundeneinfu?hrungen

In diesem Projekt habe ich eine zentrale Plattform zur bankweiten Koordination von Software- und Kundeneinfu?hrungen konzipiert und umgesetzt. Mein Fokus lag darauf, eine einheitliche Datenerfassung und -analyse zu etablieren, um Abha?ngigkeiten von externen Dienstleistern wie Cancom zu reduzieren und einen mo?glichen Wechsel zu erleichtern. Ich entwickelte eine skalierbare Lo?sung, die alle relevanten Systeme, Releases und Kundendaten in Echtzeit aggregiert und visualisiert. Durch den Einsatz von Java, Spring Framework und Kafka baute ich eine robuste Backend-Architektur, wa?hrend ich mit Apache JMeter Lasttests durchfu?hrte, um die Stabilita?t zu gewa?hrleisten. Meine Lo?sung ermo?glichte es, Release-Zyklen transparenter zu gestalten und Engpa?sse fru?hzeitig zu identifizieren. Zudem fu?hrte ich eine YAML-basierte Konfiguration ein, um Anpassungen ohne Code-A?nderungen vornehmen zu ko?nnen. Durch meine Initiative wurden manuelle Prozesse enorm reduziert, und die Bank gewann mehr Kontrolle u?ber ihre IT-Infrastruktur. Das Ergebnis war eine zukunftssichere Plattform, die nicht nur die Ablo?sung externer Dienstleister vereinfachte, sondern auch die Entscheidungsfindung durch datengesteuerte Analysen beschleunigte. Mein Beitrag sicherte eine reibungslose Migration und setzte neue Standards fu?r bankinterne Prozess.

Entwicklung individueller Integrationen fu?r Bankensysteme ? Banking Omnikanal

Ich war dafu?r verantwortlich, die Gescha?ftsanforderungen der Bank technisch umzusetzen. Meine Hauptaufgabe bestand darin, die Integration zwischen verschiedenen Banksystemen zu ermo?glichen, die von unterschiedlichen Entwicklerteams betrieben wurden. Ich habe u?ber 100 Integration-Adapter entwickelt, die als Schnittstelle zwischen den Systemen dienten. Diese Adapter u?bersetzten Datenformate und gewa?hrleisteten die Kommunikation (z. B. zwischen APIs, Datenbanken).

Umsetzung:
- Erstellung von Data Transfer Objects (DTOs) und API-Komponenten basierend auf vordefinierten XML/JSON-Schemata.
- Anpassung von Softwarekomponenten, um sie in das bestehende Integrations-Framework einzubinden.
Testen & Auslieferung:
- Vorbereitung von Testdaten und aktive Mitwirkung in Testphasen (z. B. Integrationstests), um Fehler fru?hzeitig zu erkennen.
- Modularisierte Auslieferung von Komponenten, um eine schrittweise Implementierung in der Produktionsumgebung zu ermo?glichen.
DevOps & Automatisierung:
- Einbindung von Testautomatisierung in die CI/CD-Pipeline (Continuous Testing), um Qualita?t und Geschwindigkeit der Releases zu steigern.

Ergebnis: Durch diese strukturierte Vorgehensweise konnten Integrationen effizient umgesetzt und stabil in der Live-Umgebung betrieben werden.

Weiterentwicklung eines Integrationsframeworks fu?r Banking Omnikanal

In meinem Projekt zur Integration von Bankensystemen lag der Fokus auf der Entwicklung einer zentralen Software-Bibliothek. Diese ermo?glichte es Clientanwendungen, sich nahtlos mit einer unternehmensweiten Integrationsplattform zu verbinden. Das Ziel war, die Teams zu entlasten: Statt individuelle Lo?sungen fu?r die Anbindung zu entwickeln, konnten sie nun einfach vordefinierte Verbindungseinstellungen nutzen.

Eines meiner Kernprojekte in der Integrationsabteilung war die Entwicklung eines Frameworks zur automatisierten Erstellung von Integrationsadaptern. Da sich durch einheitliche Methoden und kontinuierliche Optimierung regelma?ßig neue Anforderungen ergaben, musste das Framework laufend angepasst werden. Typische Anpassungen umfassten:
- Kleinere A?nderungen: Anpassungen der Versionierung oder Benennung.
- Umfangreichere Anpassungen: Strukturelle Anpassungen von Payloads und Headern. Implementierung neuer Technologien
Ein zentraler Meilenstein war die Einfu?hrung des Kafka-Messaging-Protokolls als Ersatz fu?r
IBM MQ. Zudem habe ich das Framework um JSON-basierte Nachrichtenverarbeitung erweitert. Dafu?r setzte ich folgende Schwerpunkte:
- Evaluierung von Tools fu?r die effiziente Verarbeitung von JSON-Daten.
- Konvertierung von JSON in Java-Klassen.
- Serialisierung/Deserialisierung von Java-Objekten.
- Validierung von JSON-Nachrichten anhand definierter JSON-Schemata.


Java Groovy CDI JEE Spring Framework Gradle Git jUnit Mockito Wildfly IBM WebSphere MQ Kafka Jenkins Red Hat Enterprise Linux Bash XML/XSD Altova XMLSpy Jira Confluence YAML-based custom configuration IBM WebSphere MQ Apache JMeter Lasttests UnitTests YAML CI/CD REST-APIs Datenbank-Adapter (SQL/NoSQL) XML/JSON BitBucket Docker Kubernetes Logstash Python ELK-Stack Elastic Search Grafana Kibana ELK JMeter REST Java 21 Kotlin JavaScript HTML MariaDB MySQL PyMySQL PostgreSQL Flask FastAPI Spring Boot Nginx GitHub Actions CI/CD-Tools CI/CD-Pipelines SSL/TLS Hugging Face LangChain Open-Source-LLM-Modelle Pandas Ollama LM Studio LLM
Aareal Bank AG
hybrid
2 Jahre 6 Monate
2019-09 - 2022-02

Upwork Freelancing

Software Engineer Java 11 Gradle JPA (EclipseLink) ...
Software Engineer

Multi-Protocol IoT Sensor Data Collection and Processing System


In diesem Projekt habe ich das Backend eines innovativen Gutschein- und Cashback-Portals

entwickelt und eine skalierbare Architektur mit modernsten Technologien wie Java 21, Kotlin

und Spring Boot entworfen. Durch den Einsatz von Spring Security, Keycloak, OAuth 2.0 und

OpenID Connect habe ich eine sichere Single-Sign-On-Lösung inklusive Social Login realisiert.

Die flexible REST-API ermöglicht nahtlose Erweiterungen und die Integration verschiedener

Cashback-Partner, während Docker, Nginx und SSL/TLS für eine robuste, sichere

Bereitstellung sorgen. Mit Git, GitHub Actions und CI/CD-Pipelines habe ich einen effizienten

Entwicklungsprozess etabliert, der zukunftssichere Anpassungen gewährleistet.

In diesem Projekt habe ich ein verteiltes IoT-System entwickelt, das verschiedene Sensoren über unterschiedliche

Protokolle (TCP/IP und MQTT/UDP) miteinander verbindet. Ich habe einen IoT-Gateway implementiert, der als

zentraler Kommunikationsknoten zwischen Sensoren und Cloud-System dient. Die Cloud-Komponente verarbeitet die

Sensordaten und leitet sie an einen Koordinator weiter, der die Datenverteilung auf zwei Datenbanken verwaltet. Für

die Containerisierung und Orchestrierung habe ich Docker und Docker Compose eingesetzt, während ich MQTT für

die asynchrone Kommunikation zwischen Sensoren und dem Gateway nutzte. Das System ist modular aufgebaut und

ermöglicht eine skalierbare Verarbeitung von Sensordaten in Echtzeit


Pizza-Bestellsystem mit Multi-Rollen-Architektur


Ich habe ein Pizza-Bestellsystem entwickelt, das verschiedene Benutzerrollen (Kunde, Bäcker, Fahrer) unterstützt. Ich

habe eine Datenbankanbindung mit MySQLi implementiert und eine responsive Benutzeroberfläche mit HTML, CSS

und JavaScript erstellt. Das System ermöglicht Kunden das Bestellen von Pizza, Bäckern die Bestellungsverwaltung und

Fahrern die Lieferungsverwaltung. Ich habe AJAX für asynchrone Kommunikation zwischen Frontend und Backend

eingesetzt und eine sichere Authentifizierung implementiert. Die Anwendung folgt dem MVC-Pattern und nutzt

objektorientierte PHP-Programmierung mit Vererbung von einer Basis-Page-Klasse.


Multimedia Billard Tisch


In diesem Projekt habe ich ein innovatives Billard-System entwickelt, das reale Billardkugeln mit digitalen Effekten und

Spielmodi kombiniert. Ich habe ein präzises Tracking-System mit Kinect-Kamera implementiert, das die Position und

Bewegung der Kugeln in Echtzeit erfasst und verarbeitet. Durch die Integration von Unity habe ich eine immersive 3D-

Simulation mit realistischer Physik und verschiedenen Spielmodi (8-Ball, 9-Ball, Trickshot) entwickelt. Ich habe ein

flexibles Regelwerk-System implementiert, das Fouls erkennt und entsprechende Konsequenzen ausführt. Die

Benutzeroberfläche habe ich mit Unity UI Extensions und TextMeshPro gestaltet, während die Dokumentation mit

MkDocs erstellt wurde. Das Projekt wurde in einem agilen Team mit Scrum-Methodik entwickelt, wobei ich die

Verantwortung für verschiedene Komponenten des Systems übernommen habe.


Interaktives Quiz-System zur Wissensvermittlung und -überprüfung


Das Projekt entwickelt ein interaktives Quiz-System zur Wissensvermittlung. Die Implementierung erfolgt in mehreren

Phasen: Zunächst wird eine Datenstruktur für Fragen, Antworten und Kategorien erstellt. Anschließend wird eine

Datenbankanbindung mit JPA implementiert. Das System ermöglicht die zufällige Auswahl von Fragen aus

verschiedenen Kategorien. Spieler können Fragen beantworten und erhalten sofortiges Feedback. Die Spielergebnisse

werden in der Datenbank gespeichert und können analysiert werden. Die Codequalität wird durch Checkstyle und

SpotBugs sichergestellt. Das Projekt folgt dem Google Java Style Guide und nutzt eine CI/CD Pipeline für

automatisierte Tests.









Java 11 Gradle JPA (EclipseLink) PostgreSQL JUnit 5 Git GitLab Checkstyle SpotBugs IntelliJ IDEA Docker Maven Central Repository JPA EntityManager CSV Parser StandardCharsets BufferedReader EntityTransaction EntityManagerFactory Javadoc Google Java Style Guide CI/CD Pipeline OpenJDK Unity C# Python MkDocs GitLab CI/CD Emgu CV (OpenCV für .NET) Kinect SDK Newtonsoft.Json .NET Framework 4.7.2 Windows Forms MQTT 3D-Modellierung Computer Vision Echtzeit-Visualisierung Scrum/Agile Methoden Unity UI Extensions Unity Timeline Unity TextMeshPro Unity UGUI Unity Physics Engine PHP 7.4 MySQLi HTML CSS JavaScript jQuery Bootstrap Apache MariaDB Docker Compose PHPMyAdmin Java Maven UDP TCP/IP Thrift Eclipse Mosquitto Portainer JSON Microservices Architecture Apache Thrift JUnit (for testing) Git (for version control) IntelliJ IDEA (for development) Windows PowerShell YAML
Upwork
remote
1 Jahr 6 Monate
2018-04 - 2019-09

KI-basiertes Empfehlungssystem

Software Engineer Java 17 Spring Boot Apache Camel ...
Software Engineer

Ich habe ein intelligentes Buch-Empfehlungssystem entwickelt, das Lesern personalisierte Vorschla?ge basierend auf ihren Vorlieben und Lesegewohnheiten bietet. Das System nutzt moderne Machine-Learning-Verfahren wie kollaboratives Filtern, Content-Based Filtering und Neuronale Netze, um passende Bu?cher vorherzusagen. Zusa?tzlich kommen Algorithmen wie KNN, Clustering und Matrix-Faktorisierung (NMF) zum Einsatz, um pra?zise Empfehlungen zu generieren. Die Webanwendung ist mit Python (Flask) umgesetzt und la?sst sich einfach in bestehende Plattformen integrieren. Mein Ziel war es, ein skalierbares System zu schaffen, das nicht nur Bu?cher vorschla?gt, sondern auch die Nutzerbindung erho?ht.


Ich das Backend eines innovativen Gutschein- und Cashback-Portals entwickelt und eine skalierbare Architektur mit modernsten Technologien wie Java 21, Kotlin und Spring Boot entworfen. Durch den Einsatz von Spring Security, Keycloak, OAuth 2.0 und OpenID Connect habe ich eine sichere Single-Sign-On-Lo?sung inklusive Social Login realisiert. Die flexible REST-API ermo?glicht nahtlose Erweiterungen und die Integration verschiedener Cashback-Partner, wa?hrend Docker, Nginx und SSL/TLS fu?r eine robuste, sichere Bereitstellung sorgen. Mit Git, GitHub Actions und CI/CD-Pipelines habe ich einen effizienten Entwicklungsprozess etabliert, der zukunftssichere Anpassungen gewa?hrleistet.

Ich war auch fu?r die Entwicklung eines Proof of Concept (PoC) verantwortlich, um zu pru?fen, ob sich Single Sign-On (SSO) in die bestehende monolithische SAP Commerce (Hybris)-Plattform integrieren la?sst. Nachdem der PoC erfolgreich evaluiert und die Machbarkeit dem Team pra?sentiert wurde, haben wir gemeinsam die na?chsten Schritte detailliert geplant und umgesetzt. Meine Hauptaufgaben umfassten dabei:
1. Migration von Kundendaten: Sichere U?bertragung bestehender Benutzerkonten und Passwo?rter aus SAP Commerce in das Keycloak-Identity-Management-System

2. Nahtlose Benutzerumstellung: Gewa?hrleistung einer unterbrechungsfreien Session-Verwaltung, um laufende Nutzeraktivita?ten wa?hrend der Migration nicht zu beeintra?chtigen.
3. Event-Driven-Architektur: Entwicklung eines ereignisbasierten Modells zur Integration von Keycloak mit externen Drittsystemen.

4. Zentrale E-Mail-Kommunikation: Ersatz der Keycloak-Standardfunktionen durch einen einheitlichen Service fu?r E-Mail-Benachrichtigungen.
5. Sicherheitsimplementierung: Native Einbindung von OAuth 2.0 und OpenID Connect u?ber Spring Security in SAP Commerce.
Zusa?tzlich lag die Projektdokumentation in meiner Verantwortung, ebenso wie die Durchfu?hrung umfangreicher Tests, um die Stabilita?t und Funktionssicherheit der Lo?sung sicherzustellen


Implementierung von Social Sign-In Methoden (Google, AppleID)

Projektziel: Implementierung alternativer Anmeldeverfahren (z. B. Social Logins) und Verbesserung der Benutzerauthentifizierung.
Projektvorbereitung: Ich analysierte zuna?chst die Kundendaten sowie die Struktur der Kontodaten, inklusive Datenbanktabellen, Beziehungen und der zugrunde liegenden Java-Modelle. Auf dieser Basis erstellte ich eine detaillierte Projektplanung mit Schritten zur schrittweisen Einfu?hrung der neuen Anmeldeoptionen.
Umsetzung & Zusammenarbeit: Gemeinsam mit dem Team (insbesondere UX-Designern) entwickelten wir A/B-Tests, um die Akzeptanz der neuen Anmeldeverfahren zu messen. Wichtige umgesetzte Funktionen:
Apple ID Integration: Hidden-Email-Funktion zum Schutz der Nutzerdaten.
Kontoverwaltung: Mo?glichkeit zur A?nderung der registrierten E-Mail-Adresse. Account-Wiederherstellung: Zugriffsrettung u?ber Social Sign-In bei verlorenen Zugangsdaten. Passwortfunktionen: ?Passwort vergessen?-Flow und Vergabe neuer Passwo?rter.
Technische Optimierung:
- Refactoring des bestehenden Codes: Die veraltete Facebook-Sign-In-Implementierung wurde u?berarbeitet.
- Standardisierung: Alle Social-Login-Methoden (z. B. Facebook, Apple ID) wurden mit dem Spring OAuth-Client vereinheitlicht.
Ergebnis: Ho?here Wartbarkeit, einfachere Skalierung und schnellere Integration zuku?nftiger Anmeldeoptionen.


Optimierung der Datenbankleistung durch Zwischenspeicherung & Template-Lo?sungen



Ziel dieses Projekts war es, die Belastung der Datenbank durch regelma?ßige Exporte von Produkt- und Kundendaten in Drittsysteme zu verringern. Dafu?r habe ich ein Projekt initiiert, das auf die Nutzung eines Zwischenspeichers basierend auf Apache Solr setzte. In diesem Fall diente Apache Solr nicht als Suchmaschine, sondern als schnelles Speichersystem, das
großen Datenmengen einen raschen Zugriff ermo?glicht und diese effizient verarbeitet. Dadurch wurde die Hauptdatenbank signifikant entlastet, je nach Anzahl der angebundenen Drittsysteme. Gleichzeitig verbesserten sich die Verarbeitungsgeschwindigkeit der Daten und die Generierung von Ausgabedaten erheblich.
Zusa?tzlich wurde eine Template-Lo?sung eingesetzt, die es erlaubte, neue Ausgabeformate fu?r verschiedene Zielgruppen schnell zu erstellen und anzuwenden. So konnten innerhalb ku?rzester Zeit neue Datenformate entwickelt und an neue Nutzergruppen angepasst werden. Außerdem entwickelte ich eine Anwendung fu?r die Generierung von Produkt-Feeds. Dieses System war modular aufgebaut, basierend auf Transformatoren und Adaptern, und konnte unabha?ngig von den spezifischen Datenquellen oder -konsumenten betrieben werden. Dabei konnte ich wertvolle Erfahrungen in der Implementierung hexagonaler Architekturen sammeln.

Diese Art von Architektur ist mir vertraut, und ich verstehe ihre praktische Bedeutung insbesondere in Bezug auf Domain-Driven Design (DDD)



Java 17 Spring Boot Apache Camel Apache Solr SonarQube Git/GitHub Actions Docker Nexus Docker Registry CI CD Pipelines Terraform MACH-Architektur Hexagonale Architektur DDD ELK Stack AWS DynamoDB S3 EC2 OAuth 2.0 OpenID SAP Commerce Keycloak Quarkus Python NumPy Pandas Scikit TensorFlow Keras NMF Neo4J Redis Kafka RabbitMQ Elastic Search Kotlin
Turnsole Technologies
remote

Aus- und Weiterbildung

Aus- und Weiterbildung

2 Monate
2024-06 - 2024-07

Natural Language Processing

Natural Language ProcessingSpecialization Certificate, DeepLearning.AI
Natural Language ProcessingSpecialization Certificate
DeepLearning.AI
2 Monate
2024-05 - 2024-06

Machine Learning Professional

IBM Machine Learning Professional Certificate, IBM
IBM Machine Learning Professional Certificate
IBM
3 Jahre 1 Monat
2020-09 - 2023-09

Informatik

BSc. Informatik, Hochschule Darmstadt
BSc. Informatik
Hochschule Darmstadt
4 Jahre 1 Monat
2011-09 - 2015-09

Elektrotechnik

BSc. Elektrotechnik, Aleppo University
BSc. Elektrotechnik
Aleppo University

Position

Position

Softwareentwicklung, KI-Entwicklung

Kompetenzen

Kompetenzen

Produkte / Standards / Erfahrungen / Methoden

LangChain
Experte
Pandas
Experte
Spring Boot
Experte
NumPy
Experte
PyTorch
Fortgeschritten
TensorFlow
Fortgeschritten

AI KnowHow:


Exploratory Data Analysis, Statistical Programming, Feature Engineering, Statistical Hypothesis, Testing, Linear Regression, Regression Analysis, Decision Tree, Classification Algorithms, Ensemble Learning, Dimensionality Reduction, Principal Component Analysis (PCA), Unsupervised Learning, Supervised Learning, Machine Learning (ML) Algorithms, Cluster Analysis, K-Means Clustering, Time Series Forecasting, Artificial Neural Networks, Deep Learning, Recurrent Neural Network (RNN), Long Short-Term Memory (LSTM), Gated Recurrent Unit (GRU), Attention Models, Reinforcement Learning, Natural Language Processing (NLP), Sentiment Analysis, Chatbots, Recommender Systems, Fraud Detection, Model Deployment, Streamlit, Pathlib, Langchain, Groq, pandas, StrOutputParser

Programmiersprachen

Java
Experte
Python
Experte
C#
Fortgeschritten
PHP
Fortgeschritten
C++
Basics

Datenbanken

MySQL
Fortgeschritten
SQLite
Fortgeschritten
MongoDB
Fortgeschritten
Oracle
Fortgeschritten
DynamoDB
Fortgeschritten

Branchen

Branchen

Banken und Finanzen

Vertrauen Sie auf Randstad

Im Bereich Freelancing
Im Bereich Arbeitnehmerüberlassung / Personalvermittlung

Fragen?

Rufen Sie uns an +49 89 500316-300 oder schreiben Sie uns:

Das Freelancer-Portal

Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.