Architekt für KI, Big Data, DevOps & Cloud-native Architekturen. Fokus auf Kubernetes, IaC, CI/CD & sichere, skalierbare Infrastrukturen.
Aktualisiert am 25.02.2026
Profil
Freiberufler / Selbstständiger
Remote-Arbeit
Verfügbar ab: 02.03.2026
Verfügbar zu: 100%
davon vor Ort: 100%
Kubernetes
DevOps
Cloud Architect
Java
Spring
AWS
Azure
Big Data
Terraform
Flux
Apache Druid
Infrastructure as code
Helm
CI/CD
GitOps
Künstliche Intelligenz
Security Konzepte
Arc42
Deutsch
Muttersprache
Englisch
Verhandlungssicher

Einsatzorte

Einsatzorte

Deutschland, Schweiz, Österreich
möglich

Projekte

Projekte

6 Monate
2025-09 - heute

Konzeption und Implementierung von Data Philter

Lead AI Architect & Developer Sovereign AI Agentic AI Local-First ...
Lead AI Architect & Developer

Konzeption und Implementierung von Data Philter, einer Sovereign AI Enterprise-Grade Plattform für datenschutzkonforme KI-Agenten. Der Ansatz verfolgt eine Local-First -Strategie (Air-Gapped,On-Premise, Edge), bei der spezialisierte "Tool-Calling Agents" lokal oder in privaten Clustern laufen. Die Architektur ist über Kubernetes skalierbar und nutzt GPU-Beschleunigung (Nvidia GPU Operator) für High-Performance-Inferenz, integriert bei Bedarf aber auch Cloud-Modelle wie Azure OpenAI Service oder AWS Bedrock. Architektur und Entwicklung von Data Philter, einer agentenbasierten "Sovereign AI" Middleware. Fokus auf Public Sector (VS-NfD), DORA-konforme Umgebungen (Banken) und Industrial Edge. Bringt eine fertige "AI-in-a-Box" Architektur mit. Spart dem Kunden 6+ Monate Entwicklungszeit für Compliance-konforme KI. Die Architektur ist über Kubernetes skalierbar und nutzt GPU-Beschleunigung (Nvidia GPU Operator) für High-Performance-Inferenz. Sie bietet eine fertige "AI-in-a-Box" Lösung, die Entwicklungszeit massiv reduziert.

  • Time-Series Datenbanken: Implementierung der Unterstützung für Time-Series-Datenbanken wie Apache Druid und ClickHouse für performante Echtzeitanalysen mittels natürlicher Sprache.
  • Enterprise SQL: Direkte integration klassischer SQL-Datenbanken (PostgreSQL, MySQL, MariaDB, SQL Server, SAP HANA) um eine breite Unterstützung für relationale Standard-Datenbanken sicherzustellen.
  • Dynamic Tooling: Entwicklung einer Agentic Workflow Engine zur dynamischen Generierung von MCP-Tools aus existierenden APIs (via Swagger/OpenAPI). Ergänzend wurde ein "SearchTool" für LLMs implementiert, das Agenten befähigt, aus einer umfangreichen Tool-Bibliothek selbstständig das passendste Werkzeug zu wählen und so Context-Window-Limitierungen zu umgehen.
  • Multi Model Tool Calling: Flexibler Einsatz spezialisierter Modelle (Llama 3, Phi-4) für komplexe Aufgabenketten.
  • Model Fine-Tuning: Implementierung effizienter Fine-Tuning-Pipelines (LoRA/QLoRA) zur Anpassung von Modellen an hochwertige interne Daten. Ergänzend wurden Techniken für iteratives Fine-Tuning basierend auf Feedback-Loops (Human-in-the-Loop) integriert.
  • Agentic Mesh: Entwicklung und Validierung von "Agentic Mesh"-Konzepten zur effektiveren Sequenzierung und Clusterung von MCP- und API-Tool-Aufrufen, optimiert für kleinere Modelle.
  • Grounding & Decontextualization: Sicherstellung von Fakten-Treue (Grounding) durch Tool-Verifikation und automatische Tool-Discovery. Nutzung von Vektorsuche in Tool-Calls sowie automatische Zusammenfassungen vorheriger Interaktionen zur Kontextoptimierung.
  • Sovereign & Air-Gapped AI: Architektur läuft ohne Internetverbindung (Offline-First) auf Edge-Devices (Dell Precision, HP Z) und in Kubernetes-Clustern.
  • LLM Optimization & Edge Engineering: Einsatz von Quantisierung (GGUF, AWQ) zur Maximierung der Inferenz-Performance auf begrenzter Hardware (NPU/Consumer GPU) und Reduktion des VRAM-Footprints.

ClickHouse PostgreSQL MySQL MariaDB SQL Server SAP HANA Java (Spring Boot) Python C++ Apache Druid
Sovereign AI Agentic AI Local-First NL2SQL Dynamic Tool Creation Agentic Mesh Grounding Kubernetes (K8s) Nvidia GPU Operator KAI Helm Docker Ollama Llama 3 Phi-4 Mistral Aura Models TensorRT-LLM AMD Ryzen AI / ROCm OpenAI Azure OpenAI AWS Bedrock LoRA QLoRA Model Context Protocol (MCP) OpenAPI / Swagger REST OData JDBC MQTT SAP JCo
AI, Big Data, Sovereign AI
3 Monate
2025-07 - 2025-09

MCP SERVER FÜR APACHE DRUID

TechLead Oauth2 Spring AI annotations Model Context Protocol (MCP) 2025-06-18 ...
TechLead

  • Konzeption, Implementierung und Veröffentlichung eines Enterprise-grade MCP Servers für Apache Druid, mit Fokus auf Skalierbarkeit, Sicherheit und Hochverfügbarkeit. Der MCP Server ermöglicht die nahtlose Integration von KI-Assistenten in Apache DruidCluster und leistet einen wesentlichen Beitrag im Bereich der Integration von KI mit BigData-Plattformen
  • Die Lösung nutzt das Model Context Protocol (MCP), um eine robuste Schnittstelle für die Verwaltung und Analyse von Druid-Datenbanken durch KI-gestützte Prompts zu schaffen
  • Die funktionsbasierte Architektur stellt Tools, Resources und anpassbare PromptTemplates zur Verfügung. Zu den Kernmerkmalen zählen die automatische Generierung von JSON-Schemata, multiple Transportmodi (STDIO, SSE, Streamable HTTP), umfassende Fehlerbehandlung, OAuth 2.0 und ein schreibgeschützter Modus
  • Die Funktionsweise des Servers wird im YouTube-Video demonstriert
    • Konzeption und Implementierung einer robusten, Tool-basierten Architektur, die dem MCP-Protokoll folgt und automatisch JSON-Schemas für eine validierbare API-Definition generiert
    • Etablierung einer funktionsbasierten Paketstruktur zur Gewährleistung von Wartbarkeit und Skalierbarkeit
    • Entwurf eines flexiblen Systems für anpassbare Prompt-Vorlagen, das eine einfache Adaption an unternehmensspezifische Anforderungen ermöglicht
    • Entwicklung des hochverfügbaren MCP-Servers unter Verwendung von Spring Boot und Spring AI, um eine nahtlose Integration von KI-Assistenten mit Apache Druid zu gewährleisten
    • Implementierung und Unterstützung für diverse Transportmodi (STDIO, SSE und Streamable HTTP), um eine breite Konnektivität sicherzustellen
    • Implementierung einer automatischen Erkennung von Tools, Ressourcen und Prompts durch Annotationen zur Vereinfachung der Konfiguration und Erweiterung
    • Implementierung eines schreibgeschützten Modus als Reaktion auf Community-Feedback, um die Datenintegrität zu gewährleisten und um unbeabsichtigte Änderungen am Druid-Cluster zu verhindern
    • Absicherung der Anwendung auf Enterprise-Niveau mittels Spring Security und OAuth2
    • Containerisierung mit Docker und Orchestrierung durch Kubernetes für einen skalierbaren und ausfallsicheren Betrieb
    • Unterstützung einer Vielzahl von Anwendungsfällen, von Datenexploration über Data-Science bis hin zum DevOps-Management und Operations-Betrieb
    • Implementierung eines umfassenden Monitorings zur Erfassung von Nutzungsmetriken zur kontinuierlichen Optimierung
  • Das Projektergebnis ist ein hochfunktionaler und sicherer MCP-Server, der die Verwaltung und Analyse von Apache Druid Clustern mittels KI-Assistenten vereinfacht. Das Projekt demonstriert tiefgreifende Kenntnisse in der Entwicklung komplexer, KI-gestützter Datenlösungen und deren Umsetzung in die Praxis

Java Bash Spring Boot Spring AI Spring Security Apache Druid Docker Kubernetes Docker image Github Action pipeline Github releases maven central FluxCD Model Context Protocol Registry
Oauth2 Spring AI annotations Model Context Protocol (MCP) 2025-06-18 STDIO SSE Streamable HTTP JSON Schema
Iunera GmbH & Co KG
1 Monat
2025-07 - 2025-07

LIBRECHAT INVESTMENT AI

TechLead AI RAG (Retrieval-Augmented Generation) Vectorsearch ...
TechLead

Auf Basis der Open-Source-Plattform LibreChat wurde die prototypische Entwicklung eines persönlichen KI-Assistenten für Investitionsentscheidungen vorangetrieben. Das Kernkonzept war die Nutzung von Retrieval-Augmented Generation (RAG) zur Analyse von Finanzdaten und -nachrichten. Zusätzlich wurde prototypisch die Integration von YouTube-Transkriptionen bekannter Finanzinfluencer implementiert. Ziel war es, Anlegern ein Werkzeug zur Verfügung zu stellen, das komplexe Fragen zu Aktien und Märkten beantworten kann Die technische Umsetzung umfasste folgende Punkte:

  • Konzeption, Implementierung und Veröffentlichung eines Helm-Charts für die Bereitstellung von LibreChat auf Kubernetes
  • MCP Servers für die Bereitstellung von aktuellen Finanzmarktdaten und MCP Server for die Bereitstellung von RAG Funktionalität
  • Das Helm-Chart ermöglicht eine einfache und schnelle Bereitstellung von LibreChat inklusive aller Abhängigkeiten wie MongoDB und Meilisearch
  • Das Chart ist für den Einsatz in Produktionsumgebungen konzipiert und bietet eine hohe Konfigurierbarkeit
  • Behebung von Sicherheitsproblemen im ursprünglichen Helm-Chart, insbesondere im Umgang mit Credentials (CREDS_*, JWT_*).
  • Implementierung der Fähigkeit, MCP-Server als Docker-Container (über Docker-Socket-Mounting, FS-Berechtigungen und Docker-CLI) oder als Kubernetes-Pods (mit RBAC und Service-Accounts) auszuführen
  • Automatisierte Tests und CI/CD-Pipelines für das Helm-Chart
  • Erstell?ung einer umfassenden Dokumentation für die Installation und Konfiguration
GitHub Actions Kubernetes Helm Docker Containerd LibreChat MCP Server (STIO/SSE) Meilisearch MongoDB
AI RAG (Retrieval-Augmented Generation) Vectorsearch CI/CD GitOps RBAC ServiceAccounts
Iunera GmbH & Co KG
3 Monate
2025-04 - 2025-06

NLWEB

AI Expert / TechLead / Developer Retrieval-Augmented Generation (RAG) JSON-LD Schemaorg ...
AI Expert / TechLead / Developer

Konzeption und Implementierung einer produktionsbereiten NLWeb-Implementierung auf der Wordpress-Seite. Entwicklung eines Chatbots, der das Wissen von der Unternehmenswebsite, einschließlich Blog und Wiki, nutzt

  • Erstellung von JSON-LD und Schema .org-konformen Datenstrukturen aus Blog und Wiki Seiten
  • Containerisierung der Anwendung mittels Docker als Contribution von NLWeb und Bereitstellung als Helm-Chart
  • Entwicklung der Benutzeroberfläche (UI) für den Chatbot
  • Implementierung von Embedding- und Vektorsuch-Funktionen mit Azure AI Search
  • Einsatz von Retrieval-Augmented Generation (RAG) zur Verbesserung der Chatbot-Antworten
  • Konfiguration von CI/CD-Pipelines mit Github Actions
  • Integration von Wordpress-Plugins:
    • NLWebView for Wordpress
    • JSONLD exporter
    • Wordpress JSONLD exporter Plugin
  • Einbindung der nlweb-js-client Javascript-Bibliothek
  • Deployment der NLWeb-Instanz in Kubernetes nach GitOps-Prinzipien mit FluxCD
Kubernetes Docker Helm Wordpress Javascript Typescript Python Azure AI Search (Vector DB) Qdrant Milvus Postgres(PGVector) Github Actions FluxCD (GitOps) OpenAI API Gemini
Retrieval-Augmented Generation (RAG) JSON-LD Schemaorg NLWeb MCP MCP Gateways AI Agents TextEmbeddings
Iunera GmbH & Co KG
10 Monate
2024-07 - 2025-04

OCTL

Lead Developer, Architect Smart Contracts AI Agents JSON-LD ...
Lead Developer, Architect

  • Konzeption und Entwicklung einer dezentralen Opensource Plattform für Software-Lizenzierung mittels Krypto-Token (OCTL - Open Compensation Token License) unter Verwendung von NFTs und Smart Contracts auf der Ethereum/Arbitrum-Blockchain
  • Implementierung von Smart Contracts zur Automatisierung der Lizenzvergabe, der Berechnung von Lizenzgebühren (basierend auf "Story Points") und der Verteilung der Einnahmen an die Ersteller
  • Erstellung von "Code Tokens" (NFTs), die Eigentums- und Lizenzgebührenrechte für digitale Artefakte wie Code-Commits oder Bibliotheken repräsentieren
  • Aufbau einer Website mit Node.js, Angular und MongoDB zur Verwaltung und Darstellung der Lizenzen
  • Aufbau einer Website mit Node.js und Angular für das Projekt, inklusive eines Metamask-Logins für die Front- und Backend-Authentifizierung incl. Caching, Angular SSR und Markdown-zu-HTML-Darstellung im Wiki
  • Entwicklung eines gehärteten und rate-limitierten Backends mit Node.js, Express und MongoDB
  • Automatisierte Erstellung von Website-Content mithilfe eines KI-generierten CMS (OpenAI, AI Agents) zur Erläuterung des Lizenzmodells und zur Generierung von SEO optimierten Wikiartikeln
  • Automatisierte Veröffentlichung und Bewerbung der generierten Artikel (Social-Media-Outreach) auf Plattformen wie Bluesky, Steemit, Nostr und dev .to unter Verwendung von Bots zur Maximierung der Reichweite
  • Definition und Implementierung von CI/CD-Pipelines mit GitHub Actions, Docker, Kubernetes und Helmcharts für automatisierte Tests und Deployments
  • Nutzung von Cloudflare für Sicherheit und Performance-Optimierung der Web-Anwendungen
  • Anwendung des "Faircode"-Prinzips zur fairen Vergütung von Open-Source-Beiträgen
  • Einsatz von KI-Assistenten und Agenten für Coding-Aufgaben (Agentic Web, Professional Developer Vibe Coding)
Node.js Express Angular Angular SSR MongoDB Ethereum Solidity ethers.js OpenAI API Ollama Grok Gemini Github Actions Cloudflare Bluesky Steemit Nostr devto APIs Metamask
Smart Contracts AI Agents JSON-LD Faircode
Iunera GmbH & Co KG
5 Jahre 1 Monat
2019-12 - 2024-12

FAHRBAR 2.0

Geschäftsführer / TechLead Hochverfügbarer Apache Druid Cluster Kubernetes API Erweiterungen (CRDs) Zookeeper-less Setup ...
Geschäftsführer / TechLead

Konzeption, Implementierung und Betrieb einer Cloudlösung für den Betrieb der iunera Microservice Architektur zur Analyse und Auswertung von Ein-/Aussteigerdaten und der Vorhersage von Belegungsdaten einzelner Busse und Bahnen. Die Cloudlösung ist komplett auf einem selbstgehosteten baremetal Kubernetes Cluster bereitgestellt mit einer vollständigen Containerisierung aller Dienste (incl. redundante Datenbanken). Entwicklung- und Testsysteme werden auf AKS bereitgestellt. Die Gesamtlösung besteht aus folgenden Eckpunkten:

  • Spring Boot Microservice Architektur für Business Logik (Kappa, Lambda to Kappa (Streamification))
  • DevOps /GitOps Continuous Deployment aller Container, Dienste und Konfigurationen mittels Azure Devops und Flux
  • Flink Cluster zur Analyse & Prozessierung der Echtzeitdaten
  • Verteilte Apache Druid Datenbank für Timeseries Aggregierte Daten
  • Containerisierter Kafka Cluster (incl. Zookeeper) als verteilter Datastream der Echtzeitdaten
  • Multimandantenfähiges Juypterhub als Datascience/AI Workbench
  • Metabase, Zeppelin, Superset für Adhoc Auswertungen und Dashboards
  • MongoDB für NoSQL basierte Daten
  • Minio S3 als Objektspeicher und Dropzone für die Lieferantendaten (Multimanadtenfähig)
  • Azure Storageaccount als Spiegel des Objektspeichers
  • Single Sign-on mit EntraID und Dex (Bereitstellung der EntryID Einstellungen per Devops mit Terraform)
  • Postgres für relationale Datenbanken
  • Verteilter Rook Ceph FS als Block Storage Backend
  • Hoch verfügbarer Nginx-Ingress als SSL Reverse Proxy
  • Cert Manager Operator für Ingress Zertifikate (Lets Encrypt) und als interne PKI
  • Zentrale Logs und Metriken mit Grafana, Prometheus, Loki Stack
  • Baremetal Knoten (Ubuntu) Konfiguration & Administration per Ansible
  • Umsetzung von Entwicklung- und Testsysteme auf AKS & Terraform basis
  • Hochverfügbarer (keepalived) nativer Kubernetes Cluster
  • VPC-like privates Netzwerk per VLANs und Weave Networks mit Node-to-Node Encryption at transit (IPSec)
  • Single-Sign On and allen Komponenten mit Azure Active Directory (Oauth2)
  • BMDV Projekt Fahrbar20
    • Veröffentlichung des vom Bundesministerium für Verkehr geförderten Projekts "fahrbar20" zur KI-basierten Optimierung der Auslastung im öffentlichen Nahverkehr. Die technischen Projektergebnisse wurden als Open Source auf GitHub veröffentlicht
    • Ein produktionsbereiter, Kubernetes-nativer Apache Druid Cluster, der über GitOps mit druid-operator und fluxcd verwaltet wird und ein Zookeeper-less Setup verwendet
    • Das Setup ermöglicht Autoscaling durch Kubernetes-Jobs und horizontales Pod-Autoscaling für Historical-Knoten und beinhaltet TLS-Verschlüsselung, OAuth2-Login und ein Autorisierungskonzept
    • Eine Druid-Erweiterung zur Ausführung von Python- und Java-Code während der Druid-Ingestion-Jobs
    • Konfiguration für einen Jupyterhub-Cluster auf Kubernetes-Basis unter Verwendung des Jupyterhub-Helm-Charts und FluxCD als GitOps-Tool. Es bietet dedizierte IDEs für Benutzer mit Single-Sign-On (SSO) über Azure DevOps
    • Generische Java-Datentypen für den öffentlichen Nahverkehr mit einer Fuzzy-Hashing-Technik zum Abgleich von Daten aus verschiedenen Quellen
    • Konfiguration für einen Apache Kafka Cluster auf Kubernetes-Basis, der den Strimzi Kafka Operator und FluxCD für die GitOps-Bereitstellung verwendet. Beinhaltet die Bereitstellung von CMAK und AKHQ zur Überwachung
    • Konfiguration für einen MongoDB Cluster auf Kubernetes-Basis, der den mongodb-kubernetes-operator und FluxCD für die GitOps-Bereitstellung verwendet. Das Setup umfasst dedizierte MongoDB-Cluster pro Projekt, RBACs und die Verwaltung von Secrets mit SOPS
    • Generische Azure DevOps-Pipeline-Vorlagen für Docker- und Helm-basierte Bereitstellungen
    • GitOps-basierter Flink Cluster auf Basis des Apache Flink Kubernetes Operators
  • Aus Kostengründen sind alle Dienste auf gemieteter dedizierter Hardware implementiert, was den Preis beim Dauerbetrieb vergleichbarer Microsoft Azure und Amazon Webservices auf ein Zehntel deren reduziert. Bei hoher Last von Microservices und Analytics Jobs können vorübergehen Public Cloudressourcen (Azure) hinzugefügt werden (Public Cloud Burstout). Entwicklung- und Testsysteme werden temporär und bei Bedarf automatisiert auf AKS bereitgestellt
Kubernetes Docker Containerd AngularJS Maven Kubernetes 1.29 (und frühere seit 1.17/ Nativ und AKS) Kafka Zookeeper Strimzi Operator Flink Cluster Operator (Apache Flink Kubernetes Operator) Dedicated Bare Metal Server von Hetzner Ubuntu Server (secure) Java Kotlin Javascript/Typescript Ansible Shell Python Terraform Go druid-operator fluxcd mongodb-kubernetes-operator Helm Charts Charts Repos auf Github Nginx Ingress Controller Certmanager Operator Letsencrypt KeepaliveD Rook Ceph Operator ZFS MinIO S3 Object Storage Azure Storage Accounts Azure EntraID Dex MongoDB Postgres MySQL SOPS mittels Azure Keyvault im nativen Kubernetes Cluster Grafana Prometheus (& -Adapter) Loki Promtail CMAK AKHQ Strimzi Kafka Operator Azure Devops (YAML Pipelines/ Releasemanagement / GIT) Flux Gitops Github Actions OpenSSL Firewalls (UFW/ Fail2Ban)
Hochverfügbarer Apache Druid Cluster Kubernetes API Erweiterungen (CRDs) Zookeeper-less Setup horizontales Pod-Autoscaling (HPA) für Historical-Knoten private PKI LDAP Oauth2 Anonymous Access RBACS Application lifecycle management Agile Entwicklung Scrum Kanban Devops Gitops PromQL Verschlüsselung / Kryptographie VPN PKI Encapsulation/Tunneling (IPSec) DNAT/SNAT HTTPS HTTP (Reverse) Proxies Proxy Protokoll Public Key Verfahren (Zertifikate/ TLS/ PKI/ Lets Encrypt) Routing IP Subnetting Spring Boot Microservices Architekturen (Spring Boot/Spring WebMVC) Spring Boot Microservices Architekturen (Spring Data/Spring Security/Oauth2)
gerne auf Anfrage
9 Monate
2024-03 - 2024-11

CLOUDRIDERS

Managing Architect für Devops von AWS und Azure Cloud Accounts unter Einhaltung der Governance-Vorgaben sowie dem Gitops Prinzip CRDs HPA Network Policies ...
Managing Architect für Devops von AWS und Azure Cloud Accounts unter Einhaltung der Governance-Vorgaben sowie dem Gitops Prinzip

Umfassende Architektur- und Implementierungstätigkeiten in den Bereichen Cloud Governance, Automatisierung und Betrieb der konzernweiten AWS und Azure Clouds

  • Beratung und Governance (DB Systel):
    • Beratung der Stakeholder, des Managements und der Umsetzungsteams zur Implementierung neuer projektspezifischer Cloud Accounts und Cloud Account Klassen
    • Anforderungsanalyse unter Einhaltung der konzernweiten Cloud Governance und Security-Vorgaben sowie Gitops Prinzipien
    • Ausarbeitung und Einreichung eines Umsetzungsvorschlags zur Erweiterung der Cloud Governance
    • Erstellung und Pflege von Architektur- und Design-Dokumentationen
    • Fachliche Beratung und Coaching des Azure-Teams zu Best Practices für GitOps, Terraform, Kubernetes und Bootstrapping-Prozesse
    • Beratung des Cloud Governance Teams bei der Weiterentwicklung und Anpassung von AWS Service Control Policies (SCPs)
  • Cloud-Automatisierung (DB Systel) im Bereich Microsoft Azure:
    • Entwurf und Umsetzung von Disaster Recovery und Bootstrapping-Szenarien für AWS- und Azure-Landezonen
    • Architektur, Konzeption und Implementierung einer umfassenden Management-Infrastruktur für unternehmensweite Azure Landing Zones. Die Umsetzung mittels Bicep schuf eine skalierbare, sichere und konforme Cloud-Infrastruktur nach GitOps-Prinzipien, welche die vollständige Wiederherstellbarkeit im Desasterfall (Bootstrap-Ready) gewährleistet. Die Lösung deckt die Bereiche Logging, Express Routes, Networking, DNS, Security, Identity und Monitoring ab
    • Durchführung eines Proof of Technology (PoT) zur Evaluierung des Einsatzes von Azure Firewalls im Unternehmenskontext
    • Konzeption und Implementierung einer hochverfügbaren und skalierbaren, unternehmensweiten Azure Private Resolver Strategie für eine nahtlose und sichere DNS-Namensauflösung in hybriden Cloud-Umgebungen. Die Umsetzung erfolgte mittels Bicep und ersetzte das aufwändige, Subscription- und VNet-spezifische Konfigurieren von DNS-Einstellungen. Dies ermöglichte die direkte Nutzung von Azure Private Link und Private Endpoint Funktionalität ohne die Notwendigkeit von Umleitungen im zentralen, konzernweiten DNS
    • Entwicklung einer Gitlab-Pipeline zur zentralen und äquivalenten Verwaltung von DNS-Weiterleitungen für AWS und Azure durch das zentrale DNS-Team, implementiert mittels AWS CDK (Typescript) und Azure Bicep
    • Konzeption einer Blue/Green-Deployment-Strategie für GitLab Fleet-Runner zur Gewährleistung von Zero-Downtime-Deployments (umgesetzt mit GitLab-CI und Azure Bicep)
    • Evaluierung und Durchführung eines Proof-of-Concepts von Terraform-basierten Kubernetes Operatoren (Terraform Operator, Tofu-Controller, Azure Service Operator) für das Bereitstellung von Konventionierten Azure Landzonen und Einhaltung der Cloud Governance Richtlinien
    • Architektur und Implementierung einer Automatisierungslösung für Azure Cloud Subscriptions, analog zur bestehenden AWS-Lösung. Kernstück ist ein entwickelter Kubernetes Azure Terraform Operator (Terraform HCL/CDK, OpenTofu), der den gesamten Lebenszyklus von Azure Landing Zones (Subscriptions, Rollen, Policies, VNets) verwaltet
    • Ablösung einer skriptbasierten Automatisierung für Azure Policies und Rollendefinitionen durch eine stabile, idempotente Lösung (Powershell wegen Rückwärtskompatibilität) sowie Konzeption der Migration zu einer neuen Terraformbasierten Architektur
    • Planung und Prototyp der Migration der Landing-Zone-Bereitstellung von Azure Blueprints zu einer modernen, auf einem Terraform-Operator basierenden Architektur
  • Cloud-Automatisierung (DB Systel) im Bereich AWS:
    • Stabilisierung und Weiterentwicklung der bestehenden GitOps-Automatisierung für AWS Cloud Landzonen
  • Die Automatisierung basiert auf zwei Kernkomponenten: einem in Kotlin (Quarkus Operator Framework) entwickelten CloudAccount Operator und einem in Go entwickelten AWS Account Operator. Letzterer nutzt AWS CDK (TypeScript) zur Bereitstellung von AWS Cloud Accounts und den zugehörigen Ressourcen wie VPCs, IAM-Rollen, Policies, Service control policies und Konfigurationen für Logging, Monitoring, DNS und Security
  • Die Steuerung des CloudAccount Operators erfolgt über Manifeste, die mittels HelmCharts und Kustomize generiert werden. Die gesamte GitOps-basierte Automatisierung wird durch ArgoCD orchestriert
    • Überarbeitung und Härtung der Kubernetes-Plattform als Fundament für die GitOps-basierten Bereitstellungsprozesse
    • Fehleranalyse und Behebung von Bootstrapping-Problemen in der GitLab-Runner-Infrastruktur (GitLab Fleet-Runner und EKS Runner)
    • Konzeption und Implementierung einer durchgängigen Automatisierungsstrategie für das Secret Management (SOPS, AWS Secret Manager, External Secrets Operator) zur Sicherstellung des konsistenten Handlings von Secrets über Kubernetes- und AWS-Umgebungen hinweg
    • Erweiterung des Cloud Account Operators um umfassende Observability-Funktionen durch Integration von Prometheus und Alertmanager

AWS Azure Helm Helmcharts Kubernetes (Nativ/ AWS EKS) ArgoCD AWS CDK (Typescript) Azure Bicep Kustomize OpenTofu SOPS Terraform Azure DevOps (YAML Pipelines) Github Actions Gitlab Gitlab-CI GitlabFleetrunner (AWS/Azure) Gitlab Kubernetes Runner Renovate Alertmanager Grafana Loki Metrics Server Prometheus Promtail AWS Loadbalancer Controller Calico CNI Cert-Manager Cluster Autoscaler External DNS External Secrets Operator Karpenter Prometheus Operator Traefik AWS S3 Azure Storage Accounts EBS AWS Service Control Policies (SCPs) Azure Blueprints Azure Policy Azure RBAC AWS KMS AWS Secret Manager Azure Firewall Azure Keyvault Active Directory/EntraID Bash Java Kotlin Python Typescript YAML GoTemplate HCL Bicep AWS SDK Quarkus Operator Framework Azure ExpressRoute Azure Private DNS Resolver Azure Private Link Artifactory Git FluxCD (Sourcecontroller (OCIRepository/ GitRepository) für den Tofu-Controller FluxCD (ImageAutomationController)
CRDs HPA Network Policies OCI RBAC Taints/Affinitys PromQL PVC Firewalls TLS Oauth2 (S/D)NAT DNS HTTP/HTTPS Private Endpoint (Reverse) Proxies Routing Subnetting SFTP SSH Agile Entwicklung Application Lifecycle Management Blue/Green Deployments DevOps GitOps Kanban Scrum Security by Default
Deutsche Bahn / DB Systel
1 Jahr 1 Monat
2023-03 - 2024-03

ATLAS

Managing Architect des Konzerndatalake für Produktionsereignisse (Techlead, Requirements Engineering von Business- und Technischen Anforderungen) ARC 42 Methodik und Templates Kanban Enterprise Rollen-/Rechtekonzept mit Multimandantenfähigkeit im Kontext der Security- ...
Managing Architect des Konzerndatalake für Produktionsereignisse (Techlead, Requirements Engineering von Business- und Technischen Anforderungen)

Neubewertung der Anforderungen sowie Refactoring, Anpassung der Architektur und die Implementierung eines konzernweiten Datalakes ATLAS auf Basis der Data Management Platform (DMP) zur Speicherung, Aufbereitung, Weiterverarbeitung und Analyse von Echtzeitdaten. Die Architektur ist im Projektzeitraum mit folgenden Eckpunkten bewerten, abgepasst und teilweise neu entworfen sowie dessen Implementierung, durch das Entwicklungsteam und mich selbst umgesetzt worden:

  • Requirements Engineering sowie architekturelle Bewertung der nötigen und möglichen Einsatzszenarien, Tools und Datenstrukturen unter der Betrachtung von Separation of Concern, Konzernvorgaben, Dynamische Anpassung, Kosteneffizient und technischen Skills des betriebsführenden Teams
  • Der Datenlake war selbst ein Konsument des Produktionsereignisbrokers (zu Beginn Active MQ/Später Kafka)
  • Vorgabe war die Nutzung der Konzern Data Management Platform (DMP), eine Lambda Architektur ohne Echtzeitfunktionalität
  • Konzeption und Implementierung der Echtzeitdatenintegration des Kappa Systems mittels dedizierter Azure Container Instance Umgebung mit Fokus auf Ausfallsicherheit, Hochverfügbarkeit, Monitoring und hohem Schutzbedarf im Kontext der Security-, Compliance- und Governance Vorgaben
  • Konzeption und Implementierung des Monitoring und Alerting
  • Konzeption einen Pseudonymisierung- und Löschverfahren mit unterschiedlichen Regeln je nach Datenart
  • Entwurf des multidimensionalen Rollenkonzept der Datalake Nutzer, der verschiedenen Konzerngeschäftsfelder und Datenarten
  • Konzeption des Backup und Recovery
  • Ablösung des vorhandenen eigenentwickelten Anzeigeportals der Echtzeitdaten durch eine PowerBI basierte Lösung zur Kostenreduktion von ca. 80%
  • Konzeption und Implementierung der Infrastructure as Code Devops Integration
  • Architekturelle und technische Planung und Betreuung des Penetration Tests
Container Instances/Registry Keyvault Storageaccounts Loganalytics Workspace Application Insights Kusto Query Language SQL Server CosmosDB Synapse Azure Active Directory/EntraID (Gruppen/Rollen/ACLs/Service Principals) User Managed Identities Service Principals IAM Roles/Policies Data Management Platform (DMP) Python Terraform Docker Active MQ Kafka Azure Devops (Pipelines YAML) Flyway PowerBI
ARC 42 Methodik und Templates Kanban Enterprise Rollen-/Rechtekonzept mit Multimandantenfähigkeit im Kontext der Security- Compliance- und Governance Vorgaben Scoping auf unterschiedlichen Azure Komponenten
Deutsche Bahn / DB Systel
2 Jahre 3 Monate
2022-01 - 2024-03

FREQUENZMANAGEMENT

DevOps Architect Stammdaten Lookup Mehrere unterbrechungsfreie Druid Upgrades (von 0.20.2 bis 29.0.0) Klonen eines Druid Clusters incl. aller Daten und Einstellungen (Systemkopie) ...
DevOps Architect

  • Architektur und Implementierung einer verteilten, automatisch skalierenden Bigdata Timeseries Database für die automatische Erfassung von Personen-, Objekt- und Bewegungsdaten mittels Überwachungskameras an großen deutschen Bahnhöfen. Folgende Eckpunkte sind relevant:
    • Verteilte Bigdata Apache Druid Database
    • Erfassung von kontinuierlichen Datenströmen von bis zu 6 Terabyte Daten pro Tag
    • Fokus auf Skalierbarkeit, Performance und Security im Kontext eines hohen Schutzbedarfs (hohe Anforderungen an Sicherheit und Verschlüsselung)
    • Grundlage Kubernetes Cluster (EKS) aus Gründen der Betriebsführung und Skalierbarkeit
    • TLS 1.3 Verschlüsselung aller Datenbank Komponenten
    • Authentifizierung und Autorisierung des Zugriffs mittels Konzern Active Directory
    • Deepstorage der Zeitreihensegmente auf AWS S3
    • Metadatabase auf AWS RDS Cluster (Postgres)
    • Automatische horizontale Skalierung der Datenbank und des Kubernetes Clusters limitiert auf 62 Cluster Komponenten auf Kostengründen
  • Die Lösung benötigte einen, zu implementierenden, Kubernetes Cluster in der vorhanden AWS Cloud. Die Bereitstellung sollte in den vorhandenen Gitlab-CI Pipelines implementiert sein. Folgende Eckpunkte sind relevant:
    • Bereitstellung mittels AWS EKS
    • Sekundärfokus auf vollständige Automatisierung und automatischem Deployment und Update (Walking Skeleton) sowie automatischer Betriebsführung und Monitoring
    • Nutzung von vorhandenen Pipelines und Devops Methoden
    • Nutzung Terraform Deployment
    • Unterstützung der Anforderungen eines hohen Schutzbedarfs (hohe Anforderungen an Sicherheit und Verschlüsselung)
    • Devops der Kubernetes Cluster & Infrastruktur (IaC) mit Gitlab-Ci Pipelines, Terraform und Ansible
    • Gitops Ansatz per Kubernetes Konfiguration mit Flux (v2)
    • Hochverfügbarkeit und Zonentoleranz des Kubernetes Clusters
    • Kubernetes (API) Authentifizierung und Autorisierung mittels AWS IAM Rolles
    • Verschlüsselung aller Secrets im Git Repository (SOPS)
    • Erweiterung des Druid Metrics Exporter um h?orizontale Podskalierung (Kubernetes HPA) zu ermöglichen
Apache Druid AWS Kinesis Superset S3 Deepstorage RDS Metastore Exasol Database RDS Postgres Database Kubernetes AWS EKS AWS Cloudprovider (CSI) AWS Loadbalancer Ingress Controller Helm Clusterautoscaler Druid Operator External DNS EBS CSI Driver Loadbalancer Controller Calico Tigera CNI Operator Wireguard Grafana FluentBit Prometheus Prometheus Adapter Metrics Server Gitlab Runner (Kubernetes executor) Terraform AWS CDK Java Bash Python YAML Go Flux Gitops SOPS Kustomize Artifactory Gitlab Gitlab-CI Renovate Active Directory LDAP OpenSSL SSH SFTP AWS (S3/ Kinesis/ Lambdas/ RDS/ Loadbalancer) AWS (Subnets/ Instances/ Route 53/ Fargate/ Cloudwatch/ ACM/ Cloudtrail) AWS (Certificate Manager/ KMS/ SSM/ VPC)
Stammdaten Lookup Mehrere unterbrechungsfreie Druid Upgrades (von 0.20.2 bis 29.0.0) Klonen eines Druid Clusters incl. aller Daten und Einstellungen (Systemkopie) HA MultiAZ RBACs CRDs Managed Nodegroups Network Policies HPA PVC CronJobs Custom Metrics Taints/Label/Affinitys KMS Encryption PromQL IAM Roles/Policies Service Control Policies Instance Profiles Autoscaling Group Variable Substitution Verschlüsselung / Kryptographie Encapsulation (IPSec/Wireguard) Ethernet IPs DNS A/CNAME Routing IP Subnetting DNAT/SNAT Firewalls HTTPS Proxys HTTP/HTTPS Hochverfügbar und Verteilt (AZ Übergreifend und Redundant Druid Komponenten) Multiple Druid Cluster (Stages mit unterschiedlichem Sizing automatisiert) Autoscaling Broker/ Router/ Historicals (mittels Kubernetes API Erweiterungen) Autoscaling Broker/Router/Historicals (eigener Exporter/Prometheus Adapter/Kubernetes HPA) Druid Tiering (Testworkload und Prodworkloads) TLS in Transit Encryption LDAP/AD Authentifizierung incl. Rollenkonzept Kubernetes Service Discovery (Zookeeper Ablösung) Kubernetes Job-basierte Druid Tasks (Middlemanager Ablösung) auf dedizierter Spotinstance Nodegroup
Deutsche Bahn / DB Systel
10 Monate
2022-01 - 2022-10

COOPERATE SECURITY PLATFORM

Managing Architect für Konzernsicherheitslösung (Techlead, Requirements Engineering von Business- und Technischen Anforderungen) ARC 42 Methodik und Templates Scrum Enterprise Rollen-/Rechtekonzept mit Multimandantenfähigkeit im Kontext der Security- ...
Managing Architect für Konzernsicherheitslösung (Techlead, Requirements Engineering von Business- und Technischen Anforderungen)

Globale Architektur der Konzernsicherheitslösung Cooperate Security Platform für die konzernweite Erfassung von sicherheitsrelevanten Vorfällen. Die Architektur ist im Projektzeitraum mit folgenden Eckpunkten entworfen und die Implementierung, durch die Entwicklungsteams, entsprechend gemanaged worden:

  • PegaCloud Plattform als eigentliche Applikation und die Workflow Engine
  • Data Management Platform (siehe 2021) als Stammdatenhaltung, Stammdatenlieferung aus Fremdsystemen und die Grundlage für Analytic
  • Datenintegration diverser Konzernsysteme für notwendige Stamm- und Abrechnungsdaten
  • Fokus auf Multitenancy, Nutzung von vorhandenen Plattformangeboten, Security und Datenschutz
  • Entwurf des multidimensionalen Rollenkonzept der Endnutzer, der verschiedenen Konzerngeschäftsfelder und Vorfallsarten nach Least Privilege Prinzip und des Datenimports sowie der -Weitergabe an Dritte (Polizeibehörden, Verkehrsverbünde, etc)
  • Stufenweiser Golive mit online Migration des Altsystems
Pega Cloud Services und Data Management Platform Azure Active Directory (Gruppen/Rollen/ACLs/Service Principals) IAM Roles/Policies Managed Identitys Service Principals Azure Devops Azure Synapse (Java/Spark/SQL/PySpark) Azure Databases: SQL Server Azure: Storageaccount Keyvault
ARC 42 Methodik und Templates Scrum Enterprise Rollen-/Rechtekonzept mit Multimandantenfähigkeit im Kontext der Security- Compliance- und Governancevorgaben Scoping auf unterschiedlichen Azure Komponenten Rowlevel Security Location Based Services Routing IP Subnetting DNAT/SNAT Firewalls HTTPS Proxys
Deutsche Bahn / DB Systel
10 Monate
2021-01 - 2021-10

DATAMANAGEMENT PLATFORM

Managing Architect für Azure Cloud ARC 42 Methodik und Templates Scrum Verschlüsselung / Kryptographie ...
Managing Architect für Azure Cloud

  • Architektur und Implementierung der Data Analytics Platform (DMP) als standardisiertes Plattformangebot für DB Konzerngeschäftsfelder. Die DMP ist die Implementierung der Bigdata Referenz Architektur des DB Konzerns
  • Die Lösung ist im Projektzeitraum mit folgenden Eckpunkten entworfen, entwickelt und betrieben worden:
    • Grundlage Azure Cloudnative Anwendungen unter Anbetracht DB Complaince und Securityvorgaben
    • Fokus auf ?one fits many? und IT Security
    • Vollautomatische Integration ins DB Systel Bestellwesen und die Abrechnung (Digitalportal)
    • Unterstützung von Anwendungen mit dem hohen Schutzbedarf (hohe Anforderungen an Sicherheit und Verschlüsselung)
    • Devops der Komponenten und Infrastruktur (IaC) mit Gitlab-Ci Pipelines, Terraform
    • Entwurf Rollenkonzept für Endnutzer mittels Azure Active Directory
    • Entwurf Domänenschema der IaC Lösung
    • Betrieb der Plattform
    • Betreuung des Teams bei der Entwicklung der CI/CD und bei neuen Features
    • Anpassung/Erweiterung der konzernweiten Azure Vorgaben in Abstimmung mit verschiedenen Security & Co?mpliance Teams und Kontrollgremien
Storageaccount VMs VM Extensions Keyvault Diskencryptionsets Log Workspaces Loadbalancer Availability Sets IAM Roles/Policies Managed Identitys Service Principals NSGs Azure Backup Cloud-Init Private Endpoints Private DNS Zones CLI/ARM Templates Azure Synapse Azure Eventhubs (Cluster/Premium) AWS Eventbridge Azure Stream Analytics Azure Devops Azure Functionapps SQL Server CosmosDB SQL Pool Azure Databricks Terraform Java Shell YAML Strimzi Operator Azure Active Directory Gitlab Gitlab-CI Gitlab Runner OpenSSL Windows Server SSH SFTP
ARC 42 Methodik und Templates Scrum Verschlüsselung / Kryptographie TLS zur Wire Encryption Ethernet IPs DNS A/CNAME Routing IP Subnetting SSL/TLS HTTP/HTTPS
Deutsche Bahn / DB Systel

Aus- und Weiterbildung

Aus- und Weiterbildung

Diplom Wirtschaftsinformatiker (FH)

IT Fachinformatiker / Systemintegration

Position

Position


Kompetenzen

Kompetenzen

Top-Skills

Kubernetes DevOps Cloud Architect Java Spring AWS Azure Big Data Terraform Flux Apache Druid Infrastructure as code Helm CI/CD GitOps Künstliche Intelligenz Security Konzepte Arc42

Produkte / Standards / Erfahrungen / Methoden

Kurzprofil:

  • Sehr erfahrener Managing Big-Data-Software- und Infrastruktur-Automatisierungs-Architekt für komplexe und hochsichere KI-, Big-Data-, Cloud- und DevOps-Lösungen in heterogenen Systemlandschaften mit sehr breitem Technologie Background.
  • Schwerpunkte: Konzeption und Umsetzung von KI-gestützten Architekturen, DevOps-Automatisierung, Kubernetes, Big-Data-Plattformen und Cloud-native Microservices.
  • Experte für die Entwicklung und das Management von skalierbaren und hochsicheren Infrastrukturen in Cloud und klassischen Umgebungen.
  • Ausgeprägte Lösungs- und Umsetzungskompetenz von Business-Anforderungen in agilen Umgebungen.
  • Erfahrener Manager- und Projektleiter in agilen Umgebungen.


KI REFERENZ PROJEKT: SOVEREIGN ENTERPRISE AI PLATFORM

  • High-Performance AI Appliance für den öffentlichen Sektor & Industrie
  • Data Philter ist eine Local-First Sovereign AI Middleware, die es ermöglicht, modernste Generative KI (LLMs) vollständig offline, datenschutzkonform und hochperformant auf eigener Hardware (On-Premise oder Edge) zu betreiben.


KEY FEATURES

  • 100% Offline & Air-Gapped: Funktioniert ohne Internetverbindung. Ideal für VS-NfD und DORA Umgebungen, Behörden, Banken und kritische Infrastrukturen. Keine Daten verlassen das Unternehmen.
  • Agentic Workflow Engine (MCP): Autonome "Tool-Calling Agents" führen komplexe Aufgaben aus, analysieren Logs, steuern Systeme und integrieren sich nahtlos in bestehende Prozesse.
  • Multi Model & Agentic Mesh: Orchestrierung spezialisierter Modelle (Llama 3, Phi-4) via "Agentic Mesh" für komplexe Aufgabenketten. Optimiert für lokale LLMs.
  • Fine-Tuning & Grounding: Anpassung auf eigene Daten (LoRA/QLoRA) inkl. Feedback-Loops. Integriertes Grounding durch Tool-Verifikation und Vektorsuche für verlässliche Fakten.
  • Enterprise Data Docking: Schluss mit einfachem RAG. Data Philter bietet echte SQL-Integration (PostgreSQL, SAP HANA, Oracle) und Time-Series-Analyse (ClickHouse) via natürlicher Sprache.
  • Edge Optimized: Maximale Performance auf minimaler Hardware durch fortschrittliche Quantisierung (GGUF, AWQ) und TensorRT-LLM Optimierung. Läuft auf Laptops, Edge-Gateways und Server-Clustern.


TECH STACK

  • AI Core: Ollama, Llama 3.x, Phi-4, Mistral, Aura Models, TensorRT-LLM, AMD Ryzen AI / ROCm, LoRA, QLoRA
  • Platform: Kubernetes (K8s), Helm, Docker, Nvidia GPU Operator, KAI
  • Backend: Java (Spring Boot), Python, C++
  • Integration: REST, OData, JDBC, MQTT, Model Context Protocol (MCP), SAP JCo


MEHRWERT & BUSINESS IMPACT

  • Sovereign AI: Volle Kontrolle und Eigentum über Daten und KI-Modelle.
  • Sofort einsatzbereit: "AI-in-a-Box" Lösung spart Monate an Entwicklungs- und Integrationszeit.
  • Compliance-Konform: Erfüllt höchste Sicherheitsstandards für den Umgang mit sensiblen Daten.
  • Skalierbar: Vom robusten Edge-Device bis zum Hochleistungs-Cluster im Rechenzentrum.


ERFAHRUNG & KENNTNISSE

Projektmanagement:

  • IT-Architektur (primär ARC42)
  • Projektleitung
  • Umsetzungsteamleitung
  • Techlead
  • Stakeholdermanagement
  • Requirements Engineering
  • Scrum (Scrum Master, Product Owner, Scrum of Scrums)
  • Agiles Projektmanagement mit Scrum, Kanban, Scrumban, Agile Entwicklung
  • Application Lifecycle Management
  • Blue/Green Deployments
  • Security by Default
  • JIRA / Confluence
  • DevOps
  • Offshore Teams (Indien, USA, Malaysia)


Containerisierung:

  • Kubernetes (Baremetal, EKS, AKS, K3S, Openshift)
  • Kubernetes Ecosystem (CRDs, Helm, Helmcharts, HPA, Network Policies, OCI, RBAC, Taints/Affinitys)
  • Kubernetes Operators/Tools (AWS Loadbalancer Controller, Calico CNI, Cert-Manager, Cluster Autoscaler, External DNS, External Secrets Operator, Karpenter, Prometheus Operator, Traefik, druid-operator, fluxcd, mongodb-kubernetes-operator, Strimzi Kafka Operator, Apache Flink Kubernetes Operator, Nginx Ingress Controller, Rook Ceph Operator, Nvidia GPU Operator, KAI)
  • Docker / Docker Compose / Containerd
  • Podman / Kaniko / AWS ECS / Azure Container Instances
  • KeepaliveD


DevOps/IaC/GitOps:

  • IaC (Terraform/OpenTofu, Ansible, AWS Cloudformation / CDK, Azure Bicep & ARM Templates)
  • Gitops (FluxCD / ArgoCD, Kustomize, SOPS)
  • CI/CD (Azure DevOps (YAML Pipelines), Github Actions, Github releases, Gitlab, GitlabCI, Gitlab-Fleetrunner (AWS/Azure), Gitlab Kubernetes Runner, Renovate, maven central)
  • Observability (Alertmanager, Grafana, Loki, Metrics Server, Prometheus, PromQL, Promtail, CMAK, AKHQ)


Cloud & Virtualisierung:

  • As a Service (SaaS, PaaS, LaaS, IaaS etc.) Technologien und Geschäftsmodelle
  • AWS: EKS, EC2, EBS, EFS, VPC, Subnets, Loadbalancer, RDS (Postgres, MSSQL, MySQL), DocumentDB, ECS (Fargate), ECR, IAM (Roles, Users, Policys, SAML, Instance Profiles), KMS, Glue (Catalogs, Jobs, Endpoints, Notebooks), Athena, EMR (at wire & at rest encryption), Lambda, S3 (Bucket Policys, SSE, IAM Policies), Redshift, SSM, Eventbridge, Kinesis, Lambdas, Certificate Manager, Autoscaling Group, Route 53, CloudWatch
  • Azure: Synapse, Databricks, Eventhubs (Cluster/Premium), Stream Analytics, Storageaccount, VMs, VM Extensions, Keyvault, Diskencryptionsets, Log Workspaces, Loadbalancer, Availability Sets, Managed Identitys, User Managed Identities, Service Principals, IAM Roles/Policies, Scoping auf unterschiedlichen Azure Komponenten, NSGs, Azure Backup, Cloud-Init, Private Endpoints, Private DNS Zones, CLI/ARM Templates, WebApps, VNets, FunctionApps, LogicApps, IAM Roles/Policies, SQL Server, CosmosDB, SQL Pool
  • Governance (AWS Service Control Policies (SCPs), Azure Blueprints, Azure Policy, Azure RBAC)
  • Identity (Active Directory/EntraID, Oauth2)
  • Azure Devops
  • Hetzner (Cloud)
  • Virtualisierung
    • VMware vSphere Automatisierung
    • Automatisierung von SAP Landschaften in Cloudumgebungen
    • VMware (ESX 3.0 to vSphere 5.0) in Verbindung mit NetApp Storage Systemen und Flexclones
    • Microsoft Hyper-V
    • Fujitsu Flexframe
    • Virtualisierungsmigrationen (P2V/V2V)
    • Private to Public Cloud Migrationen


BigData

  • Apache Druid
  • ClickHouse
  • Hadoop Framework (HDFS/YARN, Hive (interactive LLAP), HBase, Ranger, Kafka, Zookeeper, Spark/Spark2, Storm) incl. Security Kerberos, LDAP, TLS, Ranger in Hortonworks Cloudera Distributionen, Datebricks
  • Nifi Cluster
  • CosmosDB
  • MongoDB
  • Redis
  • Zeppelin mit Spark Livy
  • AWS EMR, Glue, Athena, Redshift RDS
  • Airflow
  • Flink Cluster
  • Superset
  • Tableau Server und Designer mit HDP Hive Thrift und Kerberos
  • Postgresql / pgvector
  • SAP HANA
  • Elastic Search / ELK
  • Microsoft/Azure SQL Server/Pool
  • Azure Synapse
  • SAP MaxDB
  • MySQL
  • SQLite
  • Oracle
  • Spring Data, JDBC, ODBC, Hibernate, JPA, SQL
  • Metabase
  • Minio S3


INFRASTRUKTUR:

  • Storage Systeme (SAN/NAS)
    • ZFS (Snapshots, RAIDs, Cloning)
    • NetApp (Snapmirror, Flexclone, Sisclone, Dedup, DataOnTap Powershell)
    • iSCSI, NFS
    • AWS S3, Azure Storage Accounts, EBS, PVC
  • Netzwerktechnologien
    • Azure ExpressRoute, Azure Private DNS Resolver, Azure Private Link, Private Endpoint, (Reverse) Proxies, Subnetting, Proxy Protokoll
    • REST, OpenAPI, JSON, XML, JSON Schema, Message Bus, Webservices
  • Security
    • Verschlüsselung: Encryption at rest, Encryption at transit, Symetrische Verfahren (AES), Public Key Verfahren (SSL, TLS, PKI), IPSec, Wireguard
    • AWS KMS, AWS Secret Manager, Azure Firewall, Azure Keyvault, UFW, Fail2Ban


Plattformen / Frameworks:

  • Java Platform, Enterprise Edition (Java EE)
  • Spring AI
  • Spring AI annotations
  • Spring (Boot, WebMVC, Data, Security, Oauth, Batch)
  • Spark
  • Terraform und Cloudformation
  • AWS CDK
  • Quarkus Operator Framework
  • AspectJ / AOP
  • Android / Cocoa Touch (iOS)
  • Webserver (Apache, Tomcat, Jetty, Nginx)
  • Git
  • Angular
  • Angular SSR
  • Node.js
  • Express
  • OpenAI API (ChatGPT) / Azure OpenAI / AWS Bedrock
  • Ollama (Llama 3, Phi-4, Mistral, Aura Models)
  • Gemini API
  • Sovereign AI / Local-First AI
  • Agentic AI (AI Agents) / Dynamic Tool Creation / Agentic Mesh
  • Fine-Tuning (LoRA / QLoRA / Human-in-the-Loop)
  • LLM Optimization (TensorRT-LLM / vLLM / llama.cpp / GGUF / AWQ)
  • NL2SQL
  • RAG (Retrieval-Augmented Generation)
  • Vectorsearch / Grounding / Decontextualization
  • LibreChat
  • MCP Server (STDIO / SSE / Streamable HTTP)
  • Model Context Protocol
    • MCP Server (STDIO / SSE / Streamable HTTP)
    • MCP Client
    • Model ?Context Protocol Registry
  • Cloudflare
  • JSON-LD
  • Maven


Blockchain & Crypto:

  • NFTs
  • Smart Contracts
  • Ethereum
  • ethers.js
  • Arbitrum
  • Metamask


SAP:

  • SAP Basis
  • Installation & Konfiguration von SAP Netweaver Systemen (ECM/ERP, CRM, SCM, BI) und SAP Business Objects-Software
  • Product Lifecycle Management (PLM) in den Bereichen:
    • SAP DMS und SAP Easy Document Management
    • Klassifizierung
    • SAP Authorisierungskonzepte und ACLs
  • SAP PPM/cProjects
  • SAP PLM 7.02 (Tests)
  • ABAP4 & Webdynpro Grundkenntnisse


Geo Information - & Location Based Services:

  • Location & Maps Services
  • Openstreetmaps (OSM Nominatim / Overpass)
  • Geocoding
  • Maps (Openstreetmaps, Bing Maps, Google Maps)
  • Location Based Services & Location Determination
  • GPS Data/Cell Tower Data/iBeacons/Wifi Data


Demos:

Gerne Livedemos der genannten Lösungen in einem Interview


Relevante Arbeiten in Enterprise AI, Cloud Data Lakes und Big Data:

  • Data Philter - Sovereign AI NL2SQL Platform
    • Github
    • Video zur Sovereign AI Plattform
  • AI Druid MCP Server
    • Enterprise Model Context Protocol (MCP) Server für Apache Druid zur Integration von KI-Assistenten
    • YouTube Tutorial für Druid MCP Server - Tutorial zur Integration von Zeitreihen-KI-Agenten mit dem Apache Druid MCP Server
  • BMDV Projekt: Fahrbar 20 Künstliche Intelligenz basierte Belegungsoptimierung im ÖPNV
    • Opensource Publifizierung
  • BMG Projekt: Fahrbar 1.0 Corona Warnampel - Vorhersage von Belegungsdaten aufgrund von Ein-/Aussteigerdaten in ÖPNVs
    • Fahrbar 1.0
    • BMG Bericht
  • Konzeption des iunera Bigdata Clusters (Big Data, Real-Time Analytics, Realtimedashboards etc. ). Beispielanwendungen
    • bundestagswahlanalyse .de
    • scoinanalytics
  • Blockchain-basiertes Lizenzierungsmodell
    • Open Compensation Token License (OCTL) - Ein Blockchain-basiertes Lizenzierungsmodell zur nachhaltigen Vergütung von Open-Source-Entwicklern
  • OCTL Whitepaper - Detaillierte Beschreibung des Open Compensation Token License Modells
  • LibreChat auf Kubernetes - Helm-Chart für die Bereitstellung der Open-Source-KIChat-Plattform LibreChat auf Kubernetes
    • NLWeb Deployment mit FluxCD - Anleitung zur Bereitstellung des KI-gestützten Web-Anwendungsprotokolls NLWeb mit GitOps und FluxCD
    • WordPress JSON-LD Exporter - Ein WordPress-Plugin zum Exportieren von Beitragsdaten im JSON-LD-Format über eine REST-API

Betriebssysteme

Microsoft Windows
alle Versionen
Linux
Ubuntu Server, Debian, Suse (SLES), CentOS
Mac OSX
Mobile
iOS/Android

Programmiersprachen

Java
8/ 9/ 21
Swift
Python/Ansible
JavaScript
Powershell / Batch
Groovy
Shell / Bash / PHP
Früher bzw. Rudimentäre Kenntnisse
SQL
ABAP4 / Webdynpro for ABAP (rudimentär)
Microsoft .Net / C / C++ (rudimentär)
Kotlin
Typescript
Node.js
HCL
Bicep
YAML
Go-Template
Go
Scala

Datenbanken

Apache Druid
CosmosDB
MongoDB
Redis
Postgresql
SAP HANA
Elastic Search / ELK
Microsoft/Azure SQL Server/Pool
Azure Synapse
SAP MaxDB
MySQL
SQLite
Oracle

Datenkommunikation

REST
JSON
XML
Message Bus
Webservices
IP
UDP
TCP
DNS
SMTP
HTTP(S)
SSH
(S)FTP
SSL/TLS
OpenSSL
Firewalls
Routing
NAT
LAN
WAN
WLAN
Rsync
DHCP
Vlan/VXLan
NFS
VPNs
SNMP
Proxy
Caches
OpenvSwitch
RSTP
IPSec

Branchen

Branchen

  • Bahn / Öffentlicher Nahverkehr
  • Informationstechnologie & Business-Softwareentwicklung
  • Regierungsbehörden & Öffentlicher Sektor
  • Marketing & Werbung
  • Tourismus & Gastgewerbe
  • Gesundheitswesen
  • Finanzdienstleistungen
  • Energieversorgung
  • Bergbau
  • Luftfahrt
  • Automobilindustrie
  • Blockchain
  • Künstliche Intelligenz
  • Open Source
  • Fertigungsindustrie

Einsatzorte

Einsatzorte

Deutschland, Schweiz, Österreich
möglich

Projekte

Projekte

6 Monate
2025-09 - heute

Konzeption und Implementierung von Data Philter

Lead AI Architect & Developer Sovereign AI Agentic AI Local-First ...
Lead AI Architect & Developer

Konzeption und Implementierung von Data Philter, einer Sovereign AI Enterprise-Grade Plattform für datenschutzkonforme KI-Agenten. Der Ansatz verfolgt eine Local-First -Strategie (Air-Gapped,On-Premise, Edge), bei der spezialisierte "Tool-Calling Agents" lokal oder in privaten Clustern laufen. Die Architektur ist über Kubernetes skalierbar und nutzt GPU-Beschleunigung (Nvidia GPU Operator) für High-Performance-Inferenz, integriert bei Bedarf aber auch Cloud-Modelle wie Azure OpenAI Service oder AWS Bedrock. Architektur und Entwicklung von Data Philter, einer agentenbasierten "Sovereign AI" Middleware. Fokus auf Public Sector (VS-NfD), DORA-konforme Umgebungen (Banken) und Industrial Edge. Bringt eine fertige "AI-in-a-Box" Architektur mit. Spart dem Kunden 6+ Monate Entwicklungszeit für Compliance-konforme KI. Die Architektur ist über Kubernetes skalierbar und nutzt GPU-Beschleunigung (Nvidia GPU Operator) für High-Performance-Inferenz. Sie bietet eine fertige "AI-in-a-Box" Lösung, die Entwicklungszeit massiv reduziert.

  • Time-Series Datenbanken: Implementierung der Unterstützung für Time-Series-Datenbanken wie Apache Druid und ClickHouse für performante Echtzeitanalysen mittels natürlicher Sprache.
  • Enterprise SQL: Direkte integration klassischer SQL-Datenbanken (PostgreSQL, MySQL, MariaDB, SQL Server, SAP HANA) um eine breite Unterstützung für relationale Standard-Datenbanken sicherzustellen.
  • Dynamic Tooling: Entwicklung einer Agentic Workflow Engine zur dynamischen Generierung von MCP-Tools aus existierenden APIs (via Swagger/OpenAPI). Ergänzend wurde ein "SearchTool" für LLMs implementiert, das Agenten befähigt, aus einer umfangreichen Tool-Bibliothek selbstständig das passendste Werkzeug zu wählen und so Context-Window-Limitierungen zu umgehen.
  • Multi Model Tool Calling: Flexibler Einsatz spezialisierter Modelle (Llama 3, Phi-4) für komplexe Aufgabenketten.
  • Model Fine-Tuning: Implementierung effizienter Fine-Tuning-Pipelines (LoRA/QLoRA) zur Anpassung von Modellen an hochwertige interne Daten. Ergänzend wurden Techniken für iteratives Fine-Tuning basierend auf Feedback-Loops (Human-in-the-Loop) integriert.
  • Agentic Mesh: Entwicklung und Validierung von "Agentic Mesh"-Konzepten zur effektiveren Sequenzierung und Clusterung von MCP- und API-Tool-Aufrufen, optimiert für kleinere Modelle.
  • Grounding & Decontextualization: Sicherstellung von Fakten-Treue (Grounding) durch Tool-Verifikation und automatische Tool-Discovery. Nutzung von Vektorsuche in Tool-Calls sowie automatische Zusammenfassungen vorheriger Interaktionen zur Kontextoptimierung.
  • Sovereign & Air-Gapped AI: Architektur läuft ohne Internetverbindung (Offline-First) auf Edge-Devices (Dell Precision, HP Z) und in Kubernetes-Clustern.
  • LLM Optimization & Edge Engineering: Einsatz von Quantisierung (GGUF, AWQ) zur Maximierung der Inferenz-Performance auf begrenzter Hardware (NPU/Consumer GPU) und Reduktion des VRAM-Footprints.

ClickHouse PostgreSQL MySQL MariaDB SQL Server SAP HANA Java (Spring Boot) Python C++ Apache Druid
Sovereign AI Agentic AI Local-First NL2SQL Dynamic Tool Creation Agentic Mesh Grounding Kubernetes (K8s) Nvidia GPU Operator KAI Helm Docker Ollama Llama 3 Phi-4 Mistral Aura Models TensorRT-LLM AMD Ryzen AI / ROCm OpenAI Azure OpenAI AWS Bedrock LoRA QLoRA Model Context Protocol (MCP) OpenAPI / Swagger REST OData JDBC MQTT SAP JCo
AI, Big Data, Sovereign AI
3 Monate
2025-07 - 2025-09

MCP SERVER FÜR APACHE DRUID

TechLead Oauth2 Spring AI annotations Model Context Protocol (MCP) 2025-06-18 ...
TechLead

  • Konzeption, Implementierung und Veröffentlichung eines Enterprise-grade MCP Servers für Apache Druid, mit Fokus auf Skalierbarkeit, Sicherheit und Hochverfügbarkeit. Der MCP Server ermöglicht die nahtlose Integration von KI-Assistenten in Apache DruidCluster und leistet einen wesentlichen Beitrag im Bereich der Integration von KI mit BigData-Plattformen
  • Die Lösung nutzt das Model Context Protocol (MCP), um eine robuste Schnittstelle für die Verwaltung und Analyse von Druid-Datenbanken durch KI-gestützte Prompts zu schaffen
  • Die funktionsbasierte Architektur stellt Tools, Resources und anpassbare PromptTemplates zur Verfügung. Zu den Kernmerkmalen zählen die automatische Generierung von JSON-Schemata, multiple Transportmodi (STDIO, SSE, Streamable HTTP), umfassende Fehlerbehandlung, OAuth 2.0 und ein schreibgeschützter Modus
  • Die Funktionsweise des Servers wird im YouTube-Video demonstriert
    • Konzeption und Implementierung einer robusten, Tool-basierten Architektur, die dem MCP-Protokoll folgt und automatisch JSON-Schemas für eine validierbare API-Definition generiert
    • Etablierung einer funktionsbasierten Paketstruktur zur Gewährleistung von Wartbarkeit und Skalierbarkeit
    • Entwurf eines flexiblen Systems für anpassbare Prompt-Vorlagen, das eine einfache Adaption an unternehmensspezifische Anforderungen ermöglicht
    • Entwicklung des hochverfügbaren MCP-Servers unter Verwendung von Spring Boot und Spring AI, um eine nahtlose Integration von KI-Assistenten mit Apache Druid zu gewährleisten
    • Implementierung und Unterstützung für diverse Transportmodi (STDIO, SSE und Streamable HTTP), um eine breite Konnektivität sicherzustellen
    • Implementierung einer automatischen Erkennung von Tools, Ressourcen und Prompts durch Annotationen zur Vereinfachung der Konfiguration und Erweiterung
    • Implementierung eines schreibgeschützten Modus als Reaktion auf Community-Feedback, um die Datenintegrität zu gewährleisten und um unbeabsichtigte Änderungen am Druid-Cluster zu verhindern
    • Absicherung der Anwendung auf Enterprise-Niveau mittels Spring Security und OAuth2
    • Containerisierung mit Docker und Orchestrierung durch Kubernetes für einen skalierbaren und ausfallsicheren Betrieb
    • Unterstützung einer Vielzahl von Anwendungsfällen, von Datenexploration über Data-Science bis hin zum DevOps-Management und Operations-Betrieb
    • Implementierung eines umfassenden Monitorings zur Erfassung von Nutzungsmetriken zur kontinuierlichen Optimierung
  • Das Projektergebnis ist ein hochfunktionaler und sicherer MCP-Server, der die Verwaltung und Analyse von Apache Druid Clustern mittels KI-Assistenten vereinfacht. Das Projekt demonstriert tiefgreifende Kenntnisse in der Entwicklung komplexer, KI-gestützter Datenlösungen und deren Umsetzung in die Praxis

Java Bash Spring Boot Spring AI Spring Security Apache Druid Docker Kubernetes Docker image Github Action pipeline Github releases maven central FluxCD Model Context Protocol Registry
Oauth2 Spring AI annotations Model Context Protocol (MCP) 2025-06-18 STDIO SSE Streamable HTTP JSON Schema
Iunera GmbH & Co KG
1 Monat
2025-07 - 2025-07

LIBRECHAT INVESTMENT AI

TechLead AI RAG (Retrieval-Augmented Generation) Vectorsearch ...
TechLead

Auf Basis der Open-Source-Plattform LibreChat wurde die prototypische Entwicklung eines persönlichen KI-Assistenten für Investitionsentscheidungen vorangetrieben. Das Kernkonzept war die Nutzung von Retrieval-Augmented Generation (RAG) zur Analyse von Finanzdaten und -nachrichten. Zusätzlich wurde prototypisch die Integration von YouTube-Transkriptionen bekannter Finanzinfluencer implementiert. Ziel war es, Anlegern ein Werkzeug zur Verfügung zu stellen, das komplexe Fragen zu Aktien und Märkten beantworten kann Die technische Umsetzung umfasste folgende Punkte:

  • Konzeption, Implementierung und Veröffentlichung eines Helm-Charts für die Bereitstellung von LibreChat auf Kubernetes
  • MCP Servers für die Bereitstellung von aktuellen Finanzmarktdaten und MCP Server for die Bereitstellung von RAG Funktionalität
  • Das Helm-Chart ermöglicht eine einfache und schnelle Bereitstellung von LibreChat inklusive aller Abhängigkeiten wie MongoDB und Meilisearch
  • Das Chart ist für den Einsatz in Produktionsumgebungen konzipiert und bietet eine hohe Konfigurierbarkeit
  • Behebung von Sicherheitsproblemen im ursprünglichen Helm-Chart, insbesondere im Umgang mit Credentials (CREDS_*, JWT_*).
  • Implementierung der Fähigkeit, MCP-Server als Docker-Container (über Docker-Socket-Mounting, FS-Berechtigungen und Docker-CLI) oder als Kubernetes-Pods (mit RBAC und Service-Accounts) auszuführen
  • Automatisierte Tests und CI/CD-Pipelines für das Helm-Chart
  • Erstell?ung einer umfassenden Dokumentation für die Installation und Konfiguration
GitHub Actions Kubernetes Helm Docker Containerd LibreChat MCP Server (STIO/SSE) Meilisearch MongoDB
AI RAG (Retrieval-Augmented Generation) Vectorsearch CI/CD GitOps RBAC ServiceAccounts
Iunera GmbH & Co KG
3 Monate
2025-04 - 2025-06

NLWEB

AI Expert / TechLead / Developer Retrieval-Augmented Generation (RAG) JSON-LD Schemaorg ...
AI Expert / TechLead / Developer

Konzeption und Implementierung einer produktionsbereiten NLWeb-Implementierung auf der Wordpress-Seite. Entwicklung eines Chatbots, der das Wissen von der Unternehmenswebsite, einschließlich Blog und Wiki, nutzt

  • Erstellung von JSON-LD und Schema .org-konformen Datenstrukturen aus Blog und Wiki Seiten
  • Containerisierung der Anwendung mittels Docker als Contribution von NLWeb und Bereitstellung als Helm-Chart
  • Entwicklung der Benutzeroberfläche (UI) für den Chatbot
  • Implementierung von Embedding- und Vektorsuch-Funktionen mit Azure AI Search
  • Einsatz von Retrieval-Augmented Generation (RAG) zur Verbesserung der Chatbot-Antworten
  • Konfiguration von CI/CD-Pipelines mit Github Actions
  • Integration von Wordpress-Plugins:
    • NLWebView for Wordpress
    • JSONLD exporter
    • Wordpress JSONLD exporter Plugin
  • Einbindung der nlweb-js-client Javascript-Bibliothek
  • Deployment der NLWeb-Instanz in Kubernetes nach GitOps-Prinzipien mit FluxCD
Kubernetes Docker Helm Wordpress Javascript Typescript Python Azure AI Search (Vector DB) Qdrant Milvus Postgres(PGVector) Github Actions FluxCD (GitOps) OpenAI API Gemini
Retrieval-Augmented Generation (RAG) JSON-LD Schemaorg NLWeb MCP MCP Gateways AI Agents TextEmbeddings
Iunera GmbH & Co KG
10 Monate
2024-07 - 2025-04

OCTL

Lead Developer, Architect Smart Contracts AI Agents JSON-LD ...
Lead Developer, Architect

  • Konzeption und Entwicklung einer dezentralen Opensource Plattform für Software-Lizenzierung mittels Krypto-Token (OCTL - Open Compensation Token License) unter Verwendung von NFTs und Smart Contracts auf der Ethereum/Arbitrum-Blockchain
  • Implementierung von Smart Contracts zur Automatisierung der Lizenzvergabe, der Berechnung von Lizenzgebühren (basierend auf "Story Points") und der Verteilung der Einnahmen an die Ersteller
  • Erstellung von "Code Tokens" (NFTs), die Eigentums- und Lizenzgebührenrechte für digitale Artefakte wie Code-Commits oder Bibliotheken repräsentieren
  • Aufbau einer Website mit Node.js, Angular und MongoDB zur Verwaltung und Darstellung der Lizenzen
  • Aufbau einer Website mit Node.js und Angular für das Projekt, inklusive eines Metamask-Logins für die Front- und Backend-Authentifizierung incl. Caching, Angular SSR und Markdown-zu-HTML-Darstellung im Wiki
  • Entwicklung eines gehärteten und rate-limitierten Backends mit Node.js, Express und MongoDB
  • Automatisierte Erstellung von Website-Content mithilfe eines KI-generierten CMS (OpenAI, AI Agents) zur Erläuterung des Lizenzmodells und zur Generierung von SEO optimierten Wikiartikeln
  • Automatisierte Veröffentlichung und Bewerbung der generierten Artikel (Social-Media-Outreach) auf Plattformen wie Bluesky, Steemit, Nostr und dev .to unter Verwendung von Bots zur Maximierung der Reichweite
  • Definition und Implementierung von CI/CD-Pipelines mit GitHub Actions, Docker, Kubernetes und Helmcharts für automatisierte Tests und Deployments
  • Nutzung von Cloudflare für Sicherheit und Performance-Optimierung der Web-Anwendungen
  • Anwendung des "Faircode"-Prinzips zur fairen Vergütung von Open-Source-Beiträgen
  • Einsatz von KI-Assistenten und Agenten für Coding-Aufgaben (Agentic Web, Professional Developer Vibe Coding)
Node.js Express Angular Angular SSR MongoDB Ethereum Solidity ethers.js OpenAI API Ollama Grok Gemini Github Actions Cloudflare Bluesky Steemit Nostr devto APIs Metamask
Smart Contracts AI Agents JSON-LD Faircode
Iunera GmbH & Co KG
5 Jahre 1 Monat
2019-12 - 2024-12

FAHRBAR 2.0

Geschäftsführer / TechLead Hochverfügbarer Apache Druid Cluster Kubernetes API Erweiterungen (CRDs) Zookeeper-less Setup ...
Geschäftsführer / TechLead

Konzeption, Implementierung und Betrieb einer Cloudlösung für den Betrieb der iunera Microservice Architektur zur Analyse und Auswertung von Ein-/Aussteigerdaten und der Vorhersage von Belegungsdaten einzelner Busse und Bahnen. Die Cloudlösung ist komplett auf einem selbstgehosteten baremetal Kubernetes Cluster bereitgestellt mit einer vollständigen Containerisierung aller Dienste (incl. redundante Datenbanken). Entwicklung- und Testsysteme werden auf AKS bereitgestellt. Die Gesamtlösung besteht aus folgenden Eckpunkten:

  • Spring Boot Microservice Architektur für Business Logik (Kappa, Lambda to Kappa (Streamification))
  • DevOps /GitOps Continuous Deployment aller Container, Dienste und Konfigurationen mittels Azure Devops und Flux
  • Flink Cluster zur Analyse & Prozessierung der Echtzeitdaten
  • Verteilte Apache Druid Datenbank für Timeseries Aggregierte Daten
  • Containerisierter Kafka Cluster (incl. Zookeeper) als verteilter Datastream der Echtzeitdaten
  • Multimandantenfähiges Juypterhub als Datascience/AI Workbench
  • Metabase, Zeppelin, Superset für Adhoc Auswertungen und Dashboards
  • MongoDB für NoSQL basierte Daten
  • Minio S3 als Objektspeicher und Dropzone für die Lieferantendaten (Multimanadtenfähig)
  • Azure Storageaccount als Spiegel des Objektspeichers
  • Single Sign-on mit EntraID und Dex (Bereitstellung der EntryID Einstellungen per Devops mit Terraform)
  • Postgres für relationale Datenbanken
  • Verteilter Rook Ceph FS als Block Storage Backend
  • Hoch verfügbarer Nginx-Ingress als SSL Reverse Proxy
  • Cert Manager Operator für Ingress Zertifikate (Lets Encrypt) und als interne PKI
  • Zentrale Logs und Metriken mit Grafana, Prometheus, Loki Stack
  • Baremetal Knoten (Ubuntu) Konfiguration & Administration per Ansible
  • Umsetzung von Entwicklung- und Testsysteme auf AKS & Terraform basis
  • Hochverfügbarer (keepalived) nativer Kubernetes Cluster
  • VPC-like privates Netzwerk per VLANs und Weave Networks mit Node-to-Node Encryption at transit (IPSec)
  • Single-Sign On and allen Komponenten mit Azure Active Directory (Oauth2)
  • BMDV Projekt Fahrbar20
    • Veröffentlichung des vom Bundesministerium für Verkehr geförderten Projekts "fahrbar20" zur KI-basierten Optimierung der Auslastung im öffentlichen Nahverkehr. Die technischen Projektergebnisse wurden als Open Source auf GitHub veröffentlicht
    • Ein produktionsbereiter, Kubernetes-nativer Apache Druid Cluster, der über GitOps mit druid-operator und fluxcd verwaltet wird und ein Zookeeper-less Setup verwendet
    • Das Setup ermöglicht Autoscaling durch Kubernetes-Jobs und horizontales Pod-Autoscaling für Historical-Knoten und beinhaltet TLS-Verschlüsselung, OAuth2-Login und ein Autorisierungskonzept
    • Eine Druid-Erweiterung zur Ausführung von Python- und Java-Code während der Druid-Ingestion-Jobs
    • Konfiguration für einen Jupyterhub-Cluster auf Kubernetes-Basis unter Verwendung des Jupyterhub-Helm-Charts und FluxCD als GitOps-Tool. Es bietet dedizierte IDEs für Benutzer mit Single-Sign-On (SSO) über Azure DevOps
    • Generische Java-Datentypen für den öffentlichen Nahverkehr mit einer Fuzzy-Hashing-Technik zum Abgleich von Daten aus verschiedenen Quellen
    • Konfiguration für einen Apache Kafka Cluster auf Kubernetes-Basis, der den Strimzi Kafka Operator und FluxCD für die GitOps-Bereitstellung verwendet. Beinhaltet die Bereitstellung von CMAK und AKHQ zur Überwachung
    • Konfiguration für einen MongoDB Cluster auf Kubernetes-Basis, der den mongodb-kubernetes-operator und FluxCD für die GitOps-Bereitstellung verwendet. Das Setup umfasst dedizierte MongoDB-Cluster pro Projekt, RBACs und die Verwaltung von Secrets mit SOPS
    • Generische Azure DevOps-Pipeline-Vorlagen für Docker- und Helm-basierte Bereitstellungen
    • GitOps-basierter Flink Cluster auf Basis des Apache Flink Kubernetes Operators
  • Aus Kostengründen sind alle Dienste auf gemieteter dedizierter Hardware implementiert, was den Preis beim Dauerbetrieb vergleichbarer Microsoft Azure und Amazon Webservices auf ein Zehntel deren reduziert. Bei hoher Last von Microservices und Analytics Jobs können vorübergehen Public Cloudressourcen (Azure) hinzugefügt werden (Public Cloud Burstout). Entwicklung- und Testsysteme werden temporär und bei Bedarf automatisiert auf AKS bereitgestellt
Kubernetes Docker Containerd AngularJS Maven Kubernetes 1.29 (und frühere seit 1.17/ Nativ und AKS) Kafka Zookeeper Strimzi Operator Flink Cluster Operator (Apache Flink Kubernetes Operator) Dedicated Bare Metal Server von Hetzner Ubuntu Server (secure) Java Kotlin Javascript/Typescript Ansible Shell Python Terraform Go druid-operator fluxcd mongodb-kubernetes-operator Helm Charts Charts Repos auf Github Nginx Ingress Controller Certmanager Operator Letsencrypt KeepaliveD Rook Ceph Operator ZFS MinIO S3 Object Storage Azure Storage Accounts Azure EntraID Dex MongoDB Postgres MySQL SOPS mittels Azure Keyvault im nativen Kubernetes Cluster Grafana Prometheus (& -Adapter) Loki Promtail CMAK AKHQ Strimzi Kafka Operator Azure Devops (YAML Pipelines/ Releasemanagement / GIT) Flux Gitops Github Actions OpenSSL Firewalls (UFW/ Fail2Ban)
Hochverfügbarer Apache Druid Cluster Kubernetes API Erweiterungen (CRDs) Zookeeper-less Setup horizontales Pod-Autoscaling (HPA) für Historical-Knoten private PKI LDAP Oauth2 Anonymous Access RBACS Application lifecycle management Agile Entwicklung Scrum Kanban Devops Gitops PromQL Verschlüsselung / Kryptographie VPN PKI Encapsulation/Tunneling (IPSec) DNAT/SNAT HTTPS HTTP (Reverse) Proxies Proxy Protokoll Public Key Verfahren (Zertifikate/ TLS/ PKI/ Lets Encrypt) Routing IP Subnetting Spring Boot Microservices Architekturen (Spring Boot/Spring WebMVC) Spring Boot Microservices Architekturen (Spring Data/Spring Security/Oauth2)
gerne auf Anfrage
9 Monate
2024-03 - 2024-11

CLOUDRIDERS

Managing Architect für Devops von AWS und Azure Cloud Accounts unter Einhaltung der Governance-Vorgaben sowie dem Gitops Prinzip CRDs HPA Network Policies ...
Managing Architect für Devops von AWS und Azure Cloud Accounts unter Einhaltung der Governance-Vorgaben sowie dem Gitops Prinzip

Umfassende Architektur- und Implementierungstätigkeiten in den Bereichen Cloud Governance, Automatisierung und Betrieb der konzernweiten AWS und Azure Clouds

  • Beratung und Governance (DB Systel):
    • Beratung der Stakeholder, des Managements und der Umsetzungsteams zur Implementierung neuer projektspezifischer Cloud Accounts und Cloud Account Klassen
    • Anforderungsanalyse unter Einhaltung der konzernweiten Cloud Governance und Security-Vorgaben sowie Gitops Prinzipien
    • Ausarbeitung und Einreichung eines Umsetzungsvorschlags zur Erweiterung der Cloud Governance
    • Erstellung und Pflege von Architektur- und Design-Dokumentationen
    • Fachliche Beratung und Coaching des Azure-Teams zu Best Practices für GitOps, Terraform, Kubernetes und Bootstrapping-Prozesse
    • Beratung des Cloud Governance Teams bei der Weiterentwicklung und Anpassung von AWS Service Control Policies (SCPs)
  • Cloud-Automatisierung (DB Systel) im Bereich Microsoft Azure:
    • Entwurf und Umsetzung von Disaster Recovery und Bootstrapping-Szenarien für AWS- und Azure-Landezonen
    • Architektur, Konzeption und Implementierung einer umfassenden Management-Infrastruktur für unternehmensweite Azure Landing Zones. Die Umsetzung mittels Bicep schuf eine skalierbare, sichere und konforme Cloud-Infrastruktur nach GitOps-Prinzipien, welche die vollständige Wiederherstellbarkeit im Desasterfall (Bootstrap-Ready) gewährleistet. Die Lösung deckt die Bereiche Logging, Express Routes, Networking, DNS, Security, Identity und Monitoring ab
    • Durchführung eines Proof of Technology (PoT) zur Evaluierung des Einsatzes von Azure Firewalls im Unternehmenskontext
    • Konzeption und Implementierung einer hochverfügbaren und skalierbaren, unternehmensweiten Azure Private Resolver Strategie für eine nahtlose und sichere DNS-Namensauflösung in hybriden Cloud-Umgebungen. Die Umsetzung erfolgte mittels Bicep und ersetzte das aufwändige, Subscription- und VNet-spezifische Konfigurieren von DNS-Einstellungen. Dies ermöglichte die direkte Nutzung von Azure Private Link und Private Endpoint Funktionalität ohne die Notwendigkeit von Umleitungen im zentralen, konzernweiten DNS
    • Entwicklung einer Gitlab-Pipeline zur zentralen und äquivalenten Verwaltung von DNS-Weiterleitungen für AWS und Azure durch das zentrale DNS-Team, implementiert mittels AWS CDK (Typescript) und Azure Bicep
    • Konzeption einer Blue/Green-Deployment-Strategie für GitLab Fleet-Runner zur Gewährleistung von Zero-Downtime-Deployments (umgesetzt mit GitLab-CI und Azure Bicep)
    • Evaluierung und Durchführung eines Proof-of-Concepts von Terraform-basierten Kubernetes Operatoren (Terraform Operator, Tofu-Controller, Azure Service Operator) für das Bereitstellung von Konventionierten Azure Landzonen und Einhaltung der Cloud Governance Richtlinien
    • Architektur und Implementierung einer Automatisierungslösung für Azure Cloud Subscriptions, analog zur bestehenden AWS-Lösung. Kernstück ist ein entwickelter Kubernetes Azure Terraform Operator (Terraform HCL/CDK, OpenTofu), der den gesamten Lebenszyklus von Azure Landing Zones (Subscriptions, Rollen, Policies, VNets) verwaltet
    • Ablösung einer skriptbasierten Automatisierung für Azure Policies und Rollendefinitionen durch eine stabile, idempotente Lösung (Powershell wegen Rückwärtskompatibilität) sowie Konzeption der Migration zu einer neuen Terraformbasierten Architektur
    • Planung und Prototyp der Migration der Landing-Zone-Bereitstellung von Azure Blueprints zu einer modernen, auf einem Terraform-Operator basierenden Architektur
  • Cloud-Automatisierung (DB Systel) im Bereich AWS:
    • Stabilisierung und Weiterentwicklung der bestehenden GitOps-Automatisierung für AWS Cloud Landzonen
  • Die Automatisierung basiert auf zwei Kernkomponenten: einem in Kotlin (Quarkus Operator Framework) entwickelten CloudAccount Operator und einem in Go entwickelten AWS Account Operator. Letzterer nutzt AWS CDK (TypeScript) zur Bereitstellung von AWS Cloud Accounts und den zugehörigen Ressourcen wie VPCs, IAM-Rollen, Policies, Service control policies und Konfigurationen für Logging, Monitoring, DNS und Security
  • Die Steuerung des CloudAccount Operators erfolgt über Manifeste, die mittels HelmCharts und Kustomize generiert werden. Die gesamte GitOps-basierte Automatisierung wird durch ArgoCD orchestriert
    • Überarbeitung und Härtung der Kubernetes-Plattform als Fundament für die GitOps-basierten Bereitstellungsprozesse
    • Fehleranalyse und Behebung von Bootstrapping-Problemen in der GitLab-Runner-Infrastruktur (GitLab Fleet-Runner und EKS Runner)
    • Konzeption und Implementierung einer durchgängigen Automatisierungsstrategie für das Secret Management (SOPS, AWS Secret Manager, External Secrets Operator) zur Sicherstellung des konsistenten Handlings von Secrets über Kubernetes- und AWS-Umgebungen hinweg
    • Erweiterung des Cloud Account Operators um umfassende Observability-Funktionen durch Integration von Prometheus und Alertmanager

AWS Azure Helm Helmcharts Kubernetes (Nativ/ AWS EKS) ArgoCD AWS CDK (Typescript) Azure Bicep Kustomize OpenTofu SOPS Terraform Azure DevOps (YAML Pipelines) Github Actions Gitlab Gitlab-CI GitlabFleetrunner (AWS/Azure) Gitlab Kubernetes Runner Renovate Alertmanager Grafana Loki Metrics Server Prometheus Promtail AWS Loadbalancer Controller Calico CNI Cert-Manager Cluster Autoscaler External DNS External Secrets Operator Karpenter Prometheus Operator Traefik AWS S3 Azure Storage Accounts EBS AWS Service Control Policies (SCPs) Azure Blueprints Azure Policy Azure RBAC AWS KMS AWS Secret Manager Azure Firewall Azure Keyvault Active Directory/EntraID Bash Java Kotlin Python Typescript YAML GoTemplate HCL Bicep AWS SDK Quarkus Operator Framework Azure ExpressRoute Azure Private DNS Resolver Azure Private Link Artifactory Git FluxCD (Sourcecontroller (OCIRepository/ GitRepository) für den Tofu-Controller FluxCD (ImageAutomationController)
CRDs HPA Network Policies OCI RBAC Taints/Affinitys PromQL PVC Firewalls TLS Oauth2 (S/D)NAT DNS HTTP/HTTPS Private Endpoint (Reverse) Proxies Routing Subnetting SFTP SSH Agile Entwicklung Application Lifecycle Management Blue/Green Deployments DevOps GitOps Kanban Scrum Security by Default
Deutsche Bahn / DB Systel
1 Jahr 1 Monat
2023-03 - 2024-03

ATLAS

Managing Architect des Konzerndatalake für Produktionsereignisse (Techlead, Requirements Engineering von Business- und Technischen Anforderungen) ARC 42 Methodik und Templates Kanban Enterprise Rollen-/Rechtekonzept mit Multimandantenfähigkeit im Kontext der Security- ...
Managing Architect des Konzerndatalake für Produktionsereignisse (Techlead, Requirements Engineering von Business- und Technischen Anforderungen)

Neubewertung der Anforderungen sowie Refactoring, Anpassung der Architektur und die Implementierung eines konzernweiten Datalakes ATLAS auf Basis der Data Management Platform (DMP) zur Speicherung, Aufbereitung, Weiterverarbeitung und Analyse von Echtzeitdaten. Die Architektur ist im Projektzeitraum mit folgenden Eckpunkten bewerten, abgepasst und teilweise neu entworfen sowie dessen Implementierung, durch das Entwicklungsteam und mich selbst umgesetzt worden:

  • Requirements Engineering sowie architekturelle Bewertung der nötigen und möglichen Einsatzszenarien, Tools und Datenstrukturen unter der Betrachtung von Separation of Concern, Konzernvorgaben, Dynamische Anpassung, Kosteneffizient und technischen Skills des betriebsführenden Teams
  • Der Datenlake war selbst ein Konsument des Produktionsereignisbrokers (zu Beginn Active MQ/Später Kafka)
  • Vorgabe war die Nutzung der Konzern Data Management Platform (DMP), eine Lambda Architektur ohne Echtzeitfunktionalität
  • Konzeption und Implementierung der Echtzeitdatenintegration des Kappa Systems mittels dedizierter Azure Container Instance Umgebung mit Fokus auf Ausfallsicherheit, Hochverfügbarkeit, Monitoring und hohem Schutzbedarf im Kontext der Security-, Compliance- und Governance Vorgaben
  • Konzeption und Implementierung des Monitoring und Alerting
  • Konzeption einen Pseudonymisierung- und Löschverfahren mit unterschiedlichen Regeln je nach Datenart
  • Entwurf des multidimensionalen Rollenkonzept der Datalake Nutzer, der verschiedenen Konzerngeschäftsfelder und Datenarten
  • Konzeption des Backup und Recovery
  • Ablösung des vorhandenen eigenentwickelten Anzeigeportals der Echtzeitdaten durch eine PowerBI basierte Lösung zur Kostenreduktion von ca. 80%
  • Konzeption und Implementierung der Infrastructure as Code Devops Integration
  • Architekturelle und technische Planung und Betreuung des Penetration Tests
Container Instances/Registry Keyvault Storageaccounts Loganalytics Workspace Application Insights Kusto Query Language SQL Server CosmosDB Synapse Azure Active Directory/EntraID (Gruppen/Rollen/ACLs/Service Principals) User Managed Identities Service Principals IAM Roles/Policies Data Management Platform (DMP) Python Terraform Docker Active MQ Kafka Azure Devops (Pipelines YAML) Flyway PowerBI
ARC 42 Methodik und Templates Kanban Enterprise Rollen-/Rechtekonzept mit Multimandantenfähigkeit im Kontext der Security- Compliance- und Governance Vorgaben Scoping auf unterschiedlichen Azure Komponenten
Deutsche Bahn / DB Systel
2 Jahre 3 Monate
2022-01 - 2024-03

FREQUENZMANAGEMENT

DevOps Architect Stammdaten Lookup Mehrere unterbrechungsfreie Druid Upgrades (von 0.20.2 bis 29.0.0) Klonen eines Druid Clusters incl. aller Daten und Einstellungen (Systemkopie) ...
DevOps Architect

  • Architektur und Implementierung einer verteilten, automatisch skalierenden Bigdata Timeseries Database für die automatische Erfassung von Personen-, Objekt- und Bewegungsdaten mittels Überwachungskameras an großen deutschen Bahnhöfen. Folgende Eckpunkte sind relevant:
    • Verteilte Bigdata Apache Druid Database
    • Erfassung von kontinuierlichen Datenströmen von bis zu 6 Terabyte Daten pro Tag
    • Fokus auf Skalierbarkeit, Performance und Security im Kontext eines hohen Schutzbedarfs (hohe Anforderungen an Sicherheit und Verschlüsselung)
    • Grundlage Kubernetes Cluster (EKS) aus Gründen der Betriebsführung und Skalierbarkeit
    • TLS 1.3 Verschlüsselung aller Datenbank Komponenten
    • Authentifizierung und Autorisierung des Zugriffs mittels Konzern Active Directory
    • Deepstorage der Zeitreihensegmente auf AWS S3
    • Metadatabase auf AWS RDS Cluster (Postgres)
    • Automatische horizontale Skalierung der Datenbank und des Kubernetes Clusters limitiert auf 62 Cluster Komponenten auf Kostengründen
  • Die Lösung benötigte einen, zu implementierenden, Kubernetes Cluster in der vorhanden AWS Cloud. Die Bereitstellung sollte in den vorhandenen Gitlab-CI Pipelines implementiert sein. Folgende Eckpunkte sind relevant:
    • Bereitstellung mittels AWS EKS
    • Sekundärfokus auf vollständige Automatisierung und automatischem Deployment und Update (Walking Skeleton) sowie automatischer Betriebsführung und Monitoring
    • Nutzung von vorhandenen Pipelines und Devops Methoden
    • Nutzung Terraform Deployment
    • Unterstützung der Anforderungen eines hohen Schutzbedarfs (hohe Anforderungen an Sicherheit und Verschlüsselung)
    • Devops der Kubernetes Cluster & Infrastruktur (IaC) mit Gitlab-Ci Pipelines, Terraform und Ansible
    • Gitops Ansatz per Kubernetes Konfiguration mit Flux (v2)
    • Hochverfügbarkeit und Zonentoleranz des Kubernetes Clusters
    • Kubernetes (API) Authentifizierung und Autorisierung mittels AWS IAM Rolles
    • Verschlüsselung aller Secrets im Git Repository (SOPS)
    • Erweiterung des Druid Metrics Exporter um h?orizontale Podskalierung (Kubernetes HPA) zu ermöglichen
Apache Druid AWS Kinesis Superset S3 Deepstorage RDS Metastore Exasol Database RDS Postgres Database Kubernetes AWS EKS AWS Cloudprovider (CSI) AWS Loadbalancer Ingress Controller Helm Clusterautoscaler Druid Operator External DNS EBS CSI Driver Loadbalancer Controller Calico Tigera CNI Operator Wireguard Grafana FluentBit Prometheus Prometheus Adapter Metrics Server Gitlab Runner (Kubernetes executor) Terraform AWS CDK Java Bash Python YAML Go Flux Gitops SOPS Kustomize Artifactory Gitlab Gitlab-CI Renovate Active Directory LDAP OpenSSL SSH SFTP AWS (S3/ Kinesis/ Lambdas/ RDS/ Loadbalancer) AWS (Subnets/ Instances/ Route 53/ Fargate/ Cloudwatch/ ACM/ Cloudtrail) AWS (Certificate Manager/ KMS/ SSM/ VPC)
Stammdaten Lookup Mehrere unterbrechungsfreie Druid Upgrades (von 0.20.2 bis 29.0.0) Klonen eines Druid Clusters incl. aller Daten und Einstellungen (Systemkopie) HA MultiAZ RBACs CRDs Managed Nodegroups Network Policies HPA PVC CronJobs Custom Metrics Taints/Label/Affinitys KMS Encryption PromQL IAM Roles/Policies Service Control Policies Instance Profiles Autoscaling Group Variable Substitution Verschlüsselung / Kryptographie Encapsulation (IPSec/Wireguard) Ethernet IPs DNS A/CNAME Routing IP Subnetting DNAT/SNAT Firewalls HTTPS Proxys HTTP/HTTPS Hochverfügbar und Verteilt (AZ Übergreifend und Redundant Druid Komponenten) Multiple Druid Cluster (Stages mit unterschiedlichem Sizing automatisiert) Autoscaling Broker/ Router/ Historicals (mittels Kubernetes API Erweiterungen) Autoscaling Broker/Router/Historicals (eigener Exporter/Prometheus Adapter/Kubernetes HPA) Druid Tiering (Testworkload und Prodworkloads) TLS in Transit Encryption LDAP/AD Authentifizierung incl. Rollenkonzept Kubernetes Service Discovery (Zookeeper Ablösung) Kubernetes Job-basierte Druid Tasks (Middlemanager Ablösung) auf dedizierter Spotinstance Nodegroup
Deutsche Bahn / DB Systel
10 Monate
2022-01 - 2022-10

COOPERATE SECURITY PLATFORM

Managing Architect für Konzernsicherheitslösung (Techlead, Requirements Engineering von Business- und Technischen Anforderungen) ARC 42 Methodik und Templates Scrum Enterprise Rollen-/Rechtekonzept mit Multimandantenfähigkeit im Kontext der Security- ...
Managing Architect für Konzernsicherheitslösung (Techlead, Requirements Engineering von Business- und Technischen Anforderungen)

Globale Architektur der Konzernsicherheitslösung Cooperate Security Platform für die konzernweite Erfassung von sicherheitsrelevanten Vorfällen. Die Architektur ist im Projektzeitraum mit folgenden Eckpunkten entworfen und die Implementierung, durch die Entwicklungsteams, entsprechend gemanaged worden:

  • PegaCloud Plattform als eigentliche Applikation und die Workflow Engine
  • Data Management Platform (siehe 2021) als Stammdatenhaltung, Stammdatenlieferung aus Fremdsystemen und die Grundlage für Analytic
  • Datenintegration diverser Konzernsysteme für notwendige Stamm- und Abrechnungsdaten
  • Fokus auf Multitenancy, Nutzung von vorhandenen Plattformangeboten, Security und Datenschutz
  • Entwurf des multidimensionalen Rollenkonzept der Endnutzer, der verschiedenen Konzerngeschäftsfelder und Vorfallsarten nach Least Privilege Prinzip und des Datenimports sowie der -Weitergabe an Dritte (Polizeibehörden, Verkehrsverbünde, etc)
  • Stufenweiser Golive mit online Migration des Altsystems
Pega Cloud Services und Data Management Platform Azure Active Directory (Gruppen/Rollen/ACLs/Service Principals) IAM Roles/Policies Managed Identitys Service Principals Azure Devops Azure Synapse (Java/Spark/SQL/PySpark) Azure Databases: SQL Server Azure: Storageaccount Keyvault
ARC 42 Methodik und Templates Scrum Enterprise Rollen-/Rechtekonzept mit Multimandantenfähigkeit im Kontext der Security- Compliance- und Governancevorgaben Scoping auf unterschiedlichen Azure Komponenten Rowlevel Security Location Based Services Routing IP Subnetting DNAT/SNAT Firewalls HTTPS Proxys
Deutsche Bahn / DB Systel
10 Monate
2021-01 - 2021-10

DATAMANAGEMENT PLATFORM

Managing Architect für Azure Cloud ARC 42 Methodik und Templates Scrum Verschlüsselung / Kryptographie ...
Managing Architect für Azure Cloud

  • Architektur und Implementierung der Data Analytics Platform (DMP) als standardisiertes Plattformangebot für DB Konzerngeschäftsfelder. Die DMP ist die Implementierung der Bigdata Referenz Architektur des DB Konzerns
  • Die Lösung ist im Projektzeitraum mit folgenden Eckpunkten entworfen, entwickelt und betrieben worden:
    • Grundlage Azure Cloudnative Anwendungen unter Anbetracht DB Complaince und Securityvorgaben
    • Fokus auf ?one fits many? und IT Security
    • Vollautomatische Integration ins DB Systel Bestellwesen und die Abrechnung (Digitalportal)
    • Unterstützung von Anwendungen mit dem hohen Schutzbedarf (hohe Anforderungen an Sicherheit und Verschlüsselung)
    • Devops der Komponenten und Infrastruktur (IaC) mit Gitlab-Ci Pipelines, Terraform
    • Entwurf Rollenkonzept für Endnutzer mittels Azure Active Directory
    • Entwurf Domänenschema der IaC Lösung
    • Betrieb der Plattform
    • Betreuung des Teams bei der Entwicklung der CI/CD und bei neuen Features
    • Anpassung/Erweiterung der konzernweiten Azure Vorgaben in Abstimmung mit verschiedenen Security & Co?mpliance Teams und Kontrollgremien
Storageaccount VMs VM Extensions Keyvault Diskencryptionsets Log Workspaces Loadbalancer Availability Sets IAM Roles/Policies Managed Identitys Service Principals NSGs Azure Backup Cloud-Init Private Endpoints Private DNS Zones CLI/ARM Templates Azure Synapse Azure Eventhubs (Cluster/Premium) AWS Eventbridge Azure Stream Analytics Azure Devops Azure Functionapps SQL Server CosmosDB SQL Pool Azure Databricks Terraform Java Shell YAML Strimzi Operator Azure Active Directory Gitlab Gitlab-CI Gitlab Runner OpenSSL Windows Server SSH SFTP
ARC 42 Methodik und Templates Scrum Verschlüsselung / Kryptographie TLS zur Wire Encryption Ethernet IPs DNS A/CNAME Routing IP Subnetting SSL/TLS HTTP/HTTPS
Deutsche Bahn / DB Systel

Aus- und Weiterbildung

Aus- und Weiterbildung

Diplom Wirtschaftsinformatiker (FH)

IT Fachinformatiker / Systemintegration

Position

Position


Kompetenzen

Kompetenzen

Top-Skills

Kubernetes DevOps Cloud Architect Java Spring AWS Azure Big Data Terraform Flux Apache Druid Infrastructure as code Helm CI/CD GitOps Künstliche Intelligenz Security Konzepte Arc42

Produkte / Standards / Erfahrungen / Methoden

Kurzprofil:

  • Sehr erfahrener Managing Big-Data-Software- und Infrastruktur-Automatisierungs-Architekt für komplexe und hochsichere KI-, Big-Data-, Cloud- und DevOps-Lösungen in heterogenen Systemlandschaften mit sehr breitem Technologie Background.
  • Schwerpunkte: Konzeption und Umsetzung von KI-gestützten Architekturen, DevOps-Automatisierung, Kubernetes, Big-Data-Plattformen und Cloud-native Microservices.
  • Experte für die Entwicklung und das Management von skalierbaren und hochsicheren Infrastrukturen in Cloud und klassischen Umgebungen.
  • Ausgeprägte Lösungs- und Umsetzungskompetenz von Business-Anforderungen in agilen Umgebungen.
  • Erfahrener Manager- und Projektleiter in agilen Umgebungen.


KI REFERENZ PROJEKT: SOVEREIGN ENTERPRISE AI PLATFORM

  • High-Performance AI Appliance für den öffentlichen Sektor & Industrie
  • Data Philter ist eine Local-First Sovereign AI Middleware, die es ermöglicht, modernste Generative KI (LLMs) vollständig offline, datenschutzkonform und hochperformant auf eigener Hardware (On-Premise oder Edge) zu betreiben.


KEY FEATURES

  • 100% Offline & Air-Gapped: Funktioniert ohne Internetverbindung. Ideal für VS-NfD und DORA Umgebungen, Behörden, Banken und kritische Infrastrukturen. Keine Daten verlassen das Unternehmen.
  • Agentic Workflow Engine (MCP): Autonome "Tool-Calling Agents" führen komplexe Aufgaben aus, analysieren Logs, steuern Systeme und integrieren sich nahtlos in bestehende Prozesse.
  • Multi Model & Agentic Mesh: Orchestrierung spezialisierter Modelle (Llama 3, Phi-4) via "Agentic Mesh" für komplexe Aufgabenketten. Optimiert für lokale LLMs.
  • Fine-Tuning & Grounding: Anpassung auf eigene Daten (LoRA/QLoRA) inkl. Feedback-Loops. Integriertes Grounding durch Tool-Verifikation und Vektorsuche für verlässliche Fakten.
  • Enterprise Data Docking: Schluss mit einfachem RAG. Data Philter bietet echte SQL-Integration (PostgreSQL, SAP HANA, Oracle) und Time-Series-Analyse (ClickHouse) via natürlicher Sprache.
  • Edge Optimized: Maximale Performance auf minimaler Hardware durch fortschrittliche Quantisierung (GGUF, AWQ) und TensorRT-LLM Optimierung. Läuft auf Laptops, Edge-Gateways und Server-Clustern.


TECH STACK

  • AI Core: Ollama, Llama 3.x, Phi-4, Mistral, Aura Models, TensorRT-LLM, AMD Ryzen AI / ROCm, LoRA, QLoRA
  • Platform: Kubernetes (K8s), Helm, Docker, Nvidia GPU Operator, KAI
  • Backend: Java (Spring Boot), Python, C++
  • Integration: REST, OData, JDBC, MQTT, Model Context Protocol (MCP), SAP JCo


MEHRWERT & BUSINESS IMPACT

  • Sovereign AI: Volle Kontrolle und Eigentum über Daten und KI-Modelle.
  • Sofort einsatzbereit: "AI-in-a-Box" Lösung spart Monate an Entwicklungs- und Integrationszeit.
  • Compliance-Konform: Erfüllt höchste Sicherheitsstandards für den Umgang mit sensiblen Daten.
  • Skalierbar: Vom robusten Edge-Device bis zum Hochleistungs-Cluster im Rechenzentrum.


ERFAHRUNG & KENNTNISSE

Projektmanagement:

  • IT-Architektur (primär ARC42)
  • Projektleitung
  • Umsetzungsteamleitung
  • Techlead
  • Stakeholdermanagement
  • Requirements Engineering
  • Scrum (Scrum Master, Product Owner, Scrum of Scrums)
  • Agiles Projektmanagement mit Scrum, Kanban, Scrumban, Agile Entwicklung
  • Application Lifecycle Management
  • Blue/Green Deployments
  • Security by Default
  • JIRA / Confluence
  • DevOps
  • Offshore Teams (Indien, USA, Malaysia)


Containerisierung:

  • Kubernetes (Baremetal, EKS, AKS, K3S, Openshift)
  • Kubernetes Ecosystem (CRDs, Helm, Helmcharts, HPA, Network Policies, OCI, RBAC, Taints/Affinitys)
  • Kubernetes Operators/Tools (AWS Loadbalancer Controller, Calico CNI, Cert-Manager, Cluster Autoscaler, External DNS, External Secrets Operator, Karpenter, Prometheus Operator, Traefik, druid-operator, fluxcd, mongodb-kubernetes-operator, Strimzi Kafka Operator, Apache Flink Kubernetes Operator, Nginx Ingress Controller, Rook Ceph Operator, Nvidia GPU Operator, KAI)
  • Docker / Docker Compose / Containerd
  • Podman / Kaniko / AWS ECS / Azure Container Instances
  • KeepaliveD


DevOps/IaC/GitOps:

  • IaC (Terraform/OpenTofu, Ansible, AWS Cloudformation / CDK, Azure Bicep & ARM Templates)
  • Gitops (FluxCD / ArgoCD, Kustomize, SOPS)
  • CI/CD (Azure DevOps (YAML Pipelines), Github Actions, Github releases, Gitlab, GitlabCI, Gitlab-Fleetrunner (AWS/Azure), Gitlab Kubernetes Runner, Renovate, maven central)
  • Observability (Alertmanager, Grafana, Loki, Metrics Server, Prometheus, PromQL, Promtail, CMAK, AKHQ)


Cloud & Virtualisierung:

  • As a Service (SaaS, PaaS, LaaS, IaaS etc.) Technologien und Geschäftsmodelle
  • AWS: EKS, EC2, EBS, EFS, VPC, Subnets, Loadbalancer, RDS (Postgres, MSSQL, MySQL), DocumentDB, ECS (Fargate), ECR, IAM (Roles, Users, Policys, SAML, Instance Profiles), KMS, Glue (Catalogs, Jobs, Endpoints, Notebooks), Athena, EMR (at wire & at rest encryption), Lambda, S3 (Bucket Policys, SSE, IAM Policies), Redshift, SSM, Eventbridge, Kinesis, Lambdas, Certificate Manager, Autoscaling Group, Route 53, CloudWatch
  • Azure: Synapse, Databricks, Eventhubs (Cluster/Premium), Stream Analytics, Storageaccount, VMs, VM Extensions, Keyvault, Diskencryptionsets, Log Workspaces, Loadbalancer, Availability Sets, Managed Identitys, User Managed Identities, Service Principals, IAM Roles/Policies, Scoping auf unterschiedlichen Azure Komponenten, NSGs, Azure Backup, Cloud-Init, Private Endpoints, Private DNS Zones, CLI/ARM Templates, WebApps, VNets, FunctionApps, LogicApps, IAM Roles/Policies, SQL Server, CosmosDB, SQL Pool
  • Governance (AWS Service Control Policies (SCPs), Azure Blueprints, Azure Policy, Azure RBAC)
  • Identity (Active Directory/EntraID, Oauth2)
  • Azure Devops
  • Hetzner (Cloud)
  • Virtualisierung
    • VMware vSphere Automatisierung
    • Automatisierung von SAP Landschaften in Cloudumgebungen
    • VMware (ESX 3.0 to vSphere 5.0) in Verbindung mit NetApp Storage Systemen und Flexclones
    • Microsoft Hyper-V
    • Fujitsu Flexframe
    • Virtualisierungsmigrationen (P2V/V2V)
    • Private to Public Cloud Migrationen


BigData

  • Apache Druid
  • ClickHouse
  • Hadoop Framework (HDFS/YARN, Hive (interactive LLAP), HBase, Ranger, Kafka, Zookeeper, Spark/Spark2, Storm) incl. Security Kerberos, LDAP, TLS, Ranger in Hortonworks Cloudera Distributionen, Datebricks
  • Nifi Cluster
  • CosmosDB
  • MongoDB
  • Redis
  • Zeppelin mit Spark Livy
  • AWS EMR, Glue, Athena, Redshift RDS
  • Airflow
  • Flink Cluster
  • Superset
  • Tableau Server und Designer mit HDP Hive Thrift und Kerberos
  • Postgresql / pgvector
  • SAP HANA
  • Elastic Search / ELK
  • Microsoft/Azure SQL Server/Pool
  • Azure Synapse
  • SAP MaxDB
  • MySQL
  • SQLite
  • Oracle
  • Spring Data, JDBC, ODBC, Hibernate, JPA, SQL
  • Metabase
  • Minio S3


INFRASTRUKTUR:

  • Storage Systeme (SAN/NAS)
    • ZFS (Snapshots, RAIDs, Cloning)
    • NetApp (Snapmirror, Flexclone, Sisclone, Dedup, DataOnTap Powershell)
    • iSCSI, NFS
    • AWS S3, Azure Storage Accounts, EBS, PVC
  • Netzwerktechnologien
    • Azure ExpressRoute, Azure Private DNS Resolver, Azure Private Link, Private Endpoint, (Reverse) Proxies, Subnetting, Proxy Protokoll
    • REST, OpenAPI, JSON, XML, JSON Schema, Message Bus, Webservices
  • Security
    • Verschlüsselung: Encryption at rest, Encryption at transit, Symetrische Verfahren (AES), Public Key Verfahren (SSL, TLS, PKI), IPSec, Wireguard
    • AWS KMS, AWS Secret Manager, Azure Firewall, Azure Keyvault, UFW, Fail2Ban


Plattformen / Frameworks:

  • Java Platform, Enterprise Edition (Java EE)
  • Spring AI
  • Spring AI annotations
  • Spring (Boot, WebMVC, Data, Security, Oauth, Batch)
  • Spark
  • Terraform und Cloudformation
  • AWS CDK
  • Quarkus Operator Framework
  • AspectJ / AOP
  • Android / Cocoa Touch (iOS)
  • Webserver (Apache, Tomcat, Jetty, Nginx)
  • Git
  • Angular
  • Angular SSR
  • Node.js
  • Express
  • OpenAI API (ChatGPT) / Azure OpenAI / AWS Bedrock
  • Ollama (Llama 3, Phi-4, Mistral, Aura Models)
  • Gemini API
  • Sovereign AI / Local-First AI
  • Agentic AI (AI Agents) / Dynamic Tool Creation / Agentic Mesh
  • Fine-Tuning (LoRA / QLoRA / Human-in-the-Loop)
  • LLM Optimization (TensorRT-LLM / vLLM / llama.cpp / GGUF / AWQ)
  • NL2SQL
  • RAG (Retrieval-Augmented Generation)
  • Vectorsearch / Grounding / Decontextualization
  • LibreChat
  • MCP Server (STDIO / SSE / Streamable HTTP)
  • Model Context Protocol
    • MCP Server (STDIO / SSE / Streamable HTTP)
    • MCP Client
    • Model ?Context Protocol Registry
  • Cloudflare
  • JSON-LD
  • Maven


Blockchain & Crypto:

  • NFTs
  • Smart Contracts
  • Ethereum
  • ethers.js
  • Arbitrum
  • Metamask


SAP:

  • SAP Basis
  • Installation & Konfiguration von SAP Netweaver Systemen (ECM/ERP, CRM, SCM, BI) und SAP Business Objects-Software
  • Product Lifecycle Management (PLM) in den Bereichen:
    • SAP DMS und SAP Easy Document Management
    • Klassifizierung
    • SAP Authorisierungskonzepte und ACLs
  • SAP PPM/cProjects
  • SAP PLM 7.02 (Tests)
  • ABAP4 & Webdynpro Grundkenntnisse


Geo Information - & Location Based Services:

  • Location & Maps Services
  • Openstreetmaps (OSM Nominatim / Overpass)
  • Geocoding
  • Maps (Openstreetmaps, Bing Maps, Google Maps)
  • Location Based Services & Location Determination
  • GPS Data/Cell Tower Data/iBeacons/Wifi Data


Demos:

Gerne Livedemos der genannten Lösungen in einem Interview


Relevante Arbeiten in Enterprise AI, Cloud Data Lakes und Big Data:

  • Data Philter - Sovereign AI NL2SQL Platform
    • Github
    • Video zur Sovereign AI Plattform
  • AI Druid MCP Server
    • Enterprise Model Context Protocol (MCP) Server für Apache Druid zur Integration von KI-Assistenten
    • YouTube Tutorial für Druid MCP Server - Tutorial zur Integration von Zeitreihen-KI-Agenten mit dem Apache Druid MCP Server
  • BMDV Projekt: Fahrbar 20 Künstliche Intelligenz basierte Belegungsoptimierung im ÖPNV
    • Opensource Publifizierung
  • BMG Projekt: Fahrbar 1.0 Corona Warnampel - Vorhersage von Belegungsdaten aufgrund von Ein-/Aussteigerdaten in ÖPNVs
    • Fahrbar 1.0
    • BMG Bericht
  • Konzeption des iunera Bigdata Clusters (Big Data, Real-Time Analytics, Realtimedashboards etc. ). Beispielanwendungen
    • bundestagswahlanalyse .de
    • scoinanalytics
  • Blockchain-basiertes Lizenzierungsmodell
    • Open Compensation Token License (OCTL) - Ein Blockchain-basiertes Lizenzierungsmodell zur nachhaltigen Vergütung von Open-Source-Entwicklern
  • OCTL Whitepaper - Detaillierte Beschreibung des Open Compensation Token License Modells
  • LibreChat auf Kubernetes - Helm-Chart für die Bereitstellung der Open-Source-KIChat-Plattform LibreChat auf Kubernetes
    • NLWeb Deployment mit FluxCD - Anleitung zur Bereitstellung des KI-gestützten Web-Anwendungsprotokolls NLWeb mit GitOps und FluxCD
    • WordPress JSON-LD Exporter - Ein WordPress-Plugin zum Exportieren von Beitragsdaten im JSON-LD-Format über eine REST-API

Betriebssysteme

Microsoft Windows
alle Versionen
Linux
Ubuntu Server, Debian, Suse (SLES), CentOS
Mac OSX
Mobile
iOS/Android

Programmiersprachen

Java
8/ 9/ 21
Swift
Python/Ansible
JavaScript
Powershell / Batch
Groovy
Shell / Bash / PHP
Früher bzw. Rudimentäre Kenntnisse
SQL
ABAP4 / Webdynpro for ABAP (rudimentär)
Microsoft .Net / C / C++ (rudimentär)
Kotlin
Typescript
Node.js
HCL
Bicep
YAML
Go-Template
Go
Scala

Datenbanken

Apache Druid
CosmosDB
MongoDB
Redis
Postgresql
SAP HANA
Elastic Search / ELK
Microsoft/Azure SQL Server/Pool
Azure Synapse
SAP MaxDB
MySQL
SQLite
Oracle

Datenkommunikation

REST
JSON
XML
Message Bus
Webservices
IP
UDP
TCP
DNS
SMTP
HTTP(S)
SSH
(S)FTP
SSL/TLS
OpenSSL
Firewalls
Routing
NAT
LAN
WAN
WLAN
Rsync
DHCP
Vlan/VXLan
NFS
VPNs
SNMP
Proxy
Caches
OpenvSwitch
RSTP
IPSec

Branchen

Branchen

  • Bahn / Öffentlicher Nahverkehr
  • Informationstechnologie & Business-Softwareentwicklung
  • Regierungsbehörden & Öffentlicher Sektor
  • Marketing & Werbung
  • Tourismus & Gastgewerbe
  • Gesundheitswesen
  • Finanzdienstleistungen
  • Energieversorgung
  • Bergbau
  • Luftfahrt
  • Automobilindustrie
  • Blockchain
  • Künstliche Intelligenz
  • Open Source
  • Fertigungsindustrie

Vertrauen Sie auf Randstad

Im Bereich Freelancing
Im Bereich Arbeitnehmerüberlassung / Personalvermittlung

Fragen?

Rufen Sie uns an +49 89 500316-300 oder schreiben Sie uns:

Das Freelancer-Portal

Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.