Senior AI / Data Platform Engineer mit MLOps & Cloud Fokus Kombination aus Architektur, Umsetzung und Product Ownership
Aktualisiert am 01.04.2026
Profil
Freiberufler / Selbstständiger
Remote-Arbeit
Verfügbar ab: 31.03.2026
Verfügbar zu: 100%
davon vor Ort: 5%
Python
GenAI
Databricks
Azure
AWS
Kubernetes
LLM
Docker
SQL
Git
OpenAI
CICD

Einsatzorte

Einsatzorte

Hamburg (+20km)
Deutschland
möglich

Projekte

Projekte

2025 - 2026: End-to-End Automatisierung im Rechnungswesen (Dark Processing) mit LLMs + RPA + SAP


Rolle: Data Scientist, Data Engineer

Kunde: Telco


Aufgaben:

  • Entwicklung einer KI-Plattform für automatisierte Rechnungsverarbeitung (Dark Processing)
  • Integration von SAP über Blue Prism (Datenextraktion & -verbuchung)
  • OCR-basierte Extraktion und strukturierte Aufbereitung von Rechnungsdaten
  • Validierung von Vollständigkeit, Tax Code und Tax Rate mittels LLMs (Google Gemini)
  • Entwicklung von Agentenlogiken zur automatisierten Buchungsentscheidung
  • Aufbau skalierbarer Datenpipelines in Databricks


    Kenntnisse:

    Databricks, Python, PyTest, SQL, Google Gemini, BluePrism, ODBC, Windows, YAML, Git, OCR, Prompt Engineering, GenAI, LLM, SAP, RPA


    2025 - 2025: Überführung einer ML-Anwendung in eine produktionsreife Python-Architektur


    Rolle: Data Engineer, Data Scientist

    Kunde: Energie


    Aufgaben:

    • Einarbeitung in eine bestehende Machine-Learning-Codebasis
    • Überführung des bestehenden Repositories in eine produktionsreife Struktur
    • Refactoring und Strukturierung des Codes
    • Durchführung von Code Reviews und Sicherstellung von Codequalität
    • Einführung und Optimierung des Dependency Managements
    • Aufbau einer wartbaren und modularen Python-Projektstruktur
    • Enge Abstimmung mit Data Scientists zur Weiterentwicklung der Lösung


      Kenntnisse:

      Python, PyTest, Poetry, Gitlab, CI/CD, YAML, Git


      2025 - 2025: SAP Systemabgleich zwischen Main- & Subledger


      Rolle: PO & Data Engineer

      Kunde: Telco


      Aufgaben:

      • Analyse und Abstimmung von Datenstrukturen zwischen SAP Main- und Subledger-Systemen
      • Konzeption und Umsetzung zur Harmonisierung von Finanzdaten in Databricks
      • Entwicklung von Datenvalidierungs- und Abgleichslogiken zur Identifikation von Differenzen und Inkonsistenzen
      • Implementierung von automatisierten Datenqualitätsprüfungen
      • Aufbau von Reporting-Dashboards in Power BI zur Visualisierung von Abweichungen und KPIs
      • Enge Abstimmung mit Finance- und Accounting-Stakeholdern
      • Übernahme der Product-Owner-Rolle: Priorisierung des Backlogs, Steuerung der Umsetzung und Abstimmung mit Fachbereichen


        Kenntnisse:

        Databricks, Python, PyTest, SQL, PowerBI, Hive, SAP, Linux, Jira, Confluence, Git


          2024 - 2024: Migration eines proprietären Scheduling-Systems zu Databricks


          Rolle: Data Engineer

          Kunde: Telco


          Aufgaben:

          • Aufbau von Deployments mit Databricks Asset Bundles (YAML-basiert)
          • Refactoring und Migration von Python- und SQL-Jobs in skalierbare Workflows
          • Implementierung von Job-Orchestrierung, Abhängigkeiten und Monitoring
          • Sicherstellung von Stabilität, Performance und Wiederholbarkeit der Pipelines


          Kenntnisse:

            Databricks, DAB, YAML, SQL, Python, PyTest, Linux, Git


            2024 - 2024: Aufbau einer sicheren, skalierbaren Azure-Infrastruktur auf Basis von AKS


            Rolle: DevOps, Data Engineer

            Kunde: Construction


            Aufgaben:

            • Implementierung von mTLS und RBAC zur Absicherung von Services und Zugriffen
            • Entwicklung von Infrastructure-as-Code mit Bicep
            • Aufbau von CI/CD-Pipelines mit Azure DevOps
            • Integration von Key Vault, ACR und API Management
            • Deployment und Betrieb containerisierter Anwendungen


              Kenntnisse:

              Azure Services (AKS, KeyVault, ACR, APIM ?) Python, PyTest, Azure DevOps, Miro, Bicep


              2024 - 2024: Deployment und Betrieb mehrerer ML-Klassifikatoren in einer skalierbaren Azure-Umgebung


              Rolle: MLOps, Data Engineer

              Kunde: Construction


              Aufgaben:

              • Training und Deployment von ML-Klassifikatoren auf Azure Machine Learning Real-Time Endpoints
              • Aufbau von MLOps-Pipelines inkl. CI/CD mit Azure DevOps
              • Entwicklung von Infrastructure-as-Code mit Bicep
              • Containerisierung und Deployment über Azure Container Registry
              • Integration von Key Vault zur sicheren Verwaltung von Secrets
              • Sicherstellung von Skalierbarkeit und stabiler Bereitstellung von ML-Services


                Kenntnisse:

                Azure Services (KeyVault, ACR, APIM, AML ?) Python, PyTest, Azure DevOps, Bicep, MLflow


                2024 - 2024: Entwicklung einer KI-gestützten Plattform zur Analyse unstrukturierter Daten


                Rolle: Data Scientist, PO

                Kunde: Telco


                Aufgaben:

                • Entwicklung einer Web App, Chat GPT Anbindung an eigene Daten, Deployment
                • Aufbau einer Python-basierten Retrieval Augmented Generation Pipeline
                • Strukturierung und Aufbereitung von Informationen aus Textdaten
                • Entwicklung modularer und wartbarer Python-Komponenten
                • Integration von Unit-Tests für zentrale Komponenten


                  Kenntnisse:

                  Databricks, Python, PyTest, SQL, Azure OpenAI, Azure Cognitive Search, , Prompt Engineering, Azure Blob Storage, React, PowerBI, YAML, Git, GenAI, LLM, RAG


                  2024 - 2024: Design und Deployment einer skalierbaren Cloud-Architektur für den Betrieb von 30+ Web-Scrapern


                  Rolle: Cloud Developer, Architekt

                  Kunde: Finanzen


                  Aufgaben:

                  • Design und Aufbau einer skalierbaren AWS-Architektur
                  • Containerisierung und Deployment über ECS und ECR
                  • Orchestrierung von Workflows mit AWS Step Functions
                  • Implementierung von Scheduling- und Automatisierungsmechanismen
                  • Speicherung und Verarbeitung von Daten in S3
                  • Umsetzung von IAM-basierten Zugriffskonzepten


                    Kenntnisse:

                    Amazon Web Services (ECS, ECR, Step Functions, S3, IAM, CloudWatch), Terraform, Python, PyTest, GitHub


                    2023 - 2023: Migration bestehender On-Premise-Anwendungen in eine moderne Azure Cloud-Umgebung


                    Rolle: Projektmanager

                    Kunde: Telco


                    Aufgaben:

                    • Steuerung der Migration
                    • Rolle als Projektmanager & Product Owner in einem Cloud-Transformationsprojekt
                    • Koordination zwischen Fachbereich, Entwicklung und Infrastruktur
                    • Planung und Tracking von Meilensteinen sowie Priorisierung von Anforderungen
                    • Moderation von Workshops und Präsentation von Projektergebnissen


                      Kenntnisse:

                      Jira, Confluence, MS Office


                      2023 - 2023: Ablösung komplexer regelbasierter SQL-Logiken durch Machine-Learning-Modelle


                      Rolle: Data Scientist, ML Engineer

                      Kunde: Telco


                      Aufgaben:

                      • Ablösung komplexer SQL-Regeln durch Machine-Learning-Modelle
                      • Datenaufbereitung und Feature Engineering in Databricks
                      • Training, Evaluation und Deployment von ML-Modellen in Databricks
                      • Aufbau von Monitoring zur Sicherstellung der Modellqualität
                      • Integration in bestehende Systeme und Automatisierung via Azure DevOps


                        Kenntnisse:

                        Databricks, Python, PyTest, Azure, Oracle DB, HIVE, YAML, pickle, Azure DevOps


                        2022 - 2022: Sicherstellung und Weiterentwicklung eines SOx-relevanten Datenprodukts


                        Rolle: Data Engineer, Projektmanager

                        Kunde: Telco


                        Aufgaben:

                        • Sicherstellung und Weiterentwicklung eines SOx-relevanten Datenprodukts
                        • Technische Validierung und Optimierung von Datenpipelines
                        • Verbesserung von Datenqualität und Auditierbarkeit
                        • Aufbau von Compliance-Dashboards in Tableau
                        • Abstimmung mit Fachbereichen und Übernahme von Projektmanagement-Aufgaben


                        Kenntnisse:

                        Oracle DB, SQL, Tableau, Jira, Confluence, Azure DevOps, Python, PyTest, Databricks


                        weitere Projekte auf Anfrage

                        Kompetenzen

                        Kompetenzen

                        Top-Skills

                        Python GenAI Databricks Azure AWS Kubernetes LLM Docker SQL Git OpenAI CICD

                        Produkte / Standards / Erfahrungen / Methoden

                        Senior AI / Data Platform Engineer mit MLOps & Cloud Fokus

                        • 10+ Jahre Erfahrung in Cloud Engineering, Data Platforms und AI-Systemen
                        • Fokus auf Generative AI, LLM-Integration und AI-Agenten in produktiven Systemen
                        • Erfahrung im Aufbau skalierbarer Cloud- und Microservice-Architekturen (Azure, AWS, Kubernetes)
                        • Starke Expertise in API-Integration, MLOps, CI/CD und produktionsreifen AI-Lösungen
                        • Erfahrung in der Integration von LLMs (Azure OpenAI, Gemini) in bestehende Systeme
                        • Kombination aus Architektur, Umsetzung und technischer Beratung


                        Core Skills

                        AI / Generative AI

                        • LLMs (Azure OpenAI, Gemini, Claude)
                        • Prompt Engineering
                        • AI-Agenten
                        • NLP
                        • OCR


                        Cloud & Architecture

                        • Microsoft Azure
                        • AWS
                        • Microservices
                        • API-Integration


                        DevOps / Platform Engineering

                        • Kubernetes
                        • Docker
                        • CI/CD
                        • Infrastructure-as-Code


                        Data & Processing

                        • Databricks
                        • Data Pipelines
                        • ETL/ELT


                        Tools

                        • Git
                        • YAML
                        • REST APIs
                        • Azure DevOps

                        Programmiersprachen

                        Python
                        SQL
                        Java Grundkenntnisse

                        Einsatzorte

                        Einsatzorte

                        Hamburg (+20km)
                        Deutschland
                        möglich

                        Projekte

                        Projekte

                        2025 - 2026: End-to-End Automatisierung im Rechnungswesen (Dark Processing) mit LLMs + RPA + SAP


                        Rolle: Data Scientist, Data Engineer

                        Kunde: Telco


                        Aufgaben:

                        • Entwicklung einer KI-Plattform für automatisierte Rechnungsverarbeitung (Dark Processing)
                        • Integration von SAP über Blue Prism (Datenextraktion & -verbuchung)
                        • OCR-basierte Extraktion und strukturierte Aufbereitung von Rechnungsdaten
                        • Validierung von Vollständigkeit, Tax Code und Tax Rate mittels LLMs (Google Gemini)
                        • Entwicklung von Agentenlogiken zur automatisierten Buchungsentscheidung
                        • Aufbau skalierbarer Datenpipelines in Databricks


                          Kenntnisse:

                          Databricks, Python, PyTest, SQL, Google Gemini, BluePrism, ODBC, Windows, YAML, Git, OCR, Prompt Engineering, GenAI, LLM, SAP, RPA


                          2025 - 2025: Überführung einer ML-Anwendung in eine produktionsreife Python-Architektur


                          Rolle: Data Engineer, Data Scientist

                          Kunde: Energie


                          Aufgaben:

                          • Einarbeitung in eine bestehende Machine-Learning-Codebasis
                          • Überführung des bestehenden Repositories in eine produktionsreife Struktur
                          • Refactoring und Strukturierung des Codes
                          • Durchführung von Code Reviews und Sicherstellung von Codequalität
                          • Einführung und Optimierung des Dependency Managements
                          • Aufbau einer wartbaren und modularen Python-Projektstruktur
                          • Enge Abstimmung mit Data Scientists zur Weiterentwicklung der Lösung


                            Kenntnisse:

                            Python, PyTest, Poetry, Gitlab, CI/CD, YAML, Git


                            2025 - 2025: SAP Systemabgleich zwischen Main- & Subledger


                            Rolle: PO & Data Engineer

                            Kunde: Telco


                            Aufgaben:

                            • Analyse und Abstimmung von Datenstrukturen zwischen SAP Main- und Subledger-Systemen
                            • Konzeption und Umsetzung zur Harmonisierung von Finanzdaten in Databricks
                            • Entwicklung von Datenvalidierungs- und Abgleichslogiken zur Identifikation von Differenzen und Inkonsistenzen
                            • Implementierung von automatisierten Datenqualitätsprüfungen
                            • Aufbau von Reporting-Dashboards in Power BI zur Visualisierung von Abweichungen und KPIs
                            • Enge Abstimmung mit Finance- und Accounting-Stakeholdern
                            • Übernahme der Product-Owner-Rolle: Priorisierung des Backlogs, Steuerung der Umsetzung und Abstimmung mit Fachbereichen


                              Kenntnisse:

                              Databricks, Python, PyTest, SQL, PowerBI, Hive, SAP, Linux, Jira, Confluence, Git


                                2024 - 2024: Migration eines proprietären Scheduling-Systems zu Databricks


                                Rolle: Data Engineer

                                Kunde: Telco


                                Aufgaben:

                                • Aufbau von Deployments mit Databricks Asset Bundles (YAML-basiert)
                                • Refactoring und Migration von Python- und SQL-Jobs in skalierbare Workflows
                                • Implementierung von Job-Orchestrierung, Abhängigkeiten und Monitoring
                                • Sicherstellung von Stabilität, Performance und Wiederholbarkeit der Pipelines


                                Kenntnisse:

                                  Databricks, DAB, YAML, SQL, Python, PyTest, Linux, Git


                                  2024 - 2024: Aufbau einer sicheren, skalierbaren Azure-Infrastruktur auf Basis von AKS


                                  Rolle: DevOps, Data Engineer

                                  Kunde: Construction


                                  Aufgaben:

                                  • Implementierung von mTLS und RBAC zur Absicherung von Services und Zugriffen
                                  • Entwicklung von Infrastructure-as-Code mit Bicep
                                  • Aufbau von CI/CD-Pipelines mit Azure DevOps
                                  • Integration von Key Vault, ACR und API Management
                                  • Deployment und Betrieb containerisierter Anwendungen


                                    Kenntnisse:

                                    Azure Services (AKS, KeyVault, ACR, APIM ?) Python, PyTest, Azure DevOps, Miro, Bicep


                                    2024 - 2024: Deployment und Betrieb mehrerer ML-Klassifikatoren in einer skalierbaren Azure-Umgebung


                                    Rolle: MLOps, Data Engineer

                                    Kunde: Construction


                                    Aufgaben:

                                    • Training und Deployment von ML-Klassifikatoren auf Azure Machine Learning Real-Time Endpoints
                                    • Aufbau von MLOps-Pipelines inkl. CI/CD mit Azure DevOps
                                    • Entwicklung von Infrastructure-as-Code mit Bicep
                                    • Containerisierung und Deployment über Azure Container Registry
                                    • Integration von Key Vault zur sicheren Verwaltung von Secrets
                                    • Sicherstellung von Skalierbarkeit und stabiler Bereitstellung von ML-Services


                                      Kenntnisse:

                                      Azure Services (KeyVault, ACR, APIM, AML ?) Python, PyTest, Azure DevOps, Bicep, MLflow


                                      2024 - 2024: Entwicklung einer KI-gestützten Plattform zur Analyse unstrukturierter Daten


                                      Rolle: Data Scientist, PO

                                      Kunde: Telco


                                      Aufgaben:

                                      • Entwicklung einer Web App, Chat GPT Anbindung an eigene Daten, Deployment
                                      • Aufbau einer Python-basierten Retrieval Augmented Generation Pipeline
                                      • Strukturierung und Aufbereitung von Informationen aus Textdaten
                                      • Entwicklung modularer und wartbarer Python-Komponenten
                                      • Integration von Unit-Tests für zentrale Komponenten


                                        Kenntnisse:

                                        Databricks, Python, PyTest, SQL, Azure OpenAI, Azure Cognitive Search, , Prompt Engineering, Azure Blob Storage, React, PowerBI, YAML, Git, GenAI, LLM, RAG


                                        2024 - 2024: Design und Deployment einer skalierbaren Cloud-Architektur für den Betrieb von 30+ Web-Scrapern


                                        Rolle: Cloud Developer, Architekt

                                        Kunde: Finanzen


                                        Aufgaben:

                                        • Design und Aufbau einer skalierbaren AWS-Architektur
                                        • Containerisierung und Deployment über ECS und ECR
                                        • Orchestrierung von Workflows mit AWS Step Functions
                                        • Implementierung von Scheduling- und Automatisierungsmechanismen
                                        • Speicherung und Verarbeitung von Daten in S3
                                        • Umsetzung von IAM-basierten Zugriffskonzepten


                                          Kenntnisse:

                                          Amazon Web Services (ECS, ECR, Step Functions, S3, IAM, CloudWatch), Terraform, Python, PyTest, GitHub


                                          2023 - 2023: Migration bestehender On-Premise-Anwendungen in eine moderne Azure Cloud-Umgebung


                                          Rolle: Projektmanager

                                          Kunde: Telco


                                          Aufgaben:

                                          • Steuerung der Migration
                                          • Rolle als Projektmanager & Product Owner in einem Cloud-Transformationsprojekt
                                          • Koordination zwischen Fachbereich, Entwicklung und Infrastruktur
                                          • Planung und Tracking von Meilensteinen sowie Priorisierung von Anforderungen
                                          • Moderation von Workshops und Präsentation von Projektergebnissen


                                            Kenntnisse:

                                            Jira, Confluence, MS Office


                                            2023 - 2023: Ablösung komplexer regelbasierter SQL-Logiken durch Machine-Learning-Modelle


                                            Rolle: Data Scientist, ML Engineer

                                            Kunde: Telco


                                            Aufgaben:

                                            • Ablösung komplexer SQL-Regeln durch Machine-Learning-Modelle
                                            • Datenaufbereitung und Feature Engineering in Databricks
                                            • Training, Evaluation und Deployment von ML-Modellen in Databricks
                                            • Aufbau von Monitoring zur Sicherstellung der Modellqualität
                                            • Integration in bestehende Systeme und Automatisierung via Azure DevOps


                                              Kenntnisse:

                                              Databricks, Python, PyTest, Azure, Oracle DB, HIVE, YAML, pickle, Azure DevOps


                                              2022 - 2022: Sicherstellung und Weiterentwicklung eines SOx-relevanten Datenprodukts


                                              Rolle: Data Engineer, Projektmanager

                                              Kunde: Telco


                                              Aufgaben:

                                              • Sicherstellung und Weiterentwicklung eines SOx-relevanten Datenprodukts
                                              • Technische Validierung und Optimierung von Datenpipelines
                                              • Verbesserung von Datenqualität und Auditierbarkeit
                                              • Aufbau von Compliance-Dashboards in Tableau
                                              • Abstimmung mit Fachbereichen und Übernahme von Projektmanagement-Aufgaben


                                              Kenntnisse:

                                              Oracle DB, SQL, Tableau, Jira, Confluence, Azure DevOps, Python, PyTest, Databricks


                                              weitere Projekte auf Anfrage

                                              Kompetenzen

                                              Kompetenzen

                                              Top-Skills

                                              Python GenAI Databricks Azure AWS Kubernetes LLM Docker SQL Git OpenAI CICD

                                              Produkte / Standards / Erfahrungen / Methoden

                                              Senior AI / Data Platform Engineer mit MLOps & Cloud Fokus

                                              • 10+ Jahre Erfahrung in Cloud Engineering, Data Platforms und AI-Systemen
                                              • Fokus auf Generative AI, LLM-Integration und AI-Agenten in produktiven Systemen
                                              • Erfahrung im Aufbau skalierbarer Cloud- und Microservice-Architekturen (Azure, AWS, Kubernetes)
                                              • Starke Expertise in API-Integration, MLOps, CI/CD und produktionsreifen AI-Lösungen
                                              • Erfahrung in der Integration von LLMs (Azure OpenAI, Gemini) in bestehende Systeme
                                              • Kombination aus Architektur, Umsetzung und technischer Beratung


                                              Core Skills

                                              AI / Generative AI

                                              • LLMs (Azure OpenAI, Gemini, Claude)
                                              • Prompt Engineering
                                              • AI-Agenten
                                              • NLP
                                              • OCR


                                              Cloud & Architecture

                                              • Microsoft Azure
                                              • AWS
                                              • Microservices
                                              • API-Integration


                                              DevOps / Platform Engineering

                                              • Kubernetes
                                              • Docker
                                              • CI/CD
                                              • Infrastructure-as-Code


                                              Data & Processing

                                              • Databricks
                                              • Data Pipelines
                                              • ETL/ELT


                                              Tools

                                              • Git
                                              • YAML
                                              • REST APIs
                                              • Azure DevOps

                                              Programmiersprachen

                                              Python
                                              SQL
                                              Java Grundkenntnisse

                                              Vertrauen Sie auf Randstad

                                              Im Bereich Freelancing
                                              Im Bereich Arbeitnehmerüberlassung / Personalvermittlung

                                              Fragen?

                                              Rufen Sie uns an +49 89 500316-300 oder schreiben Sie uns:

                                              Das Freelancer-Portal

                                              Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.