Data Engineer, Backend Developer, DevOps
Aktualisiert am 02.07.2025
Profil
Freiberufler / Selbstständiger
Remote-Arbeit
Verfügbar ab: 12.07.2025
Verfügbar zu: 100%
davon vor Ort: 100%
Data Engineer
Cloud Architect
Apache Spark
Apache Airflow
Apache Kafka
Delta Lake
Big Query
Google Cloud Platform
Azure Data Factory
Databricks
Kubernetes
Spring Boot
Python
PostgreSQL
CI/CD
Hadoop
Datenarchitektur
AML Actimize
Ansible
HDFS
GitActions
Apache Hive
Dataproc
English
Proficient, Conversationally fluent
German
Native
Mandarin
Beginner, Certified level A1
Russian
Mothertongue, Conversationally fluent

Einsatzorte

Einsatzorte

Deutschland, Schweiz, Österreich
möglich

Projekte

Projekte

1 Jahr 6 Monate
2023-08 - 2025-01

Data Analysis and Architecture for global Anti Financial Crime

Data Engineer / Architect Data Engineer Datenarchitektur Python ...
Data Engineer / Architect

Designed and implemented a scalable data lake on Google Cloud Platform (GCP) for the

Anti-Financial Crime (AFC) division, supporting Anti-Money-Laundering and Counter-Terorrism-

Financing initiatives. Led a small engineering team and built robust data pipelines for ingesting

and processing high-volume financial data, including over 30 million daily transactions from

retail and corporate banking. Delivered analytics and regulatory reporting solutions for multiple

international locations, including Germany, Singapore, Sri Lanka, Hong Kong, Taiwan, and

Thailand. Collaborated closely with global teams to ensure data quality, compliance, and

performance.

Google Cloud Apache Spark Dataproc Apache Airflow Google Cloud Storage BigQuery GitHub Actions Google Kubernetes Engine
Data Engineer Datenarchitektur Python SQL BigQuerySQL Hadoop Banking Geldfluss Geldhandel AFC AML BaFin
Deutsche Bank
Frankfurt am Main
3 Jahre 3 Monate
2021-11 - 2025-01

Aufbau eines hochverfügbaren Stream-Processing-Systems zur Lieferüberwachung

Data Engineer und Backend Developer Python Logistik Logistikprozess ...
Data Engineer und Backend Developer

Developed an automated, highly available near-real-time system for monitoring and evaluating deliveries across Europe.

Azure Devops Azure Data Factory ADF Apache Spark Apache Kafka Kafka Databricks Delta Lake MS SQL Datenbanken
Python Logistik Logistikprozess Datenstrom Datenarchitektur
BTC Europe (via BASF SE)
Remote
3 Jahre 7 Monate
2021-07 - 2025-01

Data Engineering für globale Finanz- und Zolldaten inkl Beratung

Data Engineer / Consultant Python SQL Data Engineer ...
Data Engineer / Consultant

Freelance data engineer for internal teams in global financial, customs and chemical sector.

Modeling of data warehouse systems and development of analysis software and its automated

deployment. Development of scalable ETL pipelines for massive amounts of data. Automated

analysis of data and continuous delivery based on business requirements.

Azure Devops Azure Data Factory ADF Databricks Apache Spark Delta Lake SAP MS SQL Datenbanken Oracle Kafka
Python SQL Data Engineer Infrastrukturberatung Finance Reporting Zollabwicklungen Globaler Handel Engineering-Data-Management Engineering and Maintenance Digitalisierung Big Data Big Data Analytics Datenstrom
BASF SE
Ludwigshafen am Rhein

Aus- und Weiterbildung

Aus- und Weiterbildung

5 Jahre 1 Monat
2015-10 - 2020-10

Computer Science B.Sc.

Computer Science B.Sc., Technische Universität Darmstadt
Computer Science B.Sc.
Technische Universität Darmstadt

Kompetenzen

Kompetenzen

Top-Skills

Data Engineer Cloud Architect Apache Spark Apache Airflow Apache Kafka Delta Lake Big Query Google Cloud Platform Azure Data Factory Databricks Kubernetes Spring Boot Python PostgreSQL CI/CD Hadoop Datenarchitektur AML Actimize Ansible HDFS GitActions Apache Hive Dataproc

Produkte / Standards / Erfahrungen / Methoden

--- ENGLISH TEXT BELOW ---


Ich bin erfahrener Freelance Data Engineer und Cloud-Architekt mit über 8 Jahren Praxiserfahrung in der Softwareentwicklung und Datenverarbeitung. Meine Schwerpunkte liegen auf dem Aufbau skalierbarer Dateninfrastrukturen, der Entwicklung robuster ETL-Pipelines sowie der Implementierung von Data-Lake- und Data-Warehouse-Lösungen für Unternehmen in regulierten Industrien wie Bankwesen, Chemie, Logistik und Finanzdienstleistungen.
Ich habe umfangreiche Erfahrung mit der Verarbeitung großer Datenmengen (Big Data), insbesondere im Kontext von Anti-Geldwäsche-Analysen, regulatorischem Reporting und internen Analyseplattformen. Mein Technologie-Stack umfasst dabei insbesondere Apache Spark (PySpark und Java API), Apache Airflow, Kafka, Delta Lake, Hive, SQL-basierte Data Warehouses wie BigQuery oder Databricks SQL, sowie Cloud-Plattformen wie Google Cloud (GCP) und Microsoft Azure.
Ich unterstütze Unternehmen beim Entwurf und der Umsetzung moderner Datenarchitekturen und übernehme bei Bedarf auch die technische Leitung kleiner Teams. Agile Arbeitsweisen, Infrastructure-as-Code, CI/CD (z. B. mit GitHub Actions, Azure DevOps oder Jenkins) sowie Containerisierung mit Kubernetes sind fester Bestandteil meiner Projekte.
Typische Leistungen:

  • Aufbau und Skalierung von Data Lakes und Data Warehouses in der Cloud
  • Entwicklung von ETL- und Streaming-Pipelines (Spark, Kafka, Airflow)
  • Automatisierung von Datenanalyseprozessen und Reporting-Plattformen
  • Cloud-Architekturberatung (GCP, Azure)
  • Backend-Entwicklung für datengetriebene Webanwendungen (Spring Boot, Flask, Django)
  • Modernisierung von Legacy-Systemen und Migration in Cloudumgebungen

Technologien (Auswahl):

  • Cloud: GCP, Azure, Azure DevOps, GKE, Databricks
  • Data: Apache Spark, PySpark, Airflow, Delta Lake, Hive, HDFS, Kafka, SQL (BigQuery, Databricks SQL, SAP HANA, Oracle, MSSQL)
  • Web & Automation: Spring Boot, Flask, Django, Docker, Kubernetes, GitHub Actions, Jenkins

Ich spreche fließend Deutsch, Englisch und Russisch und arbeite remote oder vor Ort je nach Projektbedarf.


---
---

I am an experienced freelance Data Engineer and Cloud Architect with over 8 years of hands-on experience in software development and data engineering. My core focus is on designing scalable data infrastructures, developing robust ETL pipelines, and implementing data lake and data warehouse solutions for enterprises across regulated industries such as banking, finance, logistics, and chemicals.
I bring extensive experience in processing large-scale datasets (Big Data), particularly for anti-money laundering analytics, regulatory reporting, and internal analytics platforms. My technology stack centers around Apache Spark (PySpark and Java API), Apache Airflow, Kafka, Delta Lake, Hive, and SQL-based data warehouses such as BigQuery and Databricks SQL, deployed on cloud platforms like Google Cloud (GCP) and Microsoft Azure.
I support clients in designing and building modern data architectures and can lead small technical teams if required. Agile methodologies, infrastructure-as-code, CI/CD (e.g., GitHub Actions, Azure DevOps, Jenkins), and containerization with Kubernetes are integral parts of my project delivery.
Core services:

  • Design and scaling of data lakes and data warehouses in the cloud
  • Development of ETL and streaming pipelines (Spark, Kafka, Airflow)
  • Automation of data analysis workflows and reporting platforms
  • Cloud architecture consulting (GCP, Azure)
  • Backend development for data-driven web applications (Spring Boot, Flask, Django)
  • Modernization of legacy systems and cloud migration

Technologies (selection):

  • Cloud: GCP, Azure, Azure DevOps, GKE, Databricks
  • Data: Apache Spark, PySpark, Airflow, Delta Lake, Hive, HDFS, Kafka, SQL (BigQuery, Databricks SQL, SAP HANA, Oracle, MSSQL)
  • Web & Automation: Spring Boot, Flask, Django, Docker, Kubernetes, GitHub Actions, Jenkins

I speak fluent German, English, and Russian, and I am available for both remote and on-site work depending on project needs.

 

    Branchen

    Branchen

    Ich bringe tiefes technisches Verständnis und praktische Erfahrung in folgenden Industrien mit:

    • Banking (4 Jahre):

      • Aufbau von Data-Lakes, Verarbeitung großer Transaktionsmengen und Entwicklung von Datenlösungen im Bereich Anti-Financial-Crime und Reporting.

    • Finance (3 Jahre):

      • Modellierung von Data-Warehouse-Systemen und Analyseplattformen für interne Finanzdaten.

    • Chemie und Handel (3 Jahre)

      • Entwicklung skalierbarer Daten- und Analysepipelines für , inklusive Automatisierung von Prüf- und Berichtspflichten.

    • Logistik (1 Jahr)

      • ?Near-real-time Monitoring von Lieferströmen in Europa; Aufbau robuster Streaming-Infrastrukturen zur Prozessüberwachung.

    Einsatzorte

    Einsatzorte

    Deutschland, Schweiz, Österreich
    möglich

    Projekte

    Projekte

    1 Jahr 6 Monate
    2023-08 - 2025-01

    Data Analysis and Architecture for global Anti Financial Crime

    Data Engineer / Architect Data Engineer Datenarchitektur Python ...
    Data Engineer / Architect

    Designed and implemented a scalable data lake on Google Cloud Platform (GCP) for the

    Anti-Financial Crime (AFC) division, supporting Anti-Money-Laundering and Counter-Terorrism-

    Financing initiatives. Led a small engineering team and built robust data pipelines for ingesting

    and processing high-volume financial data, including over 30 million daily transactions from

    retail and corporate banking. Delivered analytics and regulatory reporting solutions for multiple

    international locations, including Germany, Singapore, Sri Lanka, Hong Kong, Taiwan, and

    Thailand. Collaborated closely with global teams to ensure data quality, compliance, and

    performance.

    Google Cloud Apache Spark Dataproc Apache Airflow Google Cloud Storage BigQuery GitHub Actions Google Kubernetes Engine
    Data Engineer Datenarchitektur Python SQL BigQuerySQL Hadoop Banking Geldfluss Geldhandel AFC AML BaFin
    Deutsche Bank
    Frankfurt am Main
    3 Jahre 3 Monate
    2021-11 - 2025-01

    Aufbau eines hochverfügbaren Stream-Processing-Systems zur Lieferüberwachung

    Data Engineer und Backend Developer Python Logistik Logistikprozess ...
    Data Engineer und Backend Developer

    Developed an automated, highly available near-real-time system for monitoring and evaluating deliveries across Europe.

    Azure Devops Azure Data Factory ADF Apache Spark Apache Kafka Kafka Databricks Delta Lake MS SQL Datenbanken
    Python Logistik Logistikprozess Datenstrom Datenarchitektur
    BTC Europe (via BASF SE)
    Remote
    3 Jahre 7 Monate
    2021-07 - 2025-01

    Data Engineering für globale Finanz- und Zolldaten inkl Beratung

    Data Engineer / Consultant Python SQL Data Engineer ...
    Data Engineer / Consultant

    Freelance data engineer for internal teams in global financial, customs and chemical sector.

    Modeling of data warehouse systems and development of analysis software and its automated

    deployment. Development of scalable ETL pipelines for massive amounts of data. Automated

    analysis of data and continuous delivery based on business requirements.

    Azure Devops Azure Data Factory ADF Databricks Apache Spark Delta Lake SAP MS SQL Datenbanken Oracle Kafka
    Python SQL Data Engineer Infrastrukturberatung Finance Reporting Zollabwicklungen Globaler Handel Engineering-Data-Management Engineering and Maintenance Digitalisierung Big Data Big Data Analytics Datenstrom
    BASF SE
    Ludwigshafen am Rhein

    Aus- und Weiterbildung

    Aus- und Weiterbildung

    5 Jahre 1 Monat
    2015-10 - 2020-10

    Computer Science B.Sc.

    Computer Science B.Sc., Technische Universität Darmstadt
    Computer Science B.Sc.
    Technische Universität Darmstadt

    Kompetenzen

    Kompetenzen

    Top-Skills

    Data Engineer Cloud Architect Apache Spark Apache Airflow Apache Kafka Delta Lake Big Query Google Cloud Platform Azure Data Factory Databricks Kubernetes Spring Boot Python PostgreSQL CI/CD Hadoop Datenarchitektur AML Actimize Ansible HDFS GitActions Apache Hive Dataproc

    Produkte / Standards / Erfahrungen / Methoden

    --- ENGLISH TEXT BELOW ---


    Ich bin erfahrener Freelance Data Engineer und Cloud-Architekt mit über 8 Jahren Praxiserfahrung in der Softwareentwicklung und Datenverarbeitung. Meine Schwerpunkte liegen auf dem Aufbau skalierbarer Dateninfrastrukturen, der Entwicklung robuster ETL-Pipelines sowie der Implementierung von Data-Lake- und Data-Warehouse-Lösungen für Unternehmen in regulierten Industrien wie Bankwesen, Chemie, Logistik und Finanzdienstleistungen.
    Ich habe umfangreiche Erfahrung mit der Verarbeitung großer Datenmengen (Big Data), insbesondere im Kontext von Anti-Geldwäsche-Analysen, regulatorischem Reporting und internen Analyseplattformen. Mein Technologie-Stack umfasst dabei insbesondere Apache Spark (PySpark und Java API), Apache Airflow, Kafka, Delta Lake, Hive, SQL-basierte Data Warehouses wie BigQuery oder Databricks SQL, sowie Cloud-Plattformen wie Google Cloud (GCP) und Microsoft Azure.
    Ich unterstütze Unternehmen beim Entwurf und der Umsetzung moderner Datenarchitekturen und übernehme bei Bedarf auch die technische Leitung kleiner Teams. Agile Arbeitsweisen, Infrastructure-as-Code, CI/CD (z. B. mit GitHub Actions, Azure DevOps oder Jenkins) sowie Containerisierung mit Kubernetes sind fester Bestandteil meiner Projekte.
    Typische Leistungen:

    • Aufbau und Skalierung von Data Lakes und Data Warehouses in der Cloud
    • Entwicklung von ETL- und Streaming-Pipelines (Spark, Kafka, Airflow)
    • Automatisierung von Datenanalyseprozessen und Reporting-Plattformen
    • Cloud-Architekturberatung (GCP, Azure)
    • Backend-Entwicklung für datengetriebene Webanwendungen (Spring Boot, Flask, Django)
    • Modernisierung von Legacy-Systemen und Migration in Cloudumgebungen

    Technologien (Auswahl):

    • Cloud: GCP, Azure, Azure DevOps, GKE, Databricks
    • Data: Apache Spark, PySpark, Airflow, Delta Lake, Hive, HDFS, Kafka, SQL (BigQuery, Databricks SQL, SAP HANA, Oracle, MSSQL)
    • Web & Automation: Spring Boot, Flask, Django, Docker, Kubernetes, GitHub Actions, Jenkins

    Ich spreche fließend Deutsch, Englisch und Russisch und arbeite remote oder vor Ort je nach Projektbedarf.


    ---
    ---

    I am an experienced freelance Data Engineer and Cloud Architect with over 8 years of hands-on experience in software development and data engineering. My core focus is on designing scalable data infrastructures, developing robust ETL pipelines, and implementing data lake and data warehouse solutions for enterprises across regulated industries such as banking, finance, logistics, and chemicals.
    I bring extensive experience in processing large-scale datasets (Big Data), particularly for anti-money laundering analytics, regulatory reporting, and internal analytics platforms. My technology stack centers around Apache Spark (PySpark and Java API), Apache Airflow, Kafka, Delta Lake, Hive, and SQL-based data warehouses such as BigQuery and Databricks SQL, deployed on cloud platforms like Google Cloud (GCP) and Microsoft Azure.
    I support clients in designing and building modern data architectures and can lead small technical teams if required. Agile methodologies, infrastructure-as-code, CI/CD (e.g., GitHub Actions, Azure DevOps, Jenkins), and containerization with Kubernetes are integral parts of my project delivery.
    Core services:

    • Design and scaling of data lakes and data warehouses in the cloud
    • Development of ETL and streaming pipelines (Spark, Kafka, Airflow)
    • Automation of data analysis workflows and reporting platforms
    • Cloud architecture consulting (GCP, Azure)
    • Backend development for data-driven web applications (Spring Boot, Flask, Django)
    • Modernization of legacy systems and cloud migration

    Technologies (selection):

    • Cloud: GCP, Azure, Azure DevOps, GKE, Databricks
    • Data: Apache Spark, PySpark, Airflow, Delta Lake, Hive, HDFS, Kafka, SQL (BigQuery, Databricks SQL, SAP HANA, Oracle, MSSQL)
    • Web & Automation: Spring Boot, Flask, Django, Docker, Kubernetes, GitHub Actions, Jenkins

    I speak fluent German, English, and Russian, and I am available for both remote and on-site work depending on project needs.

     

      Branchen

      Branchen

      Ich bringe tiefes technisches Verständnis und praktische Erfahrung in folgenden Industrien mit:

      • Banking (4 Jahre):

        • Aufbau von Data-Lakes, Verarbeitung großer Transaktionsmengen und Entwicklung von Datenlösungen im Bereich Anti-Financial-Crime und Reporting.

      • Finance (3 Jahre):

        • Modellierung von Data-Warehouse-Systemen und Analyseplattformen für interne Finanzdaten.

      • Chemie und Handel (3 Jahre)

        • Entwicklung skalierbarer Daten- und Analysepipelines für , inklusive Automatisierung von Prüf- und Berichtspflichten.

      • Logistik (1 Jahr)

        • ?Near-real-time Monitoring von Lieferströmen in Europa; Aufbau robuster Streaming-Infrastrukturen zur Prozessüberwachung.

      Vertrauen Sie auf Randstad

      Im Bereich Freelancing
      Im Bereich Arbeitnehmerüberlassung / Personalvermittlung

      Fragen?

      Rufen Sie uns an +49 89 500316-300 oder schreiben Sie uns:

      Das Freelancer-Portal

      Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.