Designed and implemented a scalable data lake on Google Cloud Platform (GCP) for the
Anti-Financial Crime (AFC) division, supporting Anti-Money-Laundering and Counter-Terorrism-
Financing initiatives. Led a small engineering team and built robust data pipelines for ingesting
and processing high-volume financial data, including over 30 million daily transactions from
retail and corporate banking. Delivered analytics and regulatory reporting solutions for multiple
international locations, including Germany, Singapore, Sri Lanka, Hong Kong, Taiwan, and
Thailand. Collaborated closely with global teams to ensure data quality, compliance, and
performance.
Developed an automated, highly available near-real-time system for monitoring and evaluating deliveries across Europe.
Freelance data engineer for internal teams in global financial, customs and chemical sector.
Modeling of data warehouse systems and development of analysis software and its automated
deployment. Development of scalable ETL pipelines for massive amounts of data. Automated
analysis of data and continuous delivery based on business requirements.
2013 ? 2015
Graduation from High School, Fachoberschule Bayreuth
MINT Specialisation
--- ENGLISH TEXT BELOW ---
Ich bin erfahrener Freelance Data Engineer und Cloud-Architekt mit über 8 Jahren Praxiserfahrung in der Softwareentwicklung und Datenverarbeitung. Meine Schwerpunkte liegen auf dem Aufbau skalierbarer Dateninfrastrukturen, der Entwicklung robuster ETL-Pipelines sowie der Implementierung von Data-Lake- und Data-Warehouse-Lösungen für Unternehmen in regulierten Industrien wie Bankwesen, Chemie, Logistik und Finanzdienstleistungen.
Ich habe umfangreiche Erfahrung mit der Verarbeitung großer Datenmengen (Big Data), insbesondere im Kontext von Anti-Geldwäsche-Analysen, regulatorischem Reporting und internen Analyseplattformen. Mein Technologie-Stack umfasst dabei insbesondere Apache Spark (PySpark und Java API), Apache Airflow, Kafka, Delta Lake, Hive, SQL-basierte Data Warehouses wie BigQuery oder Databricks SQL, sowie Cloud-Plattformen wie Google Cloud (GCP) und Microsoft Azure.
Ich unterstütze Unternehmen beim Entwurf und der Umsetzung moderner Datenarchitekturen und übernehme bei Bedarf auch die technische Leitung kleiner Teams. Agile Arbeitsweisen, Infrastructure-as-Code, CI/CD (z. B. mit GitHub Actions, Azure DevOps oder Jenkins) sowie Containerisierung mit Kubernetes sind fester Bestandteil meiner Projekte.
Typische Leistungen:
Technologien (Auswahl):
Ich spreche fließend Deutsch, Englisch und Russisch und arbeite remote oder vor Ort je nach Projektbedarf.
---
---
I am an experienced freelance Data Engineer and Cloud Architect with over 8 years of hands-on experience in software development and data engineering. My core focus is on designing scalable data infrastructures, developing robust ETL pipelines, and implementing data lake and data warehouse solutions for enterprises across regulated industries such as banking, finance, logistics, and chemicals.
I bring extensive experience in processing large-scale datasets (Big Data), particularly for anti-money laundering analytics, regulatory reporting, and internal analytics platforms. My technology stack centers around Apache Spark (PySpark and Java API), Apache Airflow, Kafka, Delta Lake, Hive, and SQL-based data warehouses such as BigQuery and Databricks SQL, deployed on cloud platforms like Google Cloud (GCP) and Microsoft Azure.
I support clients in designing and building modern data architectures and can lead small technical teams if required. Agile methodologies, infrastructure-as-code, CI/CD (e.g., GitHub Actions, Azure DevOps, Jenkins), and containerization with Kubernetes are integral parts of my project delivery.
Core services:
Technologies (selection):
I speak fluent German, English, and Russian, and I am available for both remote and on-site work depending on project needs.
Ich bringe tiefes technisches Verständnis und praktische Erfahrung in folgenden Industrien mit:
Banking (4 Jahre):
Aufbau von Data-Lakes, Verarbeitung großer Transaktionsmengen und Entwicklung von Datenlösungen im Bereich Anti-Financial-Crime und Reporting.
Finance (3 Jahre):
Modellierung von Data-Warehouse-Systemen und Analyseplattformen für interne Finanzdaten.
Chemie und Handel (3 Jahre)
Entwicklung skalierbarer Daten- und Analysepipelines für , inklusive Automatisierung von Prüf- und Berichtspflichten.
Logistik (1 Jahr)
?Near-real-time Monitoring von Lieferströmen in Europa; Aufbau robuster Streaming-Infrastrukturen zur Prozessüberwachung.
Designed and implemented a scalable data lake on Google Cloud Platform (GCP) for the
Anti-Financial Crime (AFC) division, supporting Anti-Money-Laundering and Counter-Terorrism-
Financing initiatives. Led a small engineering team and built robust data pipelines for ingesting
and processing high-volume financial data, including over 30 million daily transactions from
retail and corporate banking. Delivered analytics and regulatory reporting solutions for multiple
international locations, including Germany, Singapore, Sri Lanka, Hong Kong, Taiwan, and
Thailand. Collaborated closely with global teams to ensure data quality, compliance, and
performance.
Developed an automated, highly available near-real-time system for monitoring and evaluating deliveries across Europe.
Freelance data engineer for internal teams in global financial, customs and chemical sector.
Modeling of data warehouse systems and development of analysis software and its automated
deployment. Development of scalable ETL pipelines for massive amounts of data. Automated
analysis of data and continuous delivery based on business requirements.
2013 ? 2015
Graduation from High School, Fachoberschule Bayreuth
MINT Specialisation
--- ENGLISH TEXT BELOW ---
Ich bin erfahrener Freelance Data Engineer und Cloud-Architekt mit über 8 Jahren Praxiserfahrung in der Softwareentwicklung und Datenverarbeitung. Meine Schwerpunkte liegen auf dem Aufbau skalierbarer Dateninfrastrukturen, der Entwicklung robuster ETL-Pipelines sowie der Implementierung von Data-Lake- und Data-Warehouse-Lösungen für Unternehmen in regulierten Industrien wie Bankwesen, Chemie, Logistik und Finanzdienstleistungen.
Ich habe umfangreiche Erfahrung mit der Verarbeitung großer Datenmengen (Big Data), insbesondere im Kontext von Anti-Geldwäsche-Analysen, regulatorischem Reporting und internen Analyseplattformen. Mein Technologie-Stack umfasst dabei insbesondere Apache Spark (PySpark und Java API), Apache Airflow, Kafka, Delta Lake, Hive, SQL-basierte Data Warehouses wie BigQuery oder Databricks SQL, sowie Cloud-Plattformen wie Google Cloud (GCP) und Microsoft Azure.
Ich unterstütze Unternehmen beim Entwurf und der Umsetzung moderner Datenarchitekturen und übernehme bei Bedarf auch die technische Leitung kleiner Teams. Agile Arbeitsweisen, Infrastructure-as-Code, CI/CD (z. B. mit GitHub Actions, Azure DevOps oder Jenkins) sowie Containerisierung mit Kubernetes sind fester Bestandteil meiner Projekte.
Typische Leistungen:
Technologien (Auswahl):
Ich spreche fließend Deutsch, Englisch und Russisch und arbeite remote oder vor Ort je nach Projektbedarf.
---
---
I am an experienced freelance Data Engineer and Cloud Architect with over 8 years of hands-on experience in software development and data engineering. My core focus is on designing scalable data infrastructures, developing robust ETL pipelines, and implementing data lake and data warehouse solutions for enterprises across regulated industries such as banking, finance, logistics, and chemicals.
I bring extensive experience in processing large-scale datasets (Big Data), particularly for anti-money laundering analytics, regulatory reporting, and internal analytics platforms. My technology stack centers around Apache Spark (PySpark and Java API), Apache Airflow, Kafka, Delta Lake, Hive, and SQL-based data warehouses such as BigQuery and Databricks SQL, deployed on cloud platforms like Google Cloud (GCP) and Microsoft Azure.
I support clients in designing and building modern data architectures and can lead small technical teams if required. Agile methodologies, infrastructure-as-code, CI/CD (e.g., GitHub Actions, Azure DevOps, Jenkins), and containerization with Kubernetes are integral parts of my project delivery.
Core services:
Technologies (selection):
I speak fluent German, English, and Russian, and I am available for both remote and on-site work depending on project needs.
Ich bringe tiefes technisches Verständnis und praktische Erfahrung in folgenden Industrien mit:
Banking (4 Jahre):
Aufbau von Data-Lakes, Verarbeitung großer Transaktionsmengen und Entwicklung von Datenlösungen im Bereich Anti-Financial-Crime und Reporting.
Finance (3 Jahre):
Modellierung von Data-Warehouse-Systemen und Analyseplattformen für interne Finanzdaten.
Chemie und Handel (3 Jahre)
Entwicklung skalierbarer Daten- und Analysepipelines für , inklusive Automatisierung von Prüf- und Berichtspflichten.
Logistik (1 Jahr)
?Near-real-time Monitoring von Lieferströmen in Europa; Aufbau robuster Streaming-Infrastrukturen zur Prozessüberwachung.