Software Engineer (Hadoop, Realtime, DataLake, Big Data, ETL, Business Intelligence, Advanced Analytics, Cloud , Spark)
Aktualisiert am 27.08.2021
Profil
Freiberufler / Selbstständiger
Remote-Arbeit
Verfügbar ab: 28.06.2021
Verfügbar zu: 100%
davon vor Ort: 100%
Big Data Analytics
Apache Hadoop
Cloud
GCP
AWS
Azure
DataLake
ETL
Apache Spark
Deutsch
B2
Englisch
C1

Einsatzorte

Einsatzorte

Stuttgart (+500km)
Deutschland, Österreich, Schweiz
möglich

Projekte

Projekte

2 Jahre 3 Monate
2016-03 - 2018-05

Entwerfen und entwickeln

Big data Engineer Scala Python Apache Spark ...
Big data Engineer
  • Entwerfen und entwickeln Sie mehrere Spark-Jobs, um die Datenquellen (csv, hbase, Hive und SQLServer) über die in Azure gehostete Big Data-Landschaft zu integrieren.
  • Verwendet Lambda architektur daher Schema-Design für Batch-Layer-Speicher in Hive und Echtzeit-Layer- Speicher in Hbase.
  • Entwickelt mehrere Topologien für die Archivierung, Replay, Echtzeit-Scoring, Feature-Berechnungen für Scoring-Modell und Modellintegration mit Apache Sturm
  • Datensammlung von E-Commerce-Plattform: Integrierte Scriptlets zum Sammeln von Verhaltens-, Geräte-Tracking und PII-Daten.
  • Containerized das R-basierte Modell, um als eine API verfügbar zu machen, aktiviert das Modell für TCP-Aufruf
  • Erstellte einen Tag-Manager und eine API mit Microservices-Architektur.
  • Integrierte APIs verschiedener Anbieter in der E Commerce-Plattform zur Datenerfassung und Geräteidentifikation
  • Erlernte die Modellierungstechniken mit H2o.
Apache Hive /Apache Hbase over Phoenix Apache Storm and Spark Docker PrestaShop etc.
Scala Python Apache Spark Microsoft Azure Apache Cassandra Kafka
Arvato Infoscore ? Risikomanagement
7 Monate
2015-08 - 2016-02

datenmodellierung

Big data Engineer HDFS Spark MapReduce ...
Big data Engineer
  • Entwicklungsumgebung auf Big Data gesetzt, die Apache Hadoop, Spark und Hive für Inhouse-Cluster enthält
  • Gesammelt und verarbeitet Raw-Produktionsdaten im Maßstab von relationalen Quellen mithilfe von Sqoop und Apache Spark (ETL)
  • Durchgeführt datenmodellierung für die Speicherung in HDFS (Serialisierung, Komprimierung, Abfrage, Partitionierung, Bucketing und De-Normalisierung Aspekte) (ETL).
  • Arbeitete eng mit Test- und Qualitätsteams zusammen, um den Datenkontext in die Hadoop-Speicherschicht zu integrieren.
  • Gelernt und angewendet Konzepte zur Funkenabstraktion mit Hilfe von APIs von RDDs und DataStream
  • Verwendetes Statistikwissen zur Analyse.
  • Organisierte Präsentationen, um das Verständnis der Projektbeteiligten auf gleicher Ebene zu bringen
HDFS Spark MapReduce Hive Sqoop Kafka HBase Oozie Scala Java JSON SQL Scripting and Linux Shell Scripting Avro Parquet Hadoop
Brunel ? Dresden (Verschiedenes Kunden)
1 Jahr 1 Monat
2014-06 - 2015-06

Ersterstellung und konfiguriert

Big Data Assistant AWS- EMR Kinesis S3
Big Data Assistant
  • Mehrere Map Reduce-Jobs entwickelt und entwickelt, die lokal konfigurierte Hadoop-Cluster für Datenmengen verwenden, die in HDFS sowie in Amazon S3-Speichern gehostet werden
  • Erstellt und konfiguriert [S3-ausgelöste] AWS Elastic MapReduce-Cluster [mithilfe von Spot-Instanzen] für verkettete Jobs mit den Common Crawl daten von Terabyte.
  • Um hohe Geschwindigkeit zu erreichen, integrierte der Schlüssel-Wert-Speicher von Infinispan (Memcache)
  • Komplexe Diagramme entworfen, um die Auswirkungen von Bucket-Elementen und Bucket-Größe auf den Distributionsspeicher zu analysieren (verwendete R Statistiksprache)
  • Entwickelte Web Services mit Python und schrieb Algorithmen für die optimale Kostenberechnung von Web Graphen
  • Migrierte die auf Map Reduce basierenden Batch-Pipelines mithilfe von Transformation und Aktionen in die Spark-Pipeline. Spark Streaming und Spark SQL API zur schnelleren Verarbeitung von Daten in Scala implementiert
Apache Hadoop - MapReduce mit Java-Implementierung und Verwendung verschiedener Common Crawl Java APIs.
AWS- EMR Kinesis S3
Systems Engineering Group ? TU Dresden
6 Monate
2013-01 - 2013-06

Analyse, Entwurf und Implementierung

Wissenschaftlicher Mitarbeiter
Wissenschaftlicher Mitarbeiter
  • Analyse, Entwurf und Implementierung von Features für einen analytischen Suchdienst mit SQL-Skript
  • Analyse und Korrektur von komplexen
  • eingerichtet eine Entwicklungsumgebung für den gemeinsamen Entwicklungsprozess basierend auf HANA Studio
  • Hat die Entwicklung von Anwendungsfunktionen in einer Javascript und HTML5 basierten Schnittstelle.
  • Hatte Echtzeit-Analyse-Utility für Kunden entwickelt, um ihre Geschäftsrichtungen mit einer natürlichen Sprache Abfrage Schnittstelle zu finden. Es war Teil eines generischen Open Domain-und Open-Language-Tool mit natürlicher Sprache Formalisierung.
Verwendete SAP Technologie Suite von ABAP für Middle Layer und HANA Studio als Entwicklungsumgebung und SQL HANA DB für Persistenz von Daten und Metadaten und SAP Frontend API von HTML5 (SAPUI5) für Schnittstelle
TU Dresden ? Datenbank Gruppe
3 Jahre 5 Monate
2009-06 - 2012-10

diverse Projekte

Senior Software-Engineer
Senior Software-Engineer

Berichte Migration & Analytik

  • Hatte SSRS-Berichte / SSAS-Cubes mit Benutzerakzeptanzkriterien entworfen, entwickelt und getestet.
  • Business-Analyse- und Anforderungs-Engineering für Cognos-Katalogberichte, Impromptu-Katalog, DB2-Schema gemacht (Der Katalog bestand aus 6 DB-Schema und 200 + Tabelle)
  • Hatte das Berichtsmodell, 100 Berichte und 6 Würfel akzeptabler Qualität innerhalb der vorgegebenen Fristen geliefert
  • hatte Berichte und Cubes über Sharepoint-Server (Entwicklung und Produktion) in Integrations- und Produktionsumgebungen bereitgestellt und getestet
  • Optimierung des XML-Generierungsdienstprogramms mit der Java StAX-API, um SSRS-Modellkomponenten von Datenquellen-View- und Semantic Model-Dateien zu generieren (wodurch der Entwicklungsaufwand von 3 Monaten auf 1 Monat reduziert wurde)

Datenmigration (ETL)

  • Zur Synchronisation der Multisystemdaten von verschiedenen Filialen zu einem zentralen Repository, entworfene Datenflüsse als Teil eines Integrationsprojekts.
  • Anforderungs-Engineering aus der Legacy-Infrastruktur von Oracle DB-Paketen zur Überwindung von Leistungsproblemen, Konstruktionsfehlern und unvermeidbaren Funktionsfehlern.
  • Bereinigte Daten von 5 Artikelspeicherdatenbanken und synchronisiert sie nach der Umwandlung in einem Repository.
  • Geplante und bereitgestellte SSIS-Pakete in Test- und Produktionsumgebungen.
  • Durchgeführtes rigoroses Testen und eine um 38% höhere Ausführungsgeschwindigkeit durch SSIS-Pakete, gemäß Standard-SSIS-Verfahren
  • Verbesserte Leistung durch automatische Planung von Datenflüssen

Staging, Migration und Integration (ETL)

  • Analyse, Entwurf und Entwicklung von Datenworkflows für ein Datenkonsolidierungs- und Synchronisationsprojekt, um die Integration von Unternehmensdaten zu ermöglichen
  • Entwickelte SSIS-Pipelines für Zwei-Wege-Datenflüsse unter Verwendung von MDS-Staging- und ERP-Daten von AX Dynamic.
  • Analyse und Entwicklung von SSIS-Datenworkflows mit WCF-basierten Webservices, MDS-basierten Metadaten.
  • Hatte Modelle, Entitäten, Attribute (Domänenattribute) erstellt, die Modellierung und Versionsverwaltung in MDS verwenden. Hatte Zugriffsebenen für Entitätsdaten und Attributhierarchien definiert.
  • Hatte Qualitätsmetriken für SSIS-Pakete auf dem akzeptablen Produktionsniveau beibehalten.
  • Unsere Arbeit anerkannt für die Förderung der ultimativen Analyse um 2 Monate früher und risikofreier. Hatte das Medium-Capacity-Modell genutzt, um den Platz zu verbessern
SQLServer Oracle Schnittstelle
Systems Ltd Pakistan

Aus- und Weiterbildung

Aus- und Weiterbildung

Hoch-/Schulbildung, Weiterbildung:

2015

Masters in Distributed Systems von TU Dresden (Note 2.3/5.0)

Schwerpunkte:

Design Pattern, Component based SE, Distributed Computing, Dependable Sys.

2009
Bachelor in Computer Science from NUCES-FAST (GPA 3.52/4.0)

Schwerpunkte:

Software Engineering, Databases and Data warehouse, Compiler Construction

Position

Position

Solution Architekt in Automotiv/Engineering Bereich

Data Architekt in Ecommerce Bereich

Kompetenzen

Kompetenzen

Top-Skills

Big Data Analytics Apache Hadoop Cloud GCP AWS Azure DataLake ETL Apache Spark

Produkte / Standards / Erfahrungen / Methoden

AWS and Azure
Docker
ERWin
Git
GitLab
Jira
Lucidchart
Mattermost
Moba XTerm
phpmyadmin
Powershell
Rancher
Sparx Enterprise Architect
UML Modelling
SVN
Toad
Visio
WinSCP

PERSÖNLICHES PROFIL:

  • Ca. Mehr als 10 Jahre Erfahrung in Spitzentechnologien und bin derzeit auf Cloud-Lösungen spezialisiert, insbesondere auf Amazon-, Microsoft- und Google Cloud-Plattformen.
  • DevOps für Amazon- und Google Cloud-Plattformanwendungen, die von API-basierten Anwendungs-Backends, Integrationsmodulen basierend auf serverlosen Anwendungsmodellen, Pubsub / Messaging-Systemen, Big-Data-Processing-Pipelines, Benutzer- und Geschäftsanalysen reichen.Fundierte Kenntnisse in den Phasen Analyse, Design, Entwicklung, Test und Implementierung.
  • Experte für die Erstellung von Änderungsanträgen und die Unterstützung von SOA- und OO-Systemen.
  • Ich arbeite über den gesamten Lebenszyklus der Produktentwicklung, von der Erstellung von Zielen und Zielen auf Makroebene, vom Entwerfen der Lösungsarchitektur, von Datenstrukturen, der Auswahl der geeigneten Client- und serverseitigen Frameworks, der Erstellung von Diensten, der Zuweisung von wöchentlichen Sprints und der Sicherstellung, dass das Team die entsprechenden Anforderungen erfüllt, Arbeit wie geplant, und schließlich Code schreiben für die Funktionen, die ich selbst aufnehme.
  • Erfahrung mit einer Vielzahl von mobilen und Enterprise-Backend-Systemen, die auf verschiedenen Technologiestacks basieren, von Java, Python, .Net, relationalen Datenbanken, NoSQL Datenbank, Enterprise Software, Geschäftsprozess-Workflow-Systemen, Business-Intelligence-Systemen von Anbietern wie IBM, Oracle, Microsoft, Software AG, Cognos, Microstrategy usw

Betriebssysteme

Openstack with RHEL
Ubuntu Linux
Windows 7

Datenbanken

Azure und AWS
Docker und Kubernetes
ECS und AKS
HBase und sprache
Hive
HQL
KeyValue lookup
MySQL
Oracle 10g
PLS SQL
SQL
SQL Server
2005 & 2008
TSQL

Branchen

Branchen

  • Finanz
  • Ecommerce
  • Fashion
  • Accounting
  • Product Lifecycle Management
  • Account management
  • Mortgage
  • Medien

Einsatzorte

Einsatzorte

Stuttgart (+500km)
Deutschland, Österreich, Schweiz
möglich

Projekte

Projekte

2 Jahre 3 Monate
2016-03 - 2018-05

Entwerfen und entwickeln

Big data Engineer Scala Python Apache Spark ...
Big data Engineer
  • Entwerfen und entwickeln Sie mehrere Spark-Jobs, um die Datenquellen (csv, hbase, Hive und SQLServer) über die in Azure gehostete Big Data-Landschaft zu integrieren.
  • Verwendet Lambda architektur daher Schema-Design für Batch-Layer-Speicher in Hive und Echtzeit-Layer- Speicher in Hbase.
  • Entwickelt mehrere Topologien für die Archivierung, Replay, Echtzeit-Scoring, Feature-Berechnungen für Scoring-Modell und Modellintegration mit Apache Sturm
  • Datensammlung von E-Commerce-Plattform: Integrierte Scriptlets zum Sammeln von Verhaltens-, Geräte-Tracking und PII-Daten.
  • Containerized das R-basierte Modell, um als eine API verfügbar zu machen, aktiviert das Modell für TCP-Aufruf
  • Erstellte einen Tag-Manager und eine API mit Microservices-Architektur.
  • Integrierte APIs verschiedener Anbieter in der E Commerce-Plattform zur Datenerfassung und Geräteidentifikation
  • Erlernte die Modellierungstechniken mit H2o.
Apache Hive /Apache Hbase over Phoenix Apache Storm and Spark Docker PrestaShop etc.
Scala Python Apache Spark Microsoft Azure Apache Cassandra Kafka
Arvato Infoscore ? Risikomanagement
7 Monate
2015-08 - 2016-02

datenmodellierung

Big data Engineer HDFS Spark MapReduce ...
Big data Engineer
  • Entwicklungsumgebung auf Big Data gesetzt, die Apache Hadoop, Spark und Hive für Inhouse-Cluster enthält
  • Gesammelt und verarbeitet Raw-Produktionsdaten im Maßstab von relationalen Quellen mithilfe von Sqoop und Apache Spark (ETL)
  • Durchgeführt datenmodellierung für die Speicherung in HDFS (Serialisierung, Komprimierung, Abfrage, Partitionierung, Bucketing und De-Normalisierung Aspekte) (ETL).
  • Arbeitete eng mit Test- und Qualitätsteams zusammen, um den Datenkontext in die Hadoop-Speicherschicht zu integrieren.
  • Gelernt und angewendet Konzepte zur Funkenabstraktion mit Hilfe von APIs von RDDs und DataStream
  • Verwendetes Statistikwissen zur Analyse.
  • Organisierte Präsentationen, um das Verständnis der Projektbeteiligten auf gleicher Ebene zu bringen
HDFS Spark MapReduce Hive Sqoop Kafka HBase Oozie Scala Java JSON SQL Scripting and Linux Shell Scripting Avro Parquet Hadoop
Brunel ? Dresden (Verschiedenes Kunden)
1 Jahr 1 Monat
2014-06 - 2015-06

Ersterstellung und konfiguriert

Big Data Assistant AWS- EMR Kinesis S3
Big Data Assistant
  • Mehrere Map Reduce-Jobs entwickelt und entwickelt, die lokal konfigurierte Hadoop-Cluster für Datenmengen verwenden, die in HDFS sowie in Amazon S3-Speichern gehostet werden
  • Erstellt und konfiguriert [S3-ausgelöste] AWS Elastic MapReduce-Cluster [mithilfe von Spot-Instanzen] für verkettete Jobs mit den Common Crawl daten von Terabyte.
  • Um hohe Geschwindigkeit zu erreichen, integrierte der Schlüssel-Wert-Speicher von Infinispan (Memcache)
  • Komplexe Diagramme entworfen, um die Auswirkungen von Bucket-Elementen und Bucket-Größe auf den Distributionsspeicher zu analysieren (verwendete R Statistiksprache)
  • Entwickelte Web Services mit Python und schrieb Algorithmen für die optimale Kostenberechnung von Web Graphen
  • Migrierte die auf Map Reduce basierenden Batch-Pipelines mithilfe von Transformation und Aktionen in die Spark-Pipeline. Spark Streaming und Spark SQL API zur schnelleren Verarbeitung von Daten in Scala implementiert
Apache Hadoop - MapReduce mit Java-Implementierung und Verwendung verschiedener Common Crawl Java APIs.
AWS- EMR Kinesis S3
Systems Engineering Group ? TU Dresden
6 Monate
2013-01 - 2013-06

Analyse, Entwurf und Implementierung

Wissenschaftlicher Mitarbeiter
Wissenschaftlicher Mitarbeiter
  • Analyse, Entwurf und Implementierung von Features für einen analytischen Suchdienst mit SQL-Skript
  • Analyse und Korrektur von komplexen
  • eingerichtet eine Entwicklungsumgebung für den gemeinsamen Entwicklungsprozess basierend auf HANA Studio
  • Hat die Entwicklung von Anwendungsfunktionen in einer Javascript und HTML5 basierten Schnittstelle.
  • Hatte Echtzeit-Analyse-Utility für Kunden entwickelt, um ihre Geschäftsrichtungen mit einer natürlichen Sprache Abfrage Schnittstelle zu finden. Es war Teil eines generischen Open Domain-und Open-Language-Tool mit natürlicher Sprache Formalisierung.
Verwendete SAP Technologie Suite von ABAP für Middle Layer und HANA Studio als Entwicklungsumgebung und SQL HANA DB für Persistenz von Daten und Metadaten und SAP Frontend API von HTML5 (SAPUI5) für Schnittstelle
TU Dresden ? Datenbank Gruppe
3 Jahre 5 Monate
2009-06 - 2012-10

diverse Projekte

Senior Software-Engineer
Senior Software-Engineer

Berichte Migration & Analytik

  • Hatte SSRS-Berichte / SSAS-Cubes mit Benutzerakzeptanzkriterien entworfen, entwickelt und getestet.
  • Business-Analyse- und Anforderungs-Engineering für Cognos-Katalogberichte, Impromptu-Katalog, DB2-Schema gemacht (Der Katalog bestand aus 6 DB-Schema und 200 + Tabelle)
  • Hatte das Berichtsmodell, 100 Berichte und 6 Würfel akzeptabler Qualität innerhalb der vorgegebenen Fristen geliefert
  • hatte Berichte und Cubes über Sharepoint-Server (Entwicklung und Produktion) in Integrations- und Produktionsumgebungen bereitgestellt und getestet
  • Optimierung des XML-Generierungsdienstprogramms mit der Java StAX-API, um SSRS-Modellkomponenten von Datenquellen-View- und Semantic Model-Dateien zu generieren (wodurch der Entwicklungsaufwand von 3 Monaten auf 1 Monat reduziert wurde)

Datenmigration (ETL)

  • Zur Synchronisation der Multisystemdaten von verschiedenen Filialen zu einem zentralen Repository, entworfene Datenflüsse als Teil eines Integrationsprojekts.
  • Anforderungs-Engineering aus der Legacy-Infrastruktur von Oracle DB-Paketen zur Überwindung von Leistungsproblemen, Konstruktionsfehlern und unvermeidbaren Funktionsfehlern.
  • Bereinigte Daten von 5 Artikelspeicherdatenbanken und synchronisiert sie nach der Umwandlung in einem Repository.
  • Geplante und bereitgestellte SSIS-Pakete in Test- und Produktionsumgebungen.
  • Durchgeführtes rigoroses Testen und eine um 38% höhere Ausführungsgeschwindigkeit durch SSIS-Pakete, gemäß Standard-SSIS-Verfahren
  • Verbesserte Leistung durch automatische Planung von Datenflüssen

Staging, Migration und Integration (ETL)

  • Analyse, Entwurf und Entwicklung von Datenworkflows für ein Datenkonsolidierungs- und Synchronisationsprojekt, um die Integration von Unternehmensdaten zu ermöglichen
  • Entwickelte SSIS-Pipelines für Zwei-Wege-Datenflüsse unter Verwendung von MDS-Staging- und ERP-Daten von AX Dynamic.
  • Analyse und Entwicklung von SSIS-Datenworkflows mit WCF-basierten Webservices, MDS-basierten Metadaten.
  • Hatte Modelle, Entitäten, Attribute (Domänenattribute) erstellt, die Modellierung und Versionsverwaltung in MDS verwenden. Hatte Zugriffsebenen für Entitätsdaten und Attributhierarchien definiert.
  • Hatte Qualitätsmetriken für SSIS-Pakete auf dem akzeptablen Produktionsniveau beibehalten.
  • Unsere Arbeit anerkannt für die Förderung der ultimativen Analyse um 2 Monate früher und risikofreier. Hatte das Medium-Capacity-Modell genutzt, um den Platz zu verbessern
SQLServer Oracle Schnittstelle
Systems Ltd Pakistan

Aus- und Weiterbildung

Aus- und Weiterbildung

Hoch-/Schulbildung, Weiterbildung:

2015

Masters in Distributed Systems von TU Dresden (Note 2.3/5.0)

Schwerpunkte:

Design Pattern, Component based SE, Distributed Computing, Dependable Sys.

2009
Bachelor in Computer Science from NUCES-FAST (GPA 3.52/4.0)

Schwerpunkte:

Software Engineering, Databases and Data warehouse, Compiler Construction

Position

Position

Solution Architekt in Automotiv/Engineering Bereich

Data Architekt in Ecommerce Bereich

Kompetenzen

Kompetenzen

Top-Skills

Big Data Analytics Apache Hadoop Cloud GCP AWS Azure DataLake ETL Apache Spark

Produkte / Standards / Erfahrungen / Methoden

AWS and Azure
Docker
ERWin
Git
GitLab
Jira
Lucidchart
Mattermost
Moba XTerm
phpmyadmin
Powershell
Rancher
Sparx Enterprise Architect
UML Modelling
SVN
Toad
Visio
WinSCP

PERSÖNLICHES PROFIL:

  • Ca. Mehr als 10 Jahre Erfahrung in Spitzentechnologien und bin derzeit auf Cloud-Lösungen spezialisiert, insbesondere auf Amazon-, Microsoft- und Google Cloud-Plattformen.
  • DevOps für Amazon- und Google Cloud-Plattformanwendungen, die von API-basierten Anwendungs-Backends, Integrationsmodulen basierend auf serverlosen Anwendungsmodellen, Pubsub / Messaging-Systemen, Big-Data-Processing-Pipelines, Benutzer- und Geschäftsanalysen reichen.Fundierte Kenntnisse in den Phasen Analyse, Design, Entwicklung, Test und Implementierung.
  • Experte für die Erstellung von Änderungsanträgen und die Unterstützung von SOA- und OO-Systemen.
  • Ich arbeite über den gesamten Lebenszyklus der Produktentwicklung, von der Erstellung von Zielen und Zielen auf Makroebene, vom Entwerfen der Lösungsarchitektur, von Datenstrukturen, der Auswahl der geeigneten Client- und serverseitigen Frameworks, der Erstellung von Diensten, der Zuweisung von wöchentlichen Sprints und der Sicherstellung, dass das Team die entsprechenden Anforderungen erfüllt, Arbeit wie geplant, und schließlich Code schreiben für die Funktionen, die ich selbst aufnehme.
  • Erfahrung mit einer Vielzahl von mobilen und Enterprise-Backend-Systemen, die auf verschiedenen Technologiestacks basieren, von Java, Python, .Net, relationalen Datenbanken, NoSQL Datenbank, Enterprise Software, Geschäftsprozess-Workflow-Systemen, Business-Intelligence-Systemen von Anbietern wie IBM, Oracle, Microsoft, Software AG, Cognos, Microstrategy usw

Betriebssysteme

Openstack with RHEL
Ubuntu Linux
Windows 7

Datenbanken

Azure und AWS
Docker und Kubernetes
ECS und AKS
HBase und sprache
Hive
HQL
KeyValue lookup
MySQL
Oracle 10g
PLS SQL
SQL
SQL Server
2005 & 2008
TSQL

Branchen

Branchen

  • Finanz
  • Ecommerce
  • Fashion
  • Accounting
  • Product Lifecycle Management
  • Account management
  • Mortgage
  • Medien

Vertrauen Sie auf Randstad

Im Bereich Freelancing
Im Bereich Arbeitnehmerüberlassung / Personalvermittlung

Fragen?

Rufen Sie uns an +49 89 500316-300 oder schreiben Sie uns:

Das Freelancer-Portal

Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.