Fachlicher Schwerpunkt dieses Freiberuflers

Software Engineer (Hadoop, Realtime, DataLake, Big Data, ETL, Business Intelligence, Advanced Analytics, Cloud , Spark)

verfügbar ab
26.08.2019
verfügbar zu
100 %
davon vor Ort
100 %
PLZ-Gebiet, Land

D0

D1

D2

D3

D4

D5

D6

D7

D8

D9

Österreich

Schweiz

Einsatzort unbestimmt

Städte
Stuttgart
500 km

Position

Kommentar

Solution Architekt in Automotiv/Engineering Bereich

Data Architekt in Ecommerce Bereich

Projekte

03/2016 - 05/2018

2 Jahre 3 Monate

Entwerfen und entwickeln

Rolle
Big data Engineer
Kunde
Arvato Infoscore – Risikomanagement
Projektinhalte
  • Entwerfen und entwickeln Sie mehrere Spark-Jobs, um die Datenquellen (csv, hbase, Hive und SQLServer) über die in Azure gehostete Big Data-Landschaft zu integrieren.
  • Verwendet Lambda architektur daher Schema-Design für Batch-Layer-Speicher in Hive und Echtzeit-Layer- Speicher in Hbase.
  • Entwickelt mehrere Topologien für die Archivierung, Replay, Echtzeit-Scoring, Feature-Berechnungen für Scoring-Modell und Modellintegration mit Apache Sturm
  • Datensammlung von E-Commerce-Plattform: Integrierte Scriptlets zum Sammeln von Verhaltens-, Geräte-Tracking und PII-Daten.
  • Containerized das R-basierte Modell, um als eine API verfügbar zu machen, aktiviert das Modell für TCP-Aufruf
  • Erstellte einen Tag-Manager und eine API mit Microservices-Architektur.
  • Integrierte APIs verschiedener Anbieter in der E Commerce-Plattform zur Datenerfassung und Geräteidentifikation
  • Erlernte die Modellierungstechniken mit H2o.
Produkte

Apache Hive /Apache Hbase over Phoenix

Apache Storm and Spark

Docker

PrestaShop etc.

08/2015 - 02/2016

7 Monate

datenmodellierung

Rolle
Big data Engineer
Kunde
Brunel – Dresden (Verschiedenes Kunden)
Projektinhalte
  • Entwicklungsumgebung auf Big Data gesetzt, die Apache Hadoop, Spark und Hive für Inhouse-Cluster enthält
  • Gesammelt und verarbeitet Raw-Produktionsdaten im Maßstab von relationalen Quellen mithilfe von Sqoop und Apache Spark (ETL)
  • Durchgeführt datenmodellierung für die Speicherung in HDFS (Serialisierung, Komprimierung, Abfrage, Partitionierung, Bucketing und De-Normalisierung Aspekte) (ETL).
  • Arbeitete eng mit Test- und Qualitätsteams zusammen, um den Datenkontext in die Hadoop-Speicherschicht zu integrieren.
  • Gelernt und angewendet Konzepte zur Funkenabstraktion mit Hilfe von APIs von RDDs und DataStream
  • Verwendetes Statistikwissen zur Analyse.
  • Organisierte Präsentationen, um das Verständnis der Projektbeteiligten auf gleicher Ebene zu bringen
Kenntnisse

HDFS

Spark

MapReduce

Hive

Sqoop

Kafka

HBase

Oozie

Scala

Java

JSON

SQL Scripting and Linux Shell Scripting

Avro

Parquet

Hadoop

06/2014 - 06/2015

1 Jahr 1 Monat

Ersterstellung und konfiguriert

Rolle
Big Data Assistant
Kunde
Systems Engineering Group – TU Dresden
Projektinhalte
  • Mehrere Map Reduce-Jobs entwickelt und entwickelt, die lokal konfigurierte Hadoop-Cluster für Datenmengen verwenden, die in HDFS sowie in Amazon S3-Speichern gehostet werden
  • Erstellt und konfiguriert [S3-ausgelöste] AWS Elastic MapReduce-Cluster [mithilfe von Spot-Instanzen] für verkettete Jobs mit den Common Crawl daten von Terabyte.
  • Um hohe Geschwindigkeit zu erreichen, integrierte der Schlüssel-Wert-Speicher von Infinispan (Memcache)
  • Komplexe Diagramme entworfen, um die Auswirkungen von Bucket-Elementen und Bucket-Größe auf den Distributionsspeicher zu analysieren (verwendete R Statistiksprache)
  • Entwickelte Web Services mit Python und schrieb Algorithmen für die optimale Kostenberechnung von Web Graphen
  • Migrierte die auf Map Reduce basierenden Batch-Pipelines mithilfe von Transformation und Aktionen in die Spark-Pipeline. Spark Streaming und Spark SQL API zur schnelleren Verarbeitung von Daten in Scala implementiert
Kenntnisse

AWS- EMR

Kinesis

S3

Produkte

Apache Hadoop - MapReduce mit Java-Implementierung und Verwendung verschiedener Common Crawl Java APIs.

01/2013 - 06/2013

6 Monate

Analyse, Entwurf und Implementierung

Rolle
Wissenschaftlicher Mitarbeiter
Kunde
TU Dresden – Datenbank Gruppe
Projektinhalte
  • Analyse, Entwurf und Implementierung von Features für einen analytischen Suchdienst mit SQL-Skript
  • Analyse und Korrektur von komplexen
  • eingerichtet eine Entwicklungsumgebung für den gemeinsamen Entwicklungsprozess basierend auf HANA Studio
  • Hat die Entwicklung von Anwendungsfunktionen in einer Javascript und HTML5 basierten Schnittstelle.
  • Hatte Echtzeit-Analyse-Utility für Kunden entwickelt, um ihre Geschäftsrichtungen mit einer natürlichen Sprache Abfrage Schnittstelle zu finden. Es war Teil eines generischen Open Domain-und Open-Language-Tool mit natürlicher Sprache Formalisierung.
Produkte

Verwendete SAP Technologie Suite von ABAP für Middle Layer und HANA Studio als Entwicklungsumgebung und SQL HANA DB für Persistenz von Daten und Metadaten und SAP Frontend API von HTML5 (SAPUI5) für Schnittstelle

06/2009 - 10/2012

3 Jahre 5 Monate

diverse Projekte

Rolle
Senior Software-Engineer
Kunde
Systems Ltd Pakistan
Projektinhalte

Berichte Migration & Analytik

  • Hatte SSRS-Berichte / SSAS-Cubes mit Benutzerakzeptanzkriterien entworfen, entwickelt und getestet.
  • Business-Analyse- und Anforderungs-Engineering für Cognos-Katalogberichte, Impromptu-Katalog, DB2-Schema gemacht (Der Katalog bestand aus 6 DB-Schema und 200 + Tabelle)
  • Hatte das Berichtsmodell, 100 Berichte und 6 Würfel akzeptabler Qualität innerhalb der vorgegebenen Fristen geliefert
  • hatte Berichte und Cubes über Sharepoint-Server (Entwicklung und Produktion) in Integrations- und Produktionsumgebungen bereitgestellt und getestet
  • Optimierung des XML-Generierungsdienstprogramms mit der Java StAX-API, um SSRS-Modellkomponenten von Datenquellen-View- und Semantic Model-Dateien zu generieren (wodurch der Entwicklungsaufwand von 3 Monaten auf 1 Monat reduziert wurde)

Datenmigration (ETL)

  • Zur Synchronisation der Multisystemdaten von verschiedenen Filialen zu einem zentralen Repository, entworfene Datenflüsse als Teil eines Integrationsprojekts.
  • Anforderungs-Engineering aus der Legacy-Infrastruktur von Oracle DB-Paketen zur Überwindung von Leistungsproblemen, Konstruktionsfehlern und unvermeidbaren Funktionsfehlern.
  • Bereinigte Daten von 5 Artikelspeicherdatenbanken und synchronisiert sie nach der Umwandlung in einem Repository.
  • Geplante und bereitgestellte SSIS-Pakete in Test- und Produktionsumgebungen.
  • Durchgeführtes rigoroses Testen und eine um 38% höhere Ausführungsgeschwindigkeit durch SSIS-Pakete, gemäß Standard-SSIS-Verfahren
  • Verbesserte Leistung durch automatische Planung von Datenflüssen

Staging, Migration und Integration (ETL)

  • Analyse, Entwurf und Entwicklung von Datenworkflows für ein Datenkonsolidierungs- und Synchronisationsprojekt, um die Integration von Unternehmensdaten zu ermöglichen
  • Entwickelte SSIS-Pipelines für Zwei-Wege-Datenflüsse unter Verwendung von MDS-Staging- und ERP-Daten von AX Dynamic.
  • Analyse und Entwicklung von SSIS-Datenworkflows mit WCF-basierten Webservices, MDS-basierten Metadaten.
  • Hatte Modelle, Entitäten, Attribute (Domänenattribute) erstellt, die Modellierung und Versionsverwaltung in MDS verwenden. Hatte Zugriffsebenen für Entitätsdaten und Attributhierarchien definiert.
  • Hatte Qualitätsmetriken für SSIS-Pakete auf dem akzeptablen Produktionsniveau beibehalten.
  • Unsere Arbeit anerkannt für die Förderung der ultimativen Analyse um 2 Monate früher und risikofreier. Hatte das Medium-Capacity-Modell genutzt, um den Platz zu verbessern
Produkte

SQLServer

Oracle Schnittstelle

Projekthistorie

2016 - jetzt: Enterprise Web and Mobile Applications

Rolle: Solution Architect (IT Berater)

Aufgaben: 

Innerhalb kürzester Zeit Unternehmenslösungen mit modernster Technologie bei maximaler Kundenzufriedenheit und minimalem Betriebsaufwand bereitgestellt. 

  • Für die EPREL-Initiative der Europäischen Union (EU) (Europäisches Produktregister für Energieetikettierung) Einrichtung einer System-zu-System-Schnittstelle zwischen Panasonic und dem EU-Produktregister auf der Grundlage der eDelivery-Architektur der EU. Zu den Schnittstellen gehören die Produktregistrierung, Produktinformationsblätter und zusätzliche Daten / Dokumente für die Konformitätsprüfung.
  • Technologie: Serverloses AWS-Modell, AWS Lambda, API-Gateway, AWS RDS, AWS S3, AWS IAM
  • Für die Vorbereitung der EU- GDPR sollten Sie Kundenstammdaten verwalten, die aus unterschiedlichen Datenquellen von verschiedenen Panasonic-Geschäftszweigen und Tochtergesellschaften (Lumix, Technics usw.) in ganz Europa stammen. Das Ergebnis war ein weltweit zugängliches Kundenprofilcenter, das für Kundenwerbung, eShop, Lumix-Web, Technics-Web, Pana Direct, Geschäftsberichte usw. verwendet werden kann.
  • Die Architektur besteht aus einem von AWS gehosteten Apache Camel-Tool als Integrationshub, integriert in XML / CSV-Adaptern und Kundenspezifischer Oracle Eloqua-Adapter. Reakt-basierte Frontend-Architektur, AWS S3, AWS SNS, AWS SQS, Cloudwatch, Route53.
  • Onboarding Hunderte Tennisclubs in ganz Sao Paulo, Brasilien: Als freiberuflicher Berater entwickelte ich eine Plattform zur Vereinfachung der Clubmitgliedschaftsströme, Buchungsablauf, Zeit- und Ressourcenmanagement für Clubmitglieder, Kommunikation der Clubmitglieder, Rankings, Spielstand-Tracking und Intra-Club-Meisterschaften.
  • Technologie: Serverloses Anwendungsmodell, Cloud-Datastore, REST-Services, Cloud-Speicher, Identitäts- und Zugriffsmechanismus.

Branchen

  • Finanz
  • Ecommerce
  • Fashion
  • Accounting
  • Product Lifecycle Management
  • Account management
  • Mortgage

Kompetenzen

Produkte / Standards / Erfahrungen
AWS and Azure
Docker
ERWin
Git
GitLab
Jira
Lucidchart
Mattermost
Moba XTerm
phpmyadmin
Powershell
Rancher
Sparx Enterprise Architect
UML Modelling
SVN
Toad
Visio
WinSCP

PERSÖNLICHES PROFIL:

  • Ca. Mehr als 10 Jahre Erfahrung in Spitzentechnologien und bin derzeit auf Cloud-Lösungen spezialisiert, insbesondere auf Amazon-, Microsoft- und Google Cloud-Plattformen.
  • DevOps für Amazon- und Google Cloud-Plattformanwendungen, die von API-basierten Anwendungs-Backends, Integrationsmodulen basierend auf serverlosen Anwendungsmodellen, Pubsub / Messaging-Systemen, Big-Data-Processing-Pipelines, Benutzer- und Geschäftsanalysen reichen.Fundierte Kenntnisse in den Phasen Analyse, Design, Entwicklung, Test und Implementierung.
  • Experte für die Erstellung von Änderungsanträgen und die Unterstützung von SOA- und OO-Systemen.
  • Ich arbeite über den gesamten Lebenszyklus der Produktentwicklung, von der Erstellung von Zielen und Zielen auf Makroebene, vom Entwerfen der Lösungsarchitektur, von Datenstrukturen, der Auswahl der geeigneten Client- und serverseitigen Frameworks, der Erstellung von Diensten, der Zuweisung von wöchentlichen Sprints und der Sicherstellung, dass das Team die entsprechenden Anforderungen erfüllt, Arbeit wie geplant, und schließlich Code schreiben für die Funktionen, die ich selbst aufnehme.
  • Erfahrung mit einer Vielzahl von mobilen und Enterprise-Backend-Systemen, die auf verschiedenen Technologiestacks basieren, von Java, Python, .Net, relationalen Datenbanken, NoSQL Datenbank, Enterprise Software, Geschäftsprozess-Workflow-Systemen, Business-Intelligence-Systemen von Anbietern wie IBM, Oracle, Microsoft, Software AG, Cognos, Microstrategy usw

Datenbanken
Azure und AWS
Docker und Kubernetes
ECS und AKS
HBase und sprache
Hive
HQL
KeyValue lookup
MySQL
Oracle 10g
PLS SQL
SQL
SQL Server
2005 & 2008
TSQL

Betriebssysteme
Openstack with RHEL
Ubuntu Linux
Windows 7

Ausbildungshistorie

Hoch-/Schulbildung, Weiterbildung:

2015

Masters in Distributed Systems von TU Dresden (Note 2.3/5.0)

Schwerpunkte:

Design Pattern, Component based SE, Distributed Computing, Dependable Sys.

2009
Bachelor in Computer Science from NUCES-FAST (GPA 3.52/4.0)

Schwerpunkte:

Software Engineering, Databases and Data warehouse, Compiler Construction

×
×