Data-Analytics-Themen & Data-Science-Lösungen, aufbauend auf dem MS BI Stack inkl. Python & R
Aktualisiert am 17.08.2023
Profil
Mitarbeiter eines Dienstleisters
Remote-Arbeit
Verfügbar ab: 17.08.2023
Verfügbar zu: 100%
davon vor Ort: 100%
Skill-Profil eines fest angestellten Mitarbeiters des Dienstleisters
Deutsch
Muttersprache
Englisch
Verhandlungssicher
Französisch
Fortgeschritten

Einsatzorte

Ulm (Donau) (+50km) Remote (+500km)
Deutschland
möglich

Projekte

1 Jahr 3 Monate
2022-07 - heute

Aufbau eines Cloud DWH in Azure mit AdventureWorks Datensatz

Cloud Data Engineer, Cloud Data Architect
Cloud Data Engineer, Cloud Data Architect
Zur Weiterbildung auf dem Azure-Technologiestack mit den modernsten technischen Möglichkeiten, entwickelt unsere Competence Area Business Intelligence ein Cloud Datawarehouse mit dem bekannten AdventureWorks Datensatz. Ziel dabei ist, die verschiedenen Möglichkeiten der Architektur durchzuspielen und umzusetzen und darauf aufbauend die jeweiligen Vor- und Nachteile aus konzeptioneller sowie aus praktischer Anwendungssicht zu dokumentieren.
2 Jahre 4 Monate
2021-06 - heute

Administration und Support für Power BI bei einem größeren Beratungsunternehmen

Consultant, Administrator

MS SQL Server Power BI Report Server
2 Jahre 4 Monate
2021-06 - heute

Automatisierung der Kriterienüberprüfung von eingehenden Rechnungen

Data Scientist, Architekt Python
Data Scientist, Architekt

 Für zentrale Prozesse beim Kunden müssen eingehende Rechnungen auf bestimmte Kriterien hin überprüft werden. Diese Überprüfung erfolgt momentan manuell anhand von Checklisten für jede einzelne Rechnung. Ziel des Projektes ist, diesen Prozessschritt vollständig zu automatisieren, inklusive der Übergabe der Rechnungen an die Softwarelösung und der Weitergabe der Informationen an das nachfolgende Softwaremodul.


Die technische Lösung basiert dabei auf einem mehrstufigen Verfahren. Mit Hilfe von OCR werden alle Rechnungen textuell auswertbar gemacht. Basierend auf den Bilddateien der Rechnungen sowie dem daraus extrahierten Text werden pro Kriterium Features generiert. Diese Features fungieren dann als Inputdaten für KI-Methoden, welche die jeweilige Kriterienerfüllung vorhersagen. Die somit vollautomatisch ausgefüllte Checkliste wird im Anschluss elektronisch direkt an das nachfolgende Softwaremodul weitergesendet.  

Azure DevOps OCR
Python
2 Jahre 4 Monate
2021-06 - heute

Data Engineering auf halb-strukturierten Daten in einem pharmazeutischen Backendsystem

Consultant, Data Engineer Ansi SQL
Consultant, Data Engineer

 Das Backendsystem des Kunden hat eine sehr komplexe Datenstruktur, die ungeeignet ist, um Auswertungen vorzunehmen. Eine Analyse-Datenbank besteht nur punktuell. Ziel des Projektes ist daher, Datenstrukturen zu erstellen, damit die Daten in strukturierter Form mit hoher Datenqualität vorliegen, um sie für statistische Analysen verwenden zu können. Neben der komplexen Datenstruktur gibt es die weitere Herausforderung, dass die Datenstrukturen plattformunabhängig funktionstüchtig sein müssen.
Unser Entwickler schreibt komplexe SQL-Abfragen und gestaltet diese so modular wie möglich, um Synergien zwischen den Strukturanforderungen nutzen zu können. Um die Anforderung der Plattformunabhängigkeit zu wahren, werden die Statements in ANSI-SQL verfasst. Da eine Spalte des Backendsystems tausende von unterschiedlichen Daten-Klassen beinhalten kann, ist viel Kommunikation mit den Wissensträgern des Laborinformationssystems (LIMS) nötig, um die fachliche Korrektheit der Daten zu wahren.  

Atlassian Confluence Atlassian JIRA LIMS Oracle
Ansi SQL
1 Jahr 7 Monate
2020-11 - 2022-05

Prognose von Rechtsfällen und Maklerpotentialen

Data Scientist Python R
Data Scientist

Die von einem alphaQuest Kollegen entwickelten monatlichen bzw. quartalsweisen Prognosen von Rechtsfällen und Maklerpotentialen in einem großen Versicherungskonzern werden während der Betriebsphase weiter unterstützt. Zudem wurde die Dokumentation der beiden Projekte nachgeholt.
Datenbeladungen werden durchgeführt Power BI-Berichte werden zur Verfügung gestellt Bei fehlenden bzw. unplausiblen Daten werden ETL-Strecken und Modellierung angepasst  

Jupyter Notebook MS Power BI MS SQL Server MS SQL Server Integration Services
Python R
6 Monate
2021-10 - 2022-03

Einführung eines DWH und Erstellung von Berichten für operatives und Konzern-Controlling

Architekt SQL
Architekt

 Der Konzern benötigt eine zentrale Anlaufstelle für die Auswertung von Daten, die in verschiedenen Quellsystemen erfasst werden. Die Aufgabe besteht darin, die Daten aus verschiedensten Quellsystemen zusammenzuführen und in einem DWH zu harmonisieren. Auf dieser geschaffenen Datenbasis sollen neue Kennzahlen berechnet und anschaulich mit Power BI visualisiert werden.


Hierfür wurde ein DWH mit Historisierung konzipiert, in dem die verschiedenen Datenquellen zusammengefügt und aufbereitet wurden. Zur Erstellung und Darstellung der Berichte wird Power BI-Service mit einem strikten Rollenkonzept inkl. Rechteverteilung genutzt.


Die Daten sind im DWH zusammengeführt und die gewünschten Berichte werden über Power BI-Service zur Verfügung gestellt. Schulungen für die Nutzung von Power BI-Desktop für zukünftiges Self-Service-BI sind angedacht.  

Atlassian Confluence Atlassian JIRA Azure Data Factory MS Power BI MS SQL Server
SQL
1 Jahr
2020-07 - 2021-06

DWH-Einführung für Gesundheitskonzern

Consultant, Data Engineer
Consultant, Data Engineer

 Für einen großen Kunden aus dem Gesundheitssektor sollte ein Data Warehouse System eingerichtet werden, das Daten aus diversen Datenquellen (Informationssystemen) integriert und zentral zwecks Lösung fachlicher Fragestellungen bereitstellt. Das DWH sollte in mehrere logische Schichten unterteilt sein: Staging Area, Core-DWH, Data Mart. Außerdem sollte eine Repository-Software mit einem Remote-Zugriff entwickelt werden.


Es wurde das DWH erschaffen, womit konsistentes Reporting auf Grundlage der tagesaktuellen Datenbasis ermöglicht wurde. Hierbei wurde Skalierbarkeit und Beschleunigung sowie eine bessere Steuerung des Betriebes von medizinischen Einrichtungen erreicht. Außerdem wurde das Wissen an das interne IT-Team des Auftraggebers im Zuge des Auftrags und mithilfe von Workshops übertragen. Der Kunde ist daher in der Lage, u.a. das DWH eigenständig zu betreiben, zu warten, darin Daten zu ändern und zu aktualisieren, bestehende Prozeduren zu erweitern und Kennzahlenbäume zu implementieren.  

Atlassian Confluence Atlassian JIRA Azure DevOps Git MS Power BI MS SQL Server MS SQL Server Integration Services Oracle
2 Monate
2020-11 - 2020-12

Digitalisierung von Antragsformularen

Data Scientist Python
Data Scientist

 Die eingescannten Antragsformulare eines großen Versicherungskonzerns werden digitalisiert. Dabei werden Herausforderungen gemeistert wie die Auswahl des richtigen Dokuments aus einer Vielzahl von Vertragsdokumenten, das Klassifizieren von sehr verschiedenen Antragsformularversionen, sowie das Klassifizieren der händischen Antworten der Antragsteller.


Bildklassifizierung mit neuronalen Netzen
Die Modelle können mit nahezu 100-prozentiger Wahrscheinlichkeit Formulare und Antworten erkennen. Somit wird die Datenbasis des Kunden fortwährend um bisher nicht auswertbare Informationen erweitert.  

Jupyter Notebook MS SQL Server MS SQL Server Integration Services
Python
3 Monate
2020-04 - 2020-06

Pflege des zentralen Finanz- und Personal-Reporting von Sachsen-Anhalt

Consultant
Consultant

Das Land Sachsen-Anhalt erhebt und speichert erhebliche Mengen an Daten, die im ISA-Data Warehouse nutzbar gemacht werden. Gestaffelt nach den Adressaten Bürger, Abgeordnete sowie Ressorts wurde eine einheitliche ISA-Online-Plattform bereitgestellt, über die sich Berichte zu den Bereichen Haushalt (inkl. Länder-Vergleich) und Personal abrufen lassen.


Für das System wurde der fortlaufende Betrieb sichergestellt, wobei die Dateninhalte regelmäßig aktualisiert (Ladeläufe) und die Datenstrukturen an geänderte Rahmenbedingungen (z.B. Haushaltsgesetze) angepasst wurden.  

Cubeware MS SQL Server MS SQL Server Analysis Services MS SQL Server Integration Services
3 Monate
2020-03 - 2020-05

Internes PoC für eine automatisierte Verarbeitung von analogen und digitalen Rechnungen

Consultant
Consultant

Ziel des PoC: Workflow in Power Automate erstellen, der Rechnungsinformationen automatisiert aus PDF-Dateien ausliest und in das interne ERP-System schreibt.
Ergebnis des PoC: technische Möglichkeiten und Herausforderungen dargestellt  

MS Dataverse MS 365 Dynamics NAV MS Power BI AI Builder
4 Monate
2020-02 - 2020-05

Prozessautomatisierung für einen mittelständischen Großhändler im süddeutschen Raum

Consultant Common Data Service
Consultant

Bestehende Basis-Flows sollten verbessert und um komplexe Funktionen erweitert werden. Ziel war es, dass Dokumente, die per E-Mail beim Kunden ankommen, mit Power Automate automatisiert verarbeitet werden. Die Dokumente sollten archiviert und in deren Inhalte in die entsprechenden Kundensysteme geleitet werden.  

MS Power Automate MS Dataverse
Common Data Service
5 Monate
2020-01 - 2020-05

Entwicklung einer Projektplanungs-Optimierungslösung

Software Engineer Python
Software Engineer

Die Projektplanung des Kunden sollte automatisiert werden, da durch die Vielzahl an zu planenden Projekten bei begrenzten Kapazitäten die Projektplanung nicht mehr manuell optimiert werden konnte.
Es wurde ein Optimierungstool in MatLab geschrieben, welches die eingeplanten Projekte und deren Startzeitpunkte unter vorgegebenen Nebenbedingungen optimiert. Zudem gibt der Algorithmus bei Nichteinplanung den exakten Grund für das Ausschließen mit aus. Anschließend wurde das Tool in die bestehende Kundenlösung integriert.


Bei Aktualisierung der Projektdaten verbessert das Optimierungstool die Projektplanung und gibt projektspezifisch die eventuellen Ablehnungsgründe an. Damit kann das Controlling auf individueller Basis mit den Fachbereichen verhandeln und erhält direkt ein Feedback über Auswirkungen bei Projektänderungen.  

MATLAB MS Excel SAP BEx
Python
3 Monate
2020-01 - 2020-03

Kaggle Data Science Competitions

Data Scientist Python
Data Scientist

Mit Hilfe der auf Kaggle zugänglichen Wettbewerbe können Data Science Prozesse und Methoden an spezifischen Case Settings trainiert werden. Der Modus als Wettbewerb ermöglicht es, die eigenen Fähigkeiten durch den Vergleich mit den Konkurrenten einschätzen zu können. Ebenso nützlich ist der Umstand, dass viele User ihr Vorgehen veröffentlichen und die Community so voneinander lernen kann, indem sowohl technische Methoden als auch generelle Denkansätze ausgetauscht und kritisch diskutiert werden.


Unser Berater verfolgt dabei den folgenden Ansatz: Auf eine mehrstufige Datenvorbereitung inkl. Feature Engineering in SQL Server mit Visualisierungen in Python folgte die anschließende Modellierung sowie Evaluierung in Python. Nach Abschluss des ersten Cycle setzt er sich mit den Methoden der Konkurrenten auseinander, ermittelt Verbesserungspotentiale im eigenen Vorgehen und implementiert diese im eigenen Code. Somit kann unser Berater seine Data Science Kompetenzen ganzheitlich ausbauen.  

Jupyter Notebook MS SQL Server
Python
3 Monate
2020-01 - 2020-03

ETL-Entwicklung im SQL Server Stack

Consultant T-SQL
Consultant

 Aus dem hoch komplexen Datenmodell eines Legacy-ERP sollten tägliche Ladeläufe in eine Analytics-Lösung erstellt werden. Dabei sollten höchste Performanceanforderungen vollständig in SQL Server 2016 umgesetzt werden. Als leitender Tester hat der Berater dem Team ermöglicht, dieses Ziel zu erreichen.  

Azure DevOps Git MS SQL Server
T-SQL
3 Monate
2020-01 - 2020-03

Cloud Ladeprozess in Python

Data Engineer Python
Data Engineer

Aus einer heterogenen Sharepoint-Landschaft sollte in der Cloud ein zentrales Dokumenten-Repository inklusive Auswertung erstellt werden. Dieses Repository sollte täglich und ad hoc bereit stehen.  

Azure DevOps
Python
3 Monate
2019-10 - 2019-12

2nd Level Support / Digitales Shopfloormanagement

Consultant
Consultant

Aufgabe des Projekts war der 2nd Level Support eines digitalen Shopfloorboards mit automatisierter Anbindung an Datenquellsysteme und ein Data Warehouse aus der Produktion. Hierbei entsteht eine effiziente, standardisierte und transparente Datenverfügbarkeit zu jedem Zeitpunkt und bildet somit eine Basis für eine präzise und wirksame Fabriksteuerung. Das digitale Shopfloorboard ist der erste Schritt zu einer vernetzten Steuerungsplattform. Das digitale Shopfloormanagement gewährleistet die einwandfreie Funktion der Plattform.


Der 2nd Level Support erhält über ein eigenes Ticketsystem Störungsmeldungen aus der Produktionssteuerung. Die Tickets werden direkt bearbeitet oder an die entsprechenden Experten weitergeleitet. Der Weg zur Lösung der Störung wird hierbei ausführlich dokumentiert. Das digitale Shopfloormanagement ist außerdem die direkte Schnittstelle zum Kunden und kommuniziert mit den Kunden alle Schritte zur Problembehebung. Die Anbindung zu den Datenquellsystemen und des Data Warehouses der Produktion wird über Microsoft SQL Server hergestellt. Die Kennzahlen werden hier aufbereitet und der Fabriksteuerung im Shopfloorboard zur Verfügung gestellt. Der 2nd Level Support überwacht diese Datenschnittstelle und führt ggf. entsprechende SQL-Befehle aus, um die Datenbeladung anzustoßen, fehlende Daten nachzuladen oder Datenrecherchen zur Störungsbehebung durchzuführen.
Die korrekte Ausgabe von Daten und Kennzahlen im digitalen Shopfloorboard und somit eine störungsfreie digitale Produktionssteuerung. Durch die nahtlose Abdeckung der Servicezeiten werden Störungen unverzüglich bearbeitet und gelöst. Die korrekte Datenbeladung in das digitale Shopfloorboard über die Microsoft SQL Server-Schnittstelle.  

MS Power BI MS SQL Server MS SQL Server Integration Services
9 Monate
2019-01 - 2019-09

Thanks for your help! - The Added Value of Q&A Websites for Refugees and Helpers

Data Scientist R
Data Scientist

 Masterarbeit mit Machine Learning als Methodik. Dabei wurden die folgenden Konzepte verwendet:
Text Klassifikation, Topic Detection/Clustering, Social Media-Analyse, Zeitreihenanalyse, Data Scraping, Data Wrangling, Deskriptive Analysen, Netzwerkanalysen, Modellierung, Modellvalidierung, Visualisierung, Handlungsempfehlungen.


Folgende Themen wurden analysiert: Nutzergruppen und Nutzerverhalten, von der Webseite behandelte Integrationselemente, Entwicklungen über die Zeit, Verbesserungspotentiale auf mehreren Ebenen.  

Gephi R Studio
R
5 Monate
2017-10 - 2018-02

Augmented-Reality App für Speisekarten

Software Engineer C#
Software Engineer

Programmierung eines AR App Prototypen in Unity für Speisekarten mit anschließender Studie über Usability Vergleich mit analogen Speisekarten.


Ergebnis: Verwendung der AR App wurde als bequemer empfunden und Probanden fanden sich besser über die Gerichte informiert.  

Android Studio Visual Studio
C#
4 Monate
2017-04 - 2017-07

Recommender-Systeme für Restaurants

Data Scientist
Data Scientist

Ergebnis: Präferenzen ähnlicher Nutzer ergeben bessere Vorhersagen als Ähnlichkeiten zwischen den Restaurants  

KNIME
6 Monate
2016-09 - 2017-02

Datenanalysen und Sales Controlling für ein führendes Unternehmen im Gesundheitswesen

BI-Analyst (Internship)
BI-Analyst (Internship)

Aufgaben: Budgetierung, Datenanalysen, Standard und Ad-hoc Reporting, Schulungen zu MicroStrategy halten.  

MS Excel MicroStrategy SAP BEx SAP/R3

Aus- und Weiterbildung

1 Monat
2022-06 - 2022-06

Introduction to Machine Learning and Causal Inference

4th RUHR School of Modern Epidemiology
4th RUHR School of Modern Epidemiology
2 Jahre 6 Monate
2017-04 - 2019-09

Wirtschaftswissenschaften, Schwerpunkte: Informatik & Economics

M.Sc., Universität Ulm (ECTS A)
M.Sc.
Universität Ulm (ECTS A)

Informatik & Economics

3 Jahre 6 Monate
2013-10 - 2017-03

Wirtschaftswissenschaften, Schwerpunkt: Unternehmensführung und Controlling

B.Sc., Universität Ulm (ECTS A)
B.Sc.
Universität Ulm (ECTS A)

Unternehmensführung und Controlling

Position

Data Science; Machine Learning (ML); DWH-Architektur und Datenmodellierung (Datawarehouse); Data Engineering mit Big Data / Databricks, Apache Spark / Azure Synapse;

Kompetenzen

Produkte / Standards / Erfahrungen / Methoden

Atlassian Jira/Confluence
Fortgeschritten
Azure Machine Learning
Fortgeschritten
Common Data Warehouse Development
Experte
Common ETL Development
Fortgeschritten
Data Vault 2.0
Fortgeschritten
Datenanalyse
Fortgeschritten
Datenarchitektur-Konzepte
Fortgeschritten
Datenbanken
Fortgeschritten
Datenmodellierung
Fortgeschritten
Gephi
Fortgeschritten
Jupyter Notebook
Fortgeschritten
Linux
Fortgeschritten
Machine Learning
Fortgeschritten
MS Power Automate
Fortgeschritten
MS Power Automate AI Builder
Fortgeschritten
MS Power BI
Fortgeschritten
MS SQL Server
Experte
SSIS
Fortgeschritten
Oracle Database
Fortgeschritten
MS Power BI Report Server
Fortgeschritten
R Studio
Experte
Regular Expression
Fortgeschritten
Textanalyse
Fortgeschritten

Programmiersprachen

SQL
Experte
Python
Experte
R
Experte

Branchen

Pharma, Versicherungen, Automobil, Forschung, Gesundheits- & Sozialwesen,

Vertrauen Sie auf GULP

Im Bereich Freelancing
Im Bereich Arbeitnehmerüberlassung / Personalvermittlung

Fragen?

Rufen Sie uns an +49 89 500316-300 oder schreiben Sie uns:

Das GULP Freelancer-Portal

Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.