Für eine deutsche Verwertungsgesellschaft im Bereich Musik, sollte im Rahmen einer großangelegten Migrationsstrategie der Kerndatenbestand zu verteilten Geldern in ein neues Datenmodell migriert werden. Der Kunde erhielt zudem Unterstützung bei der Einführung von Kubernetes als neue Deploymentumgebung. Als erster Entwickler im Team, galt es weiterhin die daraufhin folgenden Kollegen in die extrem komplexe Domain einzuführen.
Für einen großen Personalvermittler und Personaldienstleister, sollte das interne Tooling zur Verwaltung von geschäftskritischen Ressourcen modernisiert werden. Dabei wurde das bestehende System nach dem Domain-driven Design Pattern vollständig neu aufgerollt und in Gestalt einer entsprechenden Microservice-Architektur umgesetzt. Um auch zukünftig branchenspezifische Innovation treiben zu können, lag der Fokus auf der Erweiterbarkeit des Gesamtsystems.
Für einen Anbieter von auf Business-Travel spezialisierten Kreditkarten und dazugehörigen Business- Travel-Management Lösungen sollte im Rahmen einer großangelegten Business Transformation die beim Kunden über Jahrzehnte gewachsene IT-Landschaft überholt werden. Die Strategie des Kunden sah es dabei vor den größten Teil der zuvor in-house entwickelten Businesslogik in COTS Software abzubilden und ausschließlich die marktdifferenzierenden Lösungen, basierend auf einer eventbasierten Microservice-Architektur, in-house neu zu entwickeln.
Für einen großen Versicherungskonzern, dessen Kerngeschäft bisher im B2B Geschäft lag, sollte mit Hilfe eines online Versicherungsportals für Oldtimer der Einstieg in die B2C Welt verprobt werden. In einem kleinen Scrum Team bestehend aus 5 Entwicklern und Designern, wurde eine entsprechende Website designed und umgesetzt. Diese Website bildet den vollständigen Antragsprozess für eine KFZ-Versicherung ab. Die Anbindung an die bestehenden internen Backend- Systeme der Versicherung wurde ebenfalls in diesem Team implementiert.
Für einen großen online Lebensmittelshop sollte eine vollautomatisierte Lösung geschaffen werden, Freitext Zutatenlisten auf im Shop verfügbare Produkte abzubilden. Darüber hinaus sollte die Lösung mit verschiedenen Kooperationspartnern wie Rezepte-Communities oder Bloggern integriert werden.
Für die Kunden eines großen online Lebensmittelshops sollten personalisierte Produktempfehlungen berechnet und auf unterschiedlichen Kanälen ausgespielt werden. Mit dem Ziel maximaler Anpassungsmöglichkeiten wurde bewusst auf eine out-of-the-box Lösung verzichtet und eine eigene Implementierung gewählt. Während des Projektes wurden zahlreiche Empfehlungsstrategien (u.A. basierend auf Association Rules und Neuronalen Netzen) im Livesystem verprobt und anhand der resultierenden Conversion bewertet. Datenbasis für die implementierten Recommendation Algorithmen waren historische Warenkörbe, Userverhalten, Margen und manuell gepflegte Listen aus der entsprechenden Fachabteilung. Neben der Entwicklung und dem Training der Empfehlungsmodelle waren das Sammeln und Bereinigen der Rohdaten in einer Cloud-basierten Big Data Plattform umzusetzen.
Aus einem monolithischen Legacy-Shopsystem sollte die Produktsuche extrahiert und in einem dedizierten Microservice neu implementiert werden. Weiterhin galt es die Qualität der Suchergebnisse hinsichtlich Precision, Recall und Präsentation zu verbessern. Basierend auf der Einkaufshistorie eines Kunden wurden die Suchergebnisse darüber hinaus personalisiert.
Für einen großen Lebensmittelhandel-Konzern sollte ein eigenständiger online Shop für den Bereich Wein implementiert werden. Um den Shop in die Infrastruktur des Konzerns einzubetten, sollte dieser darüber hinaus an das interne Rechnungswesen und die Warenwirtschaft angebunden werden. Bei der Entwicklung wurde mit dem Ziel maximaler Gestaltungsfreiheit bewusst auf die Verwendung von Standard Shopsysteme verzichtet und stattdessen von Grund auf in Java Web Services mit commercetools als Shop-Backend neu entwickelt.
Für ein großes deutsches Marktforschungsunternehmen sollte eine Plattform für unternehmensweit gesammelte Daten geschaffen werden. Aufgrund des anfallenden Datenvolumens und der Diversität wurde eine Big Data Plattform auf Basis von Hadoop gewählt. Ziel war es sämtliche Daten, die bis dahin über zahlreiche voneinander getrennte Datensilos verteilt lagen, in einem einheitlichen Format für sämtliche Forschungsfragen ad hoc zur Verfügung zu stellen. Die Plattform stellte dabei die Integrität der Daten sicher und bildete übliche Data-Cleansing und Anonymisierungs-Mechanismen ab. Zusätzlich wurde ein Produkt zur Analyse von Nutzerprofilen von Webseiten entwickelt, dass die Daten aus der neu entstandenen Big Data Plattform beziehen sollte.
Am Lehrstuhl für Data Mining und Data Exploration der RWTH Aachen sollten verschiedene Data Mining Algorithmen in den Bereichen Clustering, Classification und Prediction konzipiert und implementiert werden. Für die Analyse eines Einspritzverfahrens für Verbrennungsmotoren sollte darüberhinaus ein Bilderkennungsverfahren optimiert werden, dass Strömungswirbel aus Motorraum-Innenaufnahmen extrahiert.
Für ein mittelständisches IT-Unternehmen sollte Tooling zur Unterstützung beim beheben wiederkehrender Datenbank-Inkonsistenzen entwickelt werden.
Für einen mittelständischen Personaldienstleister sollte in der Start-Up Phase ein Portal geschaffen werden, über das arbeitssuchende Studenten an Unternehmen vermittelt werden. Zusätzlich sollten bestehende manuelle Arbeitsprozesse zur Rechnungserstellung automatisiert werden.
Abschluss:
M.Sc. Informatik (RWTH Aachen)
Big Data & Machine Learning:
Data Mining und Analyse:
Container & Infrastructure:
Messaging:
Frameworks:
Backend:
Frontend:
Entwicklungsumgebungen:
Build- & CI-Tools:
Issue Tracker & Wikis:
Vorgehensmodelle:
Methodisches Wissen:
diverse Publikationen: nähere Informationen gerne auf Anfrage
Für eine deutsche Verwertungsgesellschaft im Bereich Musik, sollte im Rahmen einer großangelegten Migrationsstrategie der Kerndatenbestand zu verteilten Geldern in ein neues Datenmodell migriert werden. Der Kunde erhielt zudem Unterstützung bei der Einführung von Kubernetes als neue Deploymentumgebung. Als erster Entwickler im Team, galt es weiterhin die daraufhin folgenden Kollegen in die extrem komplexe Domain einzuführen.
Für einen großen Personalvermittler und Personaldienstleister, sollte das interne Tooling zur Verwaltung von geschäftskritischen Ressourcen modernisiert werden. Dabei wurde das bestehende System nach dem Domain-driven Design Pattern vollständig neu aufgerollt und in Gestalt einer entsprechenden Microservice-Architektur umgesetzt. Um auch zukünftig branchenspezifische Innovation treiben zu können, lag der Fokus auf der Erweiterbarkeit des Gesamtsystems.
Für einen Anbieter von auf Business-Travel spezialisierten Kreditkarten und dazugehörigen Business- Travel-Management Lösungen sollte im Rahmen einer großangelegten Business Transformation die beim Kunden über Jahrzehnte gewachsene IT-Landschaft überholt werden. Die Strategie des Kunden sah es dabei vor den größten Teil der zuvor in-house entwickelten Businesslogik in COTS Software abzubilden und ausschließlich die marktdifferenzierenden Lösungen, basierend auf einer eventbasierten Microservice-Architektur, in-house neu zu entwickeln.
Für einen großen Versicherungskonzern, dessen Kerngeschäft bisher im B2B Geschäft lag, sollte mit Hilfe eines online Versicherungsportals für Oldtimer der Einstieg in die B2C Welt verprobt werden. In einem kleinen Scrum Team bestehend aus 5 Entwicklern und Designern, wurde eine entsprechende Website designed und umgesetzt. Diese Website bildet den vollständigen Antragsprozess für eine KFZ-Versicherung ab. Die Anbindung an die bestehenden internen Backend- Systeme der Versicherung wurde ebenfalls in diesem Team implementiert.
Für einen großen online Lebensmittelshop sollte eine vollautomatisierte Lösung geschaffen werden, Freitext Zutatenlisten auf im Shop verfügbare Produkte abzubilden. Darüber hinaus sollte die Lösung mit verschiedenen Kooperationspartnern wie Rezepte-Communities oder Bloggern integriert werden.
Für die Kunden eines großen online Lebensmittelshops sollten personalisierte Produktempfehlungen berechnet und auf unterschiedlichen Kanälen ausgespielt werden. Mit dem Ziel maximaler Anpassungsmöglichkeiten wurde bewusst auf eine out-of-the-box Lösung verzichtet und eine eigene Implementierung gewählt. Während des Projektes wurden zahlreiche Empfehlungsstrategien (u.A. basierend auf Association Rules und Neuronalen Netzen) im Livesystem verprobt und anhand der resultierenden Conversion bewertet. Datenbasis für die implementierten Recommendation Algorithmen waren historische Warenkörbe, Userverhalten, Margen und manuell gepflegte Listen aus der entsprechenden Fachabteilung. Neben der Entwicklung und dem Training der Empfehlungsmodelle waren das Sammeln und Bereinigen der Rohdaten in einer Cloud-basierten Big Data Plattform umzusetzen.
Aus einem monolithischen Legacy-Shopsystem sollte die Produktsuche extrahiert und in einem dedizierten Microservice neu implementiert werden. Weiterhin galt es die Qualität der Suchergebnisse hinsichtlich Precision, Recall und Präsentation zu verbessern. Basierend auf der Einkaufshistorie eines Kunden wurden die Suchergebnisse darüber hinaus personalisiert.
Für einen großen Lebensmittelhandel-Konzern sollte ein eigenständiger online Shop für den Bereich Wein implementiert werden. Um den Shop in die Infrastruktur des Konzerns einzubetten, sollte dieser darüber hinaus an das interne Rechnungswesen und die Warenwirtschaft angebunden werden. Bei der Entwicklung wurde mit dem Ziel maximaler Gestaltungsfreiheit bewusst auf die Verwendung von Standard Shopsysteme verzichtet und stattdessen von Grund auf in Java Web Services mit commercetools als Shop-Backend neu entwickelt.
Für ein großes deutsches Marktforschungsunternehmen sollte eine Plattform für unternehmensweit gesammelte Daten geschaffen werden. Aufgrund des anfallenden Datenvolumens und der Diversität wurde eine Big Data Plattform auf Basis von Hadoop gewählt. Ziel war es sämtliche Daten, die bis dahin über zahlreiche voneinander getrennte Datensilos verteilt lagen, in einem einheitlichen Format für sämtliche Forschungsfragen ad hoc zur Verfügung zu stellen. Die Plattform stellte dabei die Integrität der Daten sicher und bildete übliche Data-Cleansing und Anonymisierungs-Mechanismen ab. Zusätzlich wurde ein Produkt zur Analyse von Nutzerprofilen von Webseiten entwickelt, dass die Daten aus der neu entstandenen Big Data Plattform beziehen sollte.
Am Lehrstuhl für Data Mining und Data Exploration der RWTH Aachen sollten verschiedene Data Mining Algorithmen in den Bereichen Clustering, Classification und Prediction konzipiert und implementiert werden. Für die Analyse eines Einspritzverfahrens für Verbrennungsmotoren sollte darüberhinaus ein Bilderkennungsverfahren optimiert werden, dass Strömungswirbel aus Motorraum-Innenaufnahmen extrahiert.
Für ein mittelständisches IT-Unternehmen sollte Tooling zur Unterstützung beim beheben wiederkehrender Datenbank-Inkonsistenzen entwickelt werden.
Für einen mittelständischen Personaldienstleister sollte in der Start-Up Phase ein Portal geschaffen werden, über das arbeitssuchende Studenten an Unternehmen vermittelt werden. Zusätzlich sollten bestehende manuelle Arbeitsprozesse zur Rechnungserstellung automatisiert werden.
Abschluss:
M.Sc. Informatik (RWTH Aachen)
Big Data & Machine Learning:
Data Mining und Analyse:
Container & Infrastructure:
Messaging:
Frameworks:
Backend:
Frontend:
Entwicklungsumgebungen:
Build- & CI-Tools:
Issue Tracker & Wikis:
Vorgehensmodelle:
Methodisches Wissen:
diverse Publikationen: nähere Informationen gerne auf Anfrage
Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.