Technischer und fachlicher Support für produktive Data-Science-Use-Cases und Migration mehrerer SQL- und Linux-Server des Data-Science-Teams.
Ergebnis: Sicherung des uneingeschränkten operativen Betriebs aller produktiven Data-Science-Use-Cases und erfolgreiche Migrationen.
Für den Bestellprozess beim Kunden sollen Bestellungen, welche als Mail-Text oder PDF eingehen, automatisiert ausgelesen werden.
Ziel des Projektes ist, einen Prototypen zu entwickeln, der diesen Prozessschritt vollständig zu automatisiert, inklusive der Übergabe der Eingangsdateien an die Softwarelösung und der Weitergabe der Auftragsdaten an das nachfolgende Softwaremodul.
Ziel des Projektes war die Weiterentwicklung eines frei verfügbaren XAI-Demonstrators zur Nutzung im Vertrieb der alphaQuest GmbH. Zu diesem Zweck musste die Funktionsweise des verfügbaren Entwicklungsstandes verstanden, dessen vorhandene Schwächen identifiziert, die Anforderungen für den Einsatz im Vertrieb der alphaQuest GmbH abgeleitet und technische Lösungsansätze entwickelt und evaluiert werden. Schließlich sollten Verbesserungen implementiert, evaluiert und deployt werden.
XAI beschreibt Methoden, mit denen KI-Lösungen erklärbar und nachvollziehbar gemacht werden können (Explainable Artificial Intelligence).
Ein bestehender Optimierer für das Projektportfolio liefert keine optimalen Ergebnisse.
Ergebnis: Fehler in der Datenverarbeitung wurde identifiziert und behoben. Der Algorithmus liefert nun optimale Lösungen.
Wegen des überraschenden Ausscheidens der Mitarbeiter des Data Science Teams des Kunden mussten unter Zeitdruck zahlreiche Übergaben erfolgen und eine Dokumentation aller Aufgaben, Data Science Entwicklungen und Data Science Prozesse zum Einlernen neuer Mitarbeiter angelegt werden. Zusätzlich musste die fachliche Betreuung und der technische Support für bereits produktiv eingesetzte Data Sciene Use Cases sichergestellt werden. Schließlich wurde noch ein begonnenes Entwicklungsprojekt zur KI-basierten Erfassung von Informationen aus eingescannten Vertragsunterlagen abgeschlossen.
Unser Berater leitete ein Projektteam beim Kunden an. Dabei identifizierte und priorisierte er erforderliche Aufgaben im Rahmen der Übergaben. Zu diesem Zweck wurde ein agiles Vorgehensmodell eingesetzt. Er entwickelte zudem technische Architekturen und unterstützte deren praktische Umsetzung. Übergaben wurden im Rahmen von Interviews und gemeinsamer Bearbeitung von Wartungs- und Entwicklungsaufgaben durchgeführt und die Ergebnisse in Atlassian Confluence dokumentiert. Auf diesem Wege wurden auch zukünftig dringend anstehende Aufgaben (konkret: Server-Migrationen) identifiziert und deren Umsetzung vorbereitet.
Für das begonnene Entwicklungsprojekt wurden Neuronale Netze trainiert, sodass die relevanten Seiten innerhalb der gescannten Dokumente sowie die darauf enthaltenen Informationen automatisiert ausgelesen werden konnten. Es wurde eine umfangreiche Dokumentation angelegt und ein Operations Konzept für die bereits produktiv eingesetzten Data Sciene Use Cases entwickelt und etabliert. Die bestehenden Datenbankserver und ETL-Strecken wurden auf anstehende Migrationen vorbereitet und die Migration testweise erfolgreich geprobt.
Informationen aus mehr als 100.000 gescannten Verträgen unterschiedlicher Formularvarianten konnten zuverlässig automatisiert ausgelesen werden. Der Kunde wünscht, die Zusammenarbeit in den Bereichen Support, Einarbeitung neuer Mitarbeiter und Entwicklung weiterer Data Science Use Cases in Zukunft fortzusetzen.
Entwicklung eines Modells und Reports zur kurzfristigen Umsatzprognose basierend auf Auftragseingängen mit stochastischen Unsicherheiten, Ergebnis: Hohe Prognosegüte im Backtesting. Das Modell ermöglicht dem Kunden, die Qualität etablierter Verfahren zu Umsatzprognosen kritisch zu hinterfragen.
Die zentrale Zielstellung des Projektes war die Entwicklung eines Vorhersagemodells, das den Fachbereich Vertrieb bei der Auswahl von zu fördernden Vertriebspartnern unterstützt und somit Umsatzpotentiale identifiziert.
Das Zielmodell sollte dabei eine hohe praktische Nutzbarkeit sicherstellen:
1. Identifikation mindestens eines vordefinierten Anteils von Potentialträgern (Erreichung einer vorgegebenen Recall-Rate)
2. Hohe Treffergenauigkeit (maximale Precision für vorgegebene Recall-Rate)
Zum Zeitpunkt des Projekteinstiegs waren kundenseitig bereits mehrere Monate Entwicklungszeit investiert worden, ohne dass die gewünschte Modellgüte erreicht werden konnte. Unser Berater arbeitete verantwortlich im Projektteam des Kunden. Dabei entwickelte er die technischen und mathematischen Architekturen und unterstützte deren praktische Umsetzung.
Es wurden folgende Prädiktions-Algorithmen verwendet: Linear Discriminant Analysis, Logistische Regression, XGBoost, Neuronales Netz
Das Projekte umfasste die folgenden Phasen (angelehnt an CRISP-DM):
1. Schaffung des Geschäfts- und Datenverständnisses
2. Überprüfung der Datengrundlage und der bisherigen mathematischen Modellierungsansätze
3. Korrekturen und Ergänzungen der Datengrundlage und der Modellierungsansätze
4. Implementierung und Deployment der gewählten mathematischen Modelle (Multi-Modell-Ansatz)
5. Validierung und Backtesting
6. Dokumentation und Bereitstellung von Ergebnissen (Power BI-Report) für den fachlichen Auftraggeber.
Innerhalb von zwei Monaten wurde aufbauend auf der Vorentwicklung des Projektteams des Kunden ein Data Science Verfahren entwickelt und dem fachlichen Auftraggeber zur praktischen Erprobung übergeben. Die Ergebnisse aus dem Backtesting erfüllten dabei nicht nur die Anforderungen des fachlichen Auftraggebers, sondern übertrafen auch signifikant die Erwartungen des Kunden-Projektteams vom Zeitpunkt des Projekteinstiegs.
Ziel des Projekts war die Betreuung der Industrialisierung eines Vorhersagemodells zur Früherkennung von Provisionsbetrug. Zur operativen Nutzung sollten die Modellvorhersagen visuell aufbereitet und monatlich automatisiert aktualisiert werden. Damit die Modellvorhersagen plausibilisiert werden konnten, mussten sie erklärbar gemacht und das Cockpit um Kontextinformationen angereichert werden.
Unser Berater arbeitete verantwortlich im Projektteam des Kunden. Dabei entwickelte er die technischen Architekturen und setzte diese praktisch um.
Das Projekt umfasste die Phasen:
1. Statistische Validierung und Überarbeitung des Vorhersagemodells
2. Evaluation von Möglichkeiten zur Schaffung von Erklärbarkeit (Explainable AI)
3. Entwicklung des Datenmodells für das Cockpit
4. Entwicklung eines Power BI-Reports
5. Vervollständigung und Optimierung der ETL-Strecken hinsichtlich Performance und Speichernutzung
6. Definition und Umsetzung einer automatisierten Jobsteuerung
7. Definition und Umsetzung von Deploymentprozessen für Data Science Projekte beim Kunden allgemein.
Innerhalb von drei Monaten wurde ein Power BI-Report entwickelt, der eine reibungslose Nutzung des Vorhersagemodells im operativen Alltag ermöglicht und damit großen Mehrwert schafft. Dieser fand über den anwendenden Fachbereich hinaus große Anerkennung, sodass ähnliche Berichte für weitere Anwendungsfälle angefragt wurden. Zudem konnten erfolgreich die Strukturen und Prozesse zur Industrialisierung von Data Science Projekten entwickelt und erprobt werden. Diese sollen zukünftig für alle weiteren Data Science Projekte im Unternehmen genutzt werden.
Entwicklung und Betrieb einer europaweiten zentralen Datenintegrationsplattform (ETL) für Customer Relationship Daten eines führenden Automobilkonzerns.
Ein weltweit agierender Automobilkonzern aus dem Premiumsegment hatte ein Ticketingsystem im Einsatz, welches von praktisch allen Unternehmensbereichen genutzt wurde. An dieses Ticketingsystem war ein Reportingsystem angebunden, welches über zahlreiche Möglichkeiten den Führungskräften KPIs bereitstellte. Da das ETL des bisherigen Reportings von dessen Hersteller aus der Wartung genommen wurde, musste das System auf eine neue technologische Basis gestellt werden.
Die zentrale Zielstellung des Projektes war die Entwicklung eines Vorhersagemodells zur Früherkennung von Provisionsbetrug. Das zu entwickelnde Vorhersagemodell sollte dem Fachbereich Vertrieb ermöglichen, Fälle von potenziellem Provisionsbetrug (bzw. auch allgemein von Geschäftspartnern, die aufgrund ausstehender Rückzahlungen zu Rechtsfällen werden könnten) frühzeitig zu erkennen, um gezielte Überprüfungen und geeignete Gegenmaßnahmen einleiten zu können.
Das Zielmodell sollte dabei eine hohe praktische Nutzbarkeit sicherstellen:
1. Interpretierbarkeit durch den Fachbereich möglich
2. Treffergenauigkeit (geringe False-Negative-Rate, hohe Spezifität)
3. Vorhersage möglichst aller zukünftiger Rechtsfälle (hohe True-Positive-Rate, hohe Sensitivität).
Unser Berater arbeitete verantwortlich im Projektteam des Kunden. Dabei entwickelte er die technischen und mathematischen Architekturen und unterstützte deren praktische Umsetzung.
Das Projekte umfasste die folgenden Phasen (angelehnt an CRISP-DM):
1. Schaffung des Geschäftsverständnisses
2. Entwicklung und Aufbereitung der Datengrundlage
3. Unterstützung bei der Methodenauswahl und Modellierung
4. Implementierung und Deployment der gewählten mathematischen Modelle
5. Validierung und Backtesting
6. Dokumentation und Aufbereitung von Ergebnissen für den fachlichen Auftraggeber.
Innerhalb von sechs Monaten wurde ein Data Science Verfahren entwickelt und dem Top-Management des Kunden präsentiert. Die Ergebnisse übertrafen dabei alle Erwartungen, sodass ähnliche Ansätze unternehmensweit geplant wurden. Im Rahmen des Projekts wurden zahlreiche Data-Science-Prozesse entwickelt, erprobt und als Standard beim Kunden etabliert.
Ziel war die Zeitreihenanalysen von historischen Staatsanleihen-Renditen mit Hilfe neuer statistischer Methoden.
Ziel war die Analyse der Zusammenhänge von Abschlussergebnissen von Studierenden und der zum Studienstart vorliegenden zugehörigen Daten. Daraus sollten Hauptprädikatoren für den Studienerfolg abgeleitet werden.
Überprüfung, ob neue mathematische Ansätze geeignet sind um systemische Risiken auf Finanzmärkten zu messen.
Leitung eines praxisorientierten Master-Seminars zur Anwendung fortgeschrittener statistischer Analysemethoden für Finanzmärkte.
Masterarbeit: Gängige Kreditrisikomodelle sollten auf der Ebene von öffentlich zugänglichen Ratingdaten unter Berücksichtigung von statistischen Unsicherheiten in der Parametrisierung empirisch validiert werden.
Finanzwirtschaft
Nebenfach: Informatik
Versicherungen, Banken, Industrie, Automobil, Forschung
Technischer und fachlicher Support für produktive Data-Science-Use-Cases und Migration mehrerer SQL- und Linux-Server des Data-Science-Teams.
Ergebnis: Sicherung des uneingeschränkten operativen Betriebs aller produktiven Data-Science-Use-Cases und erfolgreiche Migrationen.
Für den Bestellprozess beim Kunden sollen Bestellungen, welche als Mail-Text oder PDF eingehen, automatisiert ausgelesen werden.
Ziel des Projektes ist, einen Prototypen zu entwickeln, der diesen Prozessschritt vollständig zu automatisiert, inklusive der Übergabe der Eingangsdateien an die Softwarelösung und der Weitergabe der Auftragsdaten an das nachfolgende Softwaremodul.
Ziel des Projektes war die Weiterentwicklung eines frei verfügbaren XAI-Demonstrators zur Nutzung im Vertrieb der alphaQuest GmbH. Zu diesem Zweck musste die Funktionsweise des verfügbaren Entwicklungsstandes verstanden, dessen vorhandene Schwächen identifiziert, die Anforderungen für den Einsatz im Vertrieb der alphaQuest GmbH abgeleitet und technische Lösungsansätze entwickelt und evaluiert werden. Schließlich sollten Verbesserungen implementiert, evaluiert und deployt werden.
XAI beschreibt Methoden, mit denen KI-Lösungen erklärbar und nachvollziehbar gemacht werden können (Explainable Artificial Intelligence).
Ein bestehender Optimierer für das Projektportfolio liefert keine optimalen Ergebnisse.
Ergebnis: Fehler in der Datenverarbeitung wurde identifiziert und behoben. Der Algorithmus liefert nun optimale Lösungen.
Wegen des überraschenden Ausscheidens der Mitarbeiter des Data Science Teams des Kunden mussten unter Zeitdruck zahlreiche Übergaben erfolgen und eine Dokumentation aller Aufgaben, Data Science Entwicklungen und Data Science Prozesse zum Einlernen neuer Mitarbeiter angelegt werden. Zusätzlich musste die fachliche Betreuung und der technische Support für bereits produktiv eingesetzte Data Sciene Use Cases sichergestellt werden. Schließlich wurde noch ein begonnenes Entwicklungsprojekt zur KI-basierten Erfassung von Informationen aus eingescannten Vertragsunterlagen abgeschlossen.
Unser Berater leitete ein Projektteam beim Kunden an. Dabei identifizierte und priorisierte er erforderliche Aufgaben im Rahmen der Übergaben. Zu diesem Zweck wurde ein agiles Vorgehensmodell eingesetzt. Er entwickelte zudem technische Architekturen und unterstützte deren praktische Umsetzung. Übergaben wurden im Rahmen von Interviews und gemeinsamer Bearbeitung von Wartungs- und Entwicklungsaufgaben durchgeführt und die Ergebnisse in Atlassian Confluence dokumentiert. Auf diesem Wege wurden auch zukünftig dringend anstehende Aufgaben (konkret: Server-Migrationen) identifiziert und deren Umsetzung vorbereitet.
Für das begonnene Entwicklungsprojekt wurden Neuronale Netze trainiert, sodass die relevanten Seiten innerhalb der gescannten Dokumente sowie die darauf enthaltenen Informationen automatisiert ausgelesen werden konnten. Es wurde eine umfangreiche Dokumentation angelegt und ein Operations Konzept für die bereits produktiv eingesetzten Data Sciene Use Cases entwickelt und etabliert. Die bestehenden Datenbankserver und ETL-Strecken wurden auf anstehende Migrationen vorbereitet und die Migration testweise erfolgreich geprobt.
Informationen aus mehr als 100.000 gescannten Verträgen unterschiedlicher Formularvarianten konnten zuverlässig automatisiert ausgelesen werden. Der Kunde wünscht, die Zusammenarbeit in den Bereichen Support, Einarbeitung neuer Mitarbeiter und Entwicklung weiterer Data Science Use Cases in Zukunft fortzusetzen.
Entwicklung eines Modells und Reports zur kurzfristigen Umsatzprognose basierend auf Auftragseingängen mit stochastischen Unsicherheiten, Ergebnis: Hohe Prognosegüte im Backtesting. Das Modell ermöglicht dem Kunden, die Qualität etablierter Verfahren zu Umsatzprognosen kritisch zu hinterfragen.
Die zentrale Zielstellung des Projektes war die Entwicklung eines Vorhersagemodells, das den Fachbereich Vertrieb bei der Auswahl von zu fördernden Vertriebspartnern unterstützt und somit Umsatzpotentiale identifiziert.
Das Zielmodell sollte dabei eine hohe praktische Nutzbarkeit sicherstellen:
1. Identifikation mindestens eines vordefinierten Anteils von Potentialträgern (Erreichung einer vorgegebenen Recall-Rate)
2. Hohe Treffergenauigkeit (maximale Precision für vorgegebene Recall-Rate)
Zum Zeitpunkt des Projekteinstiegs waren kundenseitig bereits mehrere Monate Entwicklungszeit investiert worden, ohne dass die gewünschte Modellgüte erreicht werden konnte. Unser Berater arbeitete verantwortlich im Projektteam des Kunden. Dabei entwickelte er die technischen und mathematischen Architekturen und unterstützte deren praktische Umsetzung.
Es wurden folgende Prädiktions-Algorithmen verwendet: Linear Discriminant Analysis, Logistische Regression, XGBoost, Neuronales Netz
Das Projekte umfasste die folgenden Phasen (angelehnt an CRISP-DM):
1. Schaffung des Geschäfts- und Datenverständnisses
2. Überprüfung der Datengrundlage und der bisherigen mathematischen Modellierungsansätze
3. Korrekturen und Ergänzungen der Datengrundlage und der Modellierungsansätze
4. Implementierung und Deployment der gewählten mathematischen Modelle (Multi-Modell-Ansatz)
5. Validierung und Backtesting
6. Dokumentation und Bereitstellung von Ergebnissen (Power BI-Report) für den fachlichen Auftraggeber.
Innerhalb von zwei Monaten wurde aufbauend auf der Vorentwicklung des Projektteams des Kunden ein Data Science Verfahren entwickelt und dem fachlichen Auftraggeber zur praktischen Erprobung übergeben. Die Ergebnisse aus dem Backtesting erfüllten dabei nicht nur die Anforderungen des fachlichen Auftraggebers, sondern übertrafen auch signifikant die Erwartungen des Kunden-Projektteams vom Zeitpunkt des Projekteinstiegs.
Ziel des Projekts war die Betreuung der Industrialisierung eines Vorhersagemodells zur Früherkennung von Provisionsbetrug. Zur operativen Nutzung sollten die Modellvorhersagen visuell aufbereitet und monatlich automatisiert aktualisiert werden. Damit die Modellvorhersagen plausibilisiert werden konnten, mussten sie erklärbar gemacht und das Cockpit um Kontextinformationen angereichert werden.
Unser Berater arbeitete verantwortlich im Projektteam des Kunden. Dabei entwickelte er die technischen Architekturen und setzte diese praktisch um.
Das Projekt umfasste die Phasen:
1. Statistische Validierung und Überarbeitung des Vorhersagemodells
2. Evaluation von Möglichkeiten zur Schaffung von Erklärbarkeit (Explainable AI)
3. Entwicklung des Datenmodells für das Cockpit
4. Entwicklung eines Power BI-Reports
5. Vervollständigung und Optimierung der ETL-Strecken hinsichtlich Performance und Speichernutzung
6. Definition und Umsetzung einer automatisierten Jobsteuerung
7. Definition und Umsetzung von Deploymentprozessen für Data Science Projekte beim Kunden allgemein.
Innerhalb von drei Monaten wurde ein Power BI-Report entwickelt, der eine reibungslose Nutzung des Vorhersagemodells im operativen Alltag ermöglicht und damit großen Mehrwert schafft. Dieser fand über den anwendenden Fachbereich hinaus große Anerkennung, sodass ähnliche Berichte für weitere Anwendungsfälle angefragt wurden. Zudem konnten erfolgreich die Strukturen und Prozesse zur Industrialisierung von Data Science Projekten entwickelt und erprobt werden. Diese sollen zukünftig für alle weiteren Data Science Projekte im Unternehmen genutzt werden.
Entwicklung und Betrieb einer europaweiten zentralen Datenintegrationsplattform (ETL) für Customer Relationship Daten eines führenden Automobilkonzerns.
Ein weltweit agierender Automobilkonzern aus dem Premiumsegment hatte ein Ticketingsystem im Einsatz, welches von praktisch allen Unternehmensbereichen genutzt wurde. An dieses Ticketingsystem war ein Reportingsystem angebunden, welches über zahlreiche Möglichkeiten den Führungskräften KPIs bereitstellte. Da das ETL des bisherigen Reportings von dessen Hersteller aus der Wartung genommen wurde, musste das System auf eine neue technologische Basis gestellt werden.
Die zentrale Zielstellung des Projektes war die Entwicklung eines Vorhersagemodells zur Früherkennung von Provisionsbetrug. Das zu entwickelnde Vorhersagemodell sollte dem Fachbereich Vertrieb ermöglichen, Fälle von potenziellem Provisionsbetrug (bzw. auch allgemein von Geschäftspartnern, die aufgrund ausstehender Rückzahlungen zu Rechtsfällen werden könnten) frühzeitig zu erkennen, um gezielte Überprüfungen und geeignete Gegenmaßnahmen einleiten zu können.
Das Zielmodell sollte dabei eine hohe praktische Nutzbarkeit sicherstellen:
1. Interpretierbarkeit durch den Fachbereich möglich
2. Treffergenauigkeit (geringe False-Negative-Rate, hohe Spezifität)
3. Vorhersage möglichst aller zukünftiger Rechtsfälle (hohe True-Positive-Rate, hohe Sensitivität).
Unser Berater arbeitete verantwortlich im Projektteam des Kunden. Dabei entwickelte er die technischen und mathematischen Architekturen und unterstützte deren praktische Umsetzung.
Das Projekte umfasste die folgenden Phasen (angelehnt an CRISP-DM):
1. Schaffung des Geschäftsverständnisses
2. Entwicklung und Aufbereitung der Datengrundlage
3. Unterstützung bei der Methodenauswahl und Modellierung
4. Implementierung und Deployment der gewählten mathematischen Modelle
5. Validierung und Backtesting
6. Dokumentation und Aufbereitung von Ergebnissen für den fachlichen Auftraggeber.
Innerhalb von sechs Monaten wurde ein Data Science Verfahren entwickelt und dem Top-Management des Kunden präsentiert. Die Ergebnisse übertrafen dabei alle Erwartungen, sodass ähnliche Ansätze unternehmensweit geplant wurden. Im Rahmen des Projekts wurden zahlreiche Data-Science-Prozesse entwickelt, erprobt und als Standard beim Kunden etabliert.
Ziel war die Zeitreihenanalysen von historischen Staatsanleihen-Renditen mit Hilfe neuer statistischer Methoden.
Ziel war die Analyse der Zusammenhänge von Abschlussergebnissen von Studierenden und der zum Studienstart vorliegenden zugehörigen Daten. Daraus sollten Hauptprädikatoren für den Studienerfolg abgeleitet werden.
Überprüfung, ob neue mathematische Ansätze geeignet sind um systemische Risiken auf Finanzmärkten zu messen.
Leitung eines praxisorientierten Master-Seminars zur Anwendung fortgeschrittener statistischer Analysemethoden für Finanzmärkte.
Masterarbeit: Gängige Kreditrisikomodelle sollten auf der Ebene von öffentlich zugänglichen Ratingdaten unter Berücksichtigung von statistischen Unsicherheiten in der Parametrisierung empirisch validiert werden.
Finanzwirtschaft
Nebenfach: Informatik
Versicherungen, Banken, Industrie, Automobil, Forschung