Consultant, Administrator
Für zentrale Prozesse beim Kunden müssen eingehende Rechnungen auf bestimmte Kriterien hin überprüft werden. Diese Überprüfung erfolgt momentan manuell anhand von Checklisten für jede einzelne Rechnung. Ziel des Projektes ist, diesen Prozessschritt vollständig zu automatisieren, inklusive der Übergabe der Rechnungen an die Softwarelösung und der Weitergabe der Informationen an das nachfolgende Softwaremodul.
Die technische Lösung basiert dabei auf einem mehrstufigen Verfahren. Mit Hilfe von OCR werden alle Rechnungen textuell auswertbar gemacht. Basierend auf den Bilddateien der Rechnungen sowie dem daraus extrahierten Text werden pro Kriterium Features generiert. Diese Features fungieren dann als Inputdaten für KI-Methoden, welche die jeweilige Kriterienerfüllung vorhersagen. Die somit vollautomatisch ausgefüllte Checkliste wird im Anschluss elektronisch direkt an das nachfolgende Softwaremodul weitergesendet.
Das Backendsystem des Kunden hat eine sehr komplexe Datenstruktur, die ungeeignet ist, um Auswertungen vorzunehmen. Eine Analyse-Datenbank besteht nur punktuell. Ziel des Projektes ist daher, Datenstrukturen zu erstellen, damit die Daten in strukturierter Form mit hoher Datenqualität vorliegen, um sie für statistische Analysen verwenden zu können. Neben der komplexen Datenstruktur gibt es die weitere Herausforderung, dass die Datenstrukturen plattformunabhängig funktionstüchtig sein müssen.
Unser Entwickler schreibt komplexe SQL-Abfragen und gestaltet diese so modular wie möglich, um Synergien zwischen den Strukturanforderungen nutzen zu können. Um die Anforderung der Plattformunabhängigkeit zu wahren, werden die Statements in ANSI-SQL verfasst. Da eine Spalte des Backendsystems tausende von unterschiedlichen Daten-Klassen beinhalten kann, ist viel Kommunikation mit den Wissensträgern des Laborinformationssystems (LIMS) nötig, um die fachliche Korrektheit der Daten zu wahren.
Die von einem alphaQuest Kollegen entwickelten monatlichen bzw. quartalsweisen Prognosen von Rechtsfällen und Maklerpotentialen in einem großen Versicherungskonzern werden während der Betriebsphase weiter unterstützt. Zudem wurde die Dokumentation der beiden Projekte nachgeholt.
Datenbeladungen werden durchgeführt Power BI-Berichte werden zur Verfügung gestellt Bei fehlenden bzw. unplausiblen Daten werden ETL-Strecken und Modellierung angepasst
Der Konzern benötigt eine zentrale Anlaufstelle für die Auswertung von Daten, die in verschiedenen Quellsystemen erfasst werden. Die Aufgabe besteht darin, die Daten aus verschiedensten Quellsystemen zusammenzuführen und in einem DWH zu harmonisieren. Auf dieser geschaffenen Datenbasis sollen neue Kennzahlen berechnet und anschaulich mit Power BI visualisiert werden.
Hierfür wurde ein DWH mit Historisierung konzipiert, in dem die verschiedenen Datenquellen zusammengefügt und aufbereitet wurden. Zur Erstellung und Darstellung der Berichte wird Power BI-Service mit einem strikten Rollenkonzept inkl. Rechteverteilung genutzt.
Die Daten sind im DWH zusammengeführt und die gewünschten Berichte werden über Power BI-Service zur Verfügung gestellt. Schulungen für die Nutzung von Power BI-Desktop für zukünftiges Self-Service-BI sind angedacht.
Für einen großen Kunden aus dem Gesundheitssektor sollte ein Data Warehouse System eingerichtet werden, das Daten aus diversen Datenquellen (Informationssystemen) integriert und zentral zwecks Lösung fachlicher Fragestellungen bereitstellt. Das DWH sollte in mehrere logische Schichten unterteilt sein: Staging Area, Core-DWH, Data Mart. Außerdem sollte eine Repository-Software mit einem Remote-Zugriff entwickelt werden.
Es wurde das DWH erschaffen, womit konsistentes Reporting auf Grundlage der tagesaktuellen Datenbasis ermöglicht wurde. Hierbei wurde Skalierbarkeit und Beschleunigung sowie eine bessere Steuerung des Betriebes von medizinischen Einrichtungen erreicht. Außerdem wurde das Wissen an das interne IT-Team des Auftraggebers im Zuge des Auftrags und mithilfe von Workshops übertragen. Der Kunde ist daher in der Lage, u.a. das DWH eigenständig zu betreiben, zu warten, darin Daten zu ändern und zu aktualisieren, bestehende Prozeduren zu erweitern und Kennzahlenbäume zu implementieren.
Die eingescannten Antragsformulare eines großen Versicherungskonzerns werden digitalisiert. Dabei werden Herausforderungen gemeistert wie die Auswahl des richtigen Dokuments aus einer Vielzahl von Vertragsdokumenten, das Klassifizieren von sehr verschiedenen Antragsformularversionen, sowie das Klassifizieren der händischen Antworten der Antragsteller.
Bildklassifizierung mit neuronalen Netzen
Die Modelle können mit nahezu 100-prozentiger Wahrscheinlichkeit Formulare und Antworten erkennen. Somit wird die Datenbasis des Kunden fortwährend um bisher nicht auswertbare Informationen erweitert.
Das Land Sachsen-Anhalt erhebt und speichert erhebliche Mengen an Daten, die im ISA-Data Warehouse nutzbar gemacht werden. Gestaffelt nach den Adressaten Bürger, Abgeordnete sowie Ressorts wurde eine einheitliche ISA-Online-Plattform bereitgestellt, über die sich Berichte zu den Bereichen Haushalt (inkl. Länder-Vergleich) und Personal abrufen lassen.
Für das System wurde der fortlaufende Betrieb sichergestellt, wobei die Dateninhalte regelmäßig aktualisiert (Ladeläufe) und die Datenstrukturen an geänderte Rahmenbedingungen (z.B. Haushaltsgesetze) angepasst wurden.
Ziel des PoC: Workflow in Power Automate erstellen, der Rechnungsinformationen automatisiert aus PDF-Dateien ausliest und in das interne ERP-System schreibt.
Ergebnis des PoC: technische Möglichkeiten und Herausforderungen dargestellt
Bestehende Basis-Flows sollten verbessert und um komplexe Funktionen erweitert werden. Ziel war es, dass Dokumente, die per E-Mail beim Kunden ankommen, mit Power Automate automatisiert verarbeitet werden. Die Dokumente sollten archiviert und in deren Inhalte in die entsprechenden Kundensysteme geleitet werden.
Die Projektplanung des Kunden sollte automatisiert werden, da durch die Vielzahl an zu planenden Projekten bei begrenzten Kapazitäten die Projektplanung nicht mehr manuell optimiert werden konnte.
Es wurde ein Optimierungstool in MatLab geschrieben, welches die eingeplanten Projekte und deren Startzeitpunkte unter vorgegebenen Nebenbedingungen optimiert. Zudem gibt der Algorithmus bei Nichteinplanung den exakten Grund für das Ausschließen mit aus. Anschließend wurde das Tool in die bestehende Kundenlösung integriert.
Bei Aktualisierung der Projektdaten verbessert das Optimierungstool die Projektplanung und gibt projektspezifisch die eventuellen Ablehnungsgründe an. Damit kann das Controlling auf individueller Basis mit den Fachbereichen verhandeln und erhält direkt ein Feedback über Auswirkungen bei Projektänderungen.
Mit Hilfe der auf Kaggle zugänglichen Wettbewerbe können Data Science Prozesse und Methoden an spezifischen Case Settings trainiert werden. Der Modus als Wettbewerb ermöglicht es, die eigenen Fähigkeiten durch den Vergleich mit den Konkurrenten einschätzen zu können. Ebenso nützlich ist der Umstand, dass viele User ihr Vorgehen veröffentlichen und die Community so voneinander lernen kann, indem sowohl technische Methoden als auch generelle Denkansätze ausgetauscht und kritisch diskutiert werden.
Unser Berater verfolgt dabei den folgenden Ansatz: Auf eine mehrstufige Datenvorbereitung inkl. Feature Engineering in SQL Server mit Visualisierungen in Python folgte die anschließende Modellierung sowie Evaluierung in Python. Nach Abschluss des ersten Cycle setzt er sich mit den Methoden der Konkurrenten auseinander, ermittelt Verbesserungspotentiale im eigenen Vorgehen und implementiert diese im eigenen Code. Somit kann unser Berater seine Data Science Kompetenzen ganzheitlich ausbauen.
Aus dem hoch komplexen Datenmodell eines Legacy-ERP sollten tägliche Ladeläufe in eine Analytics-Lösung erstellt werden. Dabei sollten höchste Performanceanforderungen vollständig in SQL Server 2016 umgesetzt werden. Als leitender Tester hat der Berater dem Team ermöglicht, dieses Ziel zu erreichen.
Aus einer heterogenen Sharepoint-Landschaft sollte in der Cloud ein zentrales Dokumenten-Repository inklusive Auswertung erstellt werden. Dieses Repository sollte täglich und ad hoc bereit stehen.
Aufgabe des Projekts war der 2nd Level Support eines digitalen Shopfloorboards mit automatisierter Anbindung an Datenquellsysteme und ein Data Warehouse aus der Produktion. Hierbei entsteht eine effiziente, standardisierte und transparente Datenverfügbarkeit zu jedem Zeitpunkt und bildet somit eine Basis für eine präzise und wirksame Fabriksteuerung. Das digitale Shopfloorboard ist der erste Schritt zu einer vernetzten Steuerungsplattform. Das digitale Shopfloormanagement gewährleistet die einwandfreie Funktion der Plattform.
Der 2nd Level Support erhält über ein eigenes Ticketsystem Störungsmeldungen aus der Produktionssteuerung. Die Tickets werden direkt bearbeitet oder an die entsprechenden Experten weitergeleitet. Der Weg zur Lösung der Störung wird hierbei ausführlich dokumentiert. Das digitale Shopfloormanagement ist außerdem die direkte Schnittstelle zum Kunden und kommuniziert mit den Kunden alle Schritte zur Problembehebung. Die Anbindung zu den Datenquellsystemen und des Data Warehouses der Produktion wird über Microsoft SQL Server hergestellt. Die Kennzahlen werden hier aufbereitet und der Fabriksteuerung im Shopfloorboard zur Verfügung gestellt. Der 2nd Level Support überwacht diese Datenschnittstelle und führt ggf. entsprechende SQL-Befehle aus, um die Datenbeladung anzustoßen, fehlende Daten nachzuladen oder Datenrecherchen zur Störungsbehebung durchzuführen.
Die korrekte Ausgabe von Daten und Kennzahlen im digitalen Shopfloorboard und somit eine störungsfreie digitale Produktionssteuerung. Durch die nahtlose Abdeckung der Servicezeiten werden Störungen unverzüglich bearbeitet und gelöst. Die korrekte Datenbeladung in das digitale Shopfloorboard über die Microsoft SQL Server-Schnittstelle.
Masterarbeit mit Machine Learning als Methodik. Dabei wurden die folgenden Konzepte verwendet:
Text Klassifikation, Topic Detection/Clustering, Social Media-Analyse, Zeitreihenanalyse, Data Scraping, Data Wrangling, Deskriptive Analysen, Netzwerkanalysen, Modellierung, Modellvalidierung, Visualisierung, Handlungsempfehlungen.
Folgende Themen wurden analysiert: Nutzergruppen und Nutzerverhalten, von der Webseite behandelte Integrationselemente, Entwicklungen über die Zeit, Verbesserungspotentiale auf mehreren Ebenen.
Programmierung eines AR App Prototypen in Unity für Speisekarten mit anschließender Studie über Usability Vergleich mit analogen Speisekarten.
Ergebnis: Verwendung der AR App wurde als bequemer empfunden und Probanden fanden sich besser über die Gerichte informiert.
Ergebnis: Präferenzen ähnlicher Nutzer ergeben bessere Vorhersagen als Ähnlichkeiten zwischen den Restaurants
Aufgaben: Budgetierung, Datenanalysen, Standard und Ad-hoc Reporting, Schulungen zu MicroStrategy halten.
Informatik & Economics
Unternehmensführung und Controlling
Data Science; Machine Learning (ML); DWH-Architektur und Datenmodellierung (Datawarehouse); Data Engineering mit Big Data / Databricks, Apache Spark / Azure Synapse;
Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.