Beratung und Entwicklung einer hybriden Big Data Plattform im Bereich Medizingeräteherstellung, mit Fokus auf die Verarbeitung, Validierung und Analyse großer Datenmengen. Dies umfasst die Integration heterogener Datenquellen, die Sicherstellung der Datenqualität durch Validierungsmechanismen, die Entwicklung skalierbarer Pipelines für Datenaggregation und -transformation zur Unterstützung datengetriebener Entscheidungen.
Aufgaben:
Beratung, Anforderungsanalyse, Architektur, Konzeptionierung, Implementierung
Konzeption, Beratung und Umsetzung einer On-Premise Data Warehouse Lösung für einen Kunden aus dem Industriesektor. Der Fokus liegt auf der Integration unterschiedlicher operativer Datenquellen, der Sicherstellung der Datenqualität sowie dem Aufbau robuster ETL-Prozesse. Ziel ist die zentrale Bereitstellung vertrauenswürdiger Daten zur Unterstützung von Reporting- und Analyseanforderungen. Die Lösung zeichnet sich durch hohe Performanz, Skalierbarkeit und Erweiterbarkeit im Rahmen der bestehenden IT-Landschaft aus.
Aufgaben:
Beratung, Anforderungsanalyse, Architektur, Konzeptionierung, Implementierung
Konzeption und Implementierung einer Self-Service-Data Lösung als Erweiterung einer bestehenden Cloud Data Plattform zur Förderung datengetriebener Entscheidungsfindung durch Fachbereiche. Ziel war es, technisch versierte Mitarbeiter in die Lage zu versetzen, eigenständig auf Datenbestände zuzugreifen, diese zu modellieren und für sich und andere bereitzustellen ? innerhalb klar definierter Governance-Rahmenbedingungen. Im Fokus standen dabei Benutzerfreundlichkeit, Wiederverwendbarkeit und die nahtlose Integration in bestehende Data-Warehouse- (Raw-, Access-, Mart-, Analytics-Layer) und BI-Strukturen.
Aufgaben:
Anforderungsanalyse, Entwicklung, Erstellung von Self-Service Guidelines und Best Practices
Einführung moderner DevOps-Prinzipien in den Power BI Lifecycle mit dem Ziel reproduzierbarer und wartbaren BI-Prozesse. Durch Nutzung des neuen JSON-Dateiformats für Reports wurde ein vollständig versionierbarer Workflow in Git etabliert. Kern des Projekts war eine Azure DevOps Pipeline, die sowohl das automatische Deployment als auch die Qualitätssicherung über ein Qualitygate für Pull Requests realisierte. Ergänzt wurde dieser Ablauf durch ein innovatives Dokumentationsmodul: Mit Hilfe der OpenAI API wurden die strukturierten Inhalte der Reports in natürlichsprachliche Dokumentationen ohne manuelle Nachbearbeitung überführt. Die technische Neuheit und der potenzielle Einfluss auf bestehende Arbeitsweisen unterschiedlicher (nicht technischer) Teams erforderten eine besonders vorausschauende Umsetzung.
Aufgaben:
Anforderungsanalyse, Entwicklung
Für eine effiziente Verarbeitung und Analyse von Log-Daten wurde Graylog als zentrale Plattform eingeführt. Das System ermöglicht die Aggregation, Indexierung und Visualisierung von Log-Daten aus unterschiedlichen Quellen. Im Laufe des Projekts führte die steigende Anzahl an Nutzern zu erhöhten Anforderungen an die Plattform, sodass das System auf leistungsfähigere Hardware migriert wurde, um eine zukunftssichere Skalierung zu gewährleisten. Zur besseren Übersichtlichkeit wurden Dashboards basierend auf spezifischen Use Cases erstellt, um Applikations-Logs gezielt auszuwerten. Zudem wurde ein rollenbasiertes Rechtekonzept eingeführt, um den Zugriff für verschiedene Nutzergruppen zu steuern. Ergänzend dazu wurde ein Alerting-System eingerichtet, das Warnmeldungen bei kritischen Ereignissen automatisiert per E-Mail und Microsoft Teams versendet. Neben der technischen Umsetzung wurde ein Onboarding-Prozess entwickelt, um neue Teams in die Nutzung der Plattform einzuführen.
Aufgaben:
Evaluierung von Cloud-Alternativen für die Datenhaltung und -aufbereitung von Trainingsdaten für ML-Zwecke. Einrichtung von ETL-Pipelines für Upload und Transformationen von Stamm- und Bilddaten. Training von KI-Modellen und Bereitstellung als Docker Container. Einsatz von MLFlow für das Verwalten von Machine-Learning Projekten.
Aufgaben:
Anforderungsanalyse, Datenaufbereitung, Entwicklung
Implementierung einer Large Language Model (LLM) Applikation basierend auf der Datenbasis der One Data Plattform. Es werden verschiedene Promptstrategien für die Abfrage von unterschiedlichen Snowflake Views erprobt, die mit verschiedenen Templates und Flows umgesetzt werden. Zur Evaluierung der Ergebnisse werden Metriken definiert und berechnet.
Aufgaben:
Anforderungsanalyse, Entwicklung
Implementierung einer Datenplattform mit einem generischen Datenmodell, das bei dem Import der Daten aus den verschiedenen Quellen zu Validierung dient. Unterschiedliche Daten-Quellen werden zusammengeführt und als Views in Snowflake bereitgestellt, worüber auch die Zugriffskontrolle geregelt wird.
Aufgaben:
Anforderungsanalyse, Entwicklung, Monitoring
Bewertung von Sensordaten zur Bewertung eines Maschinenzustandes für prädiktive Wartung mittels deskriptiver Analyse und eines ausgewählten Algorithmus (Random Forest).
Aufgaben:
Preprocessing, Visualisierung
Untersuchung des Zusammenhangs von Klickstream-Daten aus einem Lern-Managementsystem und Abschlussnoten der Nutzer mithilfe eines Zeitreihen-Cluster-Algorithmus und statistischen Methoden.
Beratung und Entwicklung einer hybriden Big Data Plattform im Bereich Medizingeräteherstellung, mit Fokus auf die Verarbeitung, Validierung und Analyse großer Datenmengen. Dies umfasst die Integration heterogener Datenquellen, die Sicherstellung der Datenqualität durch Validierungsmechanismen, die Entwicklung skalierbarer Pipelines für Datenaggregation und -transformation zur Unterstützung datengetriebener Entscheidungen.
Aufgaben:
Beratung, Anforderungsanalyse, Architektur, Konzeptionierung, Implementierung
Konzeption, Beratung und Umsetzung einer On-Premise Data Warehouse Lösung für einen Kunden aus dem Industriesektor. Der Fokus liegt auf der Integration unterschiedlicher operativer Datenquellen, der Sicherstellung der Datenqualität sowie dem Aufbau robuster ETL-Prozesse. Ziel ist die zentrale Bereitstellung vertrauenswürdiger Daten zur Unterstützung von Reporting- und Analyseanforderungen. Die Lösung zeichnet sich durch hohe Performanz, Skalierbarkeit und Erweiterbarkeit im Rahmen der bestehenden IT-Landschaft aus.
Aufgaben:
Beratung, Anforderungsanalyse, Architektur, Konzeptionierung, Implementierung
Konzeption und Implementierung einer Self-Service-Data Lösung als Erweiterung einer bestehenden Cloud Data Plattform zur Förderung datengetriebener Entscheidungsfindung durch Fachbereiche. Ziel war es, technisch versierte Mitarbeiter in die Lage zu versetzen, eigenständig auf Datenbestände zuzugreifen, diese zu modellieren und für sich und andere bereitzustellen ? innerhalb klar definierter Governance-Rahmenbedingungen. Im Fokus standen dabei Benutzerfreundlichkeit, Wiederverwendbarkeit und die nahtlose Integration in bestehende Data-Warehouse- (Raw-, Access-, Mart-, Analytics-Layer) und BI-Strukturen.
Aufgaben:
Anforderungsanalyse, Entwicklung, Erstellung von Self-Service Guidelines und Best Practices
Einführung moderner DevOps-Prinzipien in den Power BI Lifecycle mit dem Ziel reproduzierbarer und wartbaren BI-Prozesse. Durch Nutzung des neuen JSON-Dateiformats für Reports wurde ein vollständig versionierbarer Workflow in Git etabliert. Kern des Projekts war eine Azure DevOps Pipeline, die sowohl das automatische Deployment als auch die Qualitätssicherung über ein Qualitygate für Pull Requests realisierte. Ergänzt wurde dieser Ablauf durch ein innovatives Dokumentationsmodul: Mit Hilfe der OpenAI API wurden die strukturierten Inhalte der Reports in natürlichsprachliche Dokumentationen ohne manuelle Nachbearbeitung überführt. Die technische Neuheit und der potenzielle Einfluss auf bestehende Arbeitsweisen unterschiedlicher (nicht technischer) Teams erforderten eine besonders vorausschauende Umsetzung.
Aufgaben:
Anforderungsanalyse, Entwicklung
Für eine effiziente Verarbeitung und Analyse von Log-Daten wurde Graylog als zentrale Plattform eingeführt. Das System ermöglicht die Aggregation, Indexierung und Visualisierung von Log-Daten aus unterschiedlichen Quellen. Im Laufe des Projekts führte die steigende Anzahl an Nutzern zu erhöhten Anforderungen an die Plattform, sodass das System auf leistungsfähigere Hardware migriert wurde, um eine zukunftssichere Skalierung zu gewährleisten. Zur besseren Übersichtlichkeit wurden Dashboards basierend auf spezifischen Use Cases erstellt, um Applikations-Logs gezielt auszuwerten. Zudem wurde ein rollenbasiertes Rechtekonzept eingeführt, um den Zugriff für verschiedene Nutzergruppen zu steuern. Ergänzend dazu wurde ein Alerting-System eingerichtet, das Warnmeldungen bei kritischen Ereignissen automatisiert per E-Mail und Microsoft Teams versendet. Neben der technischen Umsetzung wurde ein Onboarding-Prozess entwickelt, um neue Teams in die Nutzung der Plattform einzuführen.
Aufgaben:
Evaluierung von Cloud-Alternativen für die Datenhaltung und -aufbereitung von Trainingsdaten für ML-Zwecke. Einrichtung von ETL-Pipelines für Upload und Transformationen von Stamm- und Bilddaten. Training von KI-Modellen und Bereitstellung als Docker Container. Einsatz von MLFlow für das Verwalten von Machine-Learning Projekten.
Aufgaben:
Anforderungsanalyse, Datenaufbereitung, Entwicklung
Implementierung einer Large Language Model (LLM) Applikation basierend auf der Datenbasis der One Data Plattform. Es werden verschiedene Promptstrategien für die Abfrage von unterschiedlichen Snowflake Views erprobt, die mit verschiedenen Templates und Flows umgesetzt werden. Zur Evaluierung der Ergebnisse werden Metriken definiert und berechnet.
Aufgaben:
Anforderungsanalyse, Entwicklung
Implementierung einer Datenplattform mit einem generischen Datenmodell, das bei dem Import der Daten aus den verschiedenen Quellen zu Validierung dient. Unterschiedliche Daten-Quellen werden zusammengeführt und als Views in Snowflake bereitgestellt, worüber auch die Zugriffskontrolle geregelt wird.
Aufgaben:
Anforderungsanalyse, Entwicklung, Monitoring
Bewertung von Sensordaten zur Bewertung eines Maschinenzustandes für prädiktive Wartung mittels deskriptiver Analyse und eines ausgewählten Algorithmus (Random Forest).
Aufgaben:
Preprocessing, Visualisierung
Untersuchung des Zusammenhangs von Klickstream-Daten aus einem Lern-Managementsystem und Abschlussnoten der Nutzer mithilfe eines Zeitreihen-Cluster-Algorithmus und statistischen Methoden.