Aufbau einer leistungsfähigen, skalierbaren und flexiblen Infrastruktur zur Echtzeit-Vernetzung verschiedener Fertigungswerke und angeschlossener Industrieanlagen über MQTT, inklusive zuverlässiger Datenaufnahme, -speicherung, Visualisierung und Verwaltung.
? Vernetzung von Fertigungsanlagen und Industriekomponenten
über MQTT zur Erfassung hochfrequenter Live-Daten.
? Auswahl, Anpassung und Betrieb eines geeigneten MQTT-Brokers.
? Erweiterung des Brokers um einem User die Nutzung mehrere Client-IDs zu
ermöglichen.
? Entwurf und Implementierung der Architektur für das MQTT-Live-Datenformat
sowie der Topic-Strukturen zur semantisch konsistenten Datenorganisation.
? Aufbau einer hybriden Dateninfrastruktur mit spezialisierten TimeSeries- und
NoSQL-Datenbanken (TimescaleDB, InfluxDB, MongoDB) inklusive optimierter
Datenmodellierung für geschachtelte Daten.
? Entwicklung von High-Performance-Insert-Anwendungen für MQTT-Daten in
TimescaleDB und Producer-Komponenten zur Ableitung von Produktionsdaten aus
Dateien.
? Entwickeln von Producer-Komponenten zur Ableitung von Produktionsdaten aus Log-Dateien.
? Automatisierte Bereinigung redundanter Nachrichten in TimescaleDB mittels
Stored Procedures auf Basis von Hashvergleichen.
? Implementierung von User- und Rechteverwaltung für TimescaleDB.
? Visualisierung von Maschinen- und Systemzuständen über Grafana mit
SSO-Integration.
? Logging-Infrastruktur für Docker Swarm und Kubernetes mit Graylog sowie
FluentBit mit Custom-Regeln zur Reduktion redundanter Log-Einträge.
? Deployment-Automatisierung über Administrationsskripte für Docker Swarm;
späterer Umzug und Betrieb auf Tanzu Kubernetes.
? Testautomatisierung: Deployment-Tests mit C#, Systemverifikation mittels
Pytest.
? Betrieb begleitender Anwendungen zur Live-Darstellung der Maschinenzustände.
Aufgaben
? Anforderungsanalyse zur Definition von Datenformaten,
Performance-Zielen und Betriebsanforderungen.
? Architekturkonzeption für die End-to-End-MQTT-Datenpipeline inklusive
Topic-Design und Datenmodellierung.
? Auswahl, Anpassung und Betrieb des MQTT-Brokers.
? Entwicklung von Producer-Komponenten zur Generierung und Einspeisung von
Produktionsdaten.
? Erstellung und Optimierung von Insert-Skripten für TimescaleDB zur
Hochdurchsatz-Verarbeitung von MQTT Daten.
? Implementierung von Mechanismen zur deduplizierten Datenhaltung in
TimescaleDB (Hash-basierte Bereinigung).
? Aufbrechen geschachtelter Daten in relationale Strukturen und Gestaltung der
zugrundeliegenden TimescaleDB-Architektur.
? Einführung und Pflege von Usermanagement in TimescaleDB sowie SSO für
Grafana.
? Aufbau der Observability-Schicht: Logging mit Graylog, Filterlogik in
FluentBit, Metriken und Dashboards in Grafana.
? Automatisierung des Deployments via Skripte für Docker Swarm und später
Migration / Betrieb auf Tanzu Kubernetes.
? Testentwicklung (C# für Deployment-Tests, Pytest für Systemverifikation).
? Betrieb und kontinuierliche Verbesserung der Live-Visualisierungsanwendungen
für Maschinenzustände.
Aufbau einer skalierbaren, sicheren und zukunftsfähigen Plattform zur Verwaltung, Aufbereitung und Bereitstellung von Trainingsdaten und KI-Modellen, die sowohl in der Cloud (Azure) als auch On-Premise in lokalen Anlagenrechenzentren betrieben werden kann. Die Plattform soll automatisierte Workflows, Nutzerverwaltung, optimierten Datentransfer und einfache Test-/Endpoint-Bereitstellung unterstützen.
Aufgaben
Radardaten sollten, unter Einsatz der AWS-Cloud mit PySpark, in Relation zu Geo-Koordinaten gesetzt und anschließend auf Muster mit KI-Methoden untersucht werden. Die eingesetzten AWS-Services wurde als Code in Kombination mit einer GitHub CI/CD Pipeline getestet und orchestriert.
Aufgaben:
Architektur, Konzeptionierung, Implementierung
Analyse von Produktreviews mit Hilfe großer Sprachmodelle (LLMs), Extraktion relevanter Kategorien und Darstellung der Ergebnisse zur Unterstützung von Marktforschungsentscheidungen.
Aufgaben:
Ein primär im Projektgeschäft tätiger Kunde wünschte für seine zukünftige Staffing-Planung ein KI-gestütztes Optimierungssystem, ohne der Verwendung von Machine-Learning. Um dieser Anforderung gerecht zu werden, wurde ein heuristik basiertes System unter Einsatz von evolutorischen Schwarm-Algorithmen entwickelt und detailliert an die Anforderungen des Kunden angepasst.
Aufgaben:
Problemanalyse und Lösungsentwicklung, Algorithmus-Auswahl, Implementierung, Hyperparameter-Tuning
Ein Kunde aus dem Medizinbereich generiert während des Produktionsprozesses seiner Geräte umfassende Datenmengen, die mit Hilfe einer Orchestrierungs-Engine erfasst, strukturiert, gesäubert und letztlich über eine SQL-Datenbank einer Tableau Instanz bereitgestellt werden. Die Prozessspezialisten verwenden diese Daten zur Qualitätssicherung und -verbesserung, wobei durchwegs neue Anforderungen an neuartige Datenquellen aufkommen.
Aufgaben:
Technologieauswahl, Konzeptionierung, Implementierung
Im Rahmen der Implementierung einer umfassenden modernen Datenplattform war es erstrebenswert, ein Zusammenfassen von Daten in Pakete durchzuführen, bevor diese in ein Snowflake Cloud Data Ware House überführt werden. Hierfür kamen Azure Functions sowie diverse Azure Storage-Lösungen zum Einsatz. Der Prozess wurde durch die Azure Data Factory orchestriert.
Aufgaben:
Konzeptionierung, Implementierung
Umfassende Datenmengen, die durch eine Cloud API sowie Application Insights gesammelt wurden, sollten in einem Dashboard den Angestellten zur Verfügung gestellt werden. Es war erforderlich die Daten im Vorfeld durch einen umfassenden Transformations- und Säuberungsprozess zu führen.
Aufgaben:
Technologieauswahl, Konzeptionierung, Implementierung
Der Kunde wünschte eine high-throughput API auf Basis des Azure Stacks um alle Loggingdaten der Geräte und Anwendungen des Unternehmens sammeln und für eine Weiterverarbeitung bereitstellen zu können. Dies wurde auf Basis von Azure Functions als Serverless-API umgesetzt.
Aufgaben:
Technologieauswahl, Konzeptionierung, Implementierung, Projektmanagement
Aufbau einer leistungsfähigen, skalierbaren und flexiblen Infrastruktur zur Echtzeit-Vernetzung verschiedener Fertigungswerke und angeschlossener Industrieanlagen über MQTT, inklusive zuverlässiger Datenaufnahme, -speicherung, Visualisierung und Verwaltung.
? Vernetzung von Fertigungsanlagen und Industriekomponenten
über MQTT zur Erfassung hochfrequenter Live-Daten.
? Auswahl, Anpassung und Betrieb eines geeigneten MQTT-Brokers.
? Erweiterung des Brokers um einem User die Nutzung mehrere Client-IDs zu
ermöglichen.
? Entwurf und Implementierung der Architektur für das MQTT-Live-Datenformat
sowie der Topic-Strukturen zur semantisch konsistenten Datenorganisation.
? Aufbau einer hybriden Dateninfrastruktur mit spezialisierten TimeSeries- und
NoSQL-Datenbanken (TimescaleDB, InfluxDB, MongoDB) inklusive optimierter
Datenmodellierung für geschachtelte Daten.
? Entwicklung von High-Performance-Insert-Anwendungen für MQTT-Daten in
TimescaleDB und Producer-Komponenten zur Ableitung von Produktionsdaten aus
Dateien.
? Entwickeln von Producer-Komponenten zur Ableitung von Produktionsdaten aus Log-Dateien.
? Automatisierte Bereinigung redundanter Nachrichten in TimescaleDB mittels
Stored Procedures auf Basis von Hashvergleichen.
? Implementierung von User- und Rechteverwaltung für TimescaleDB.
? Visualisierung von Maschinen- und Systemzuständen über Grafana mit
SSO-Integration.
? Logging-Infrastruktur für Docker Swarm und Kubernetes mit Graylog sowie
FluentBit mit Custom-Regeln zur Reduktion redundanter Log-Einträge.
? Deployment-Automatisierung über Administrationsskripte für Docker Swarm;
späterer Umzug und Betrieb auf Tanzu Kubernetes.
? Testautomatisierung: Deployment-Tests mit C#, Systemverifikation mittels
Pytest.
? Betrieb begleitender Anwendungen zur Live-Darstellung der Maschinenzustände.
Aufgaben
? Anforderungsanalyse zur Definition von Datenformaten,
Performance-Zielen und Betriebsanforderungen.
? Architekturkonzeption für die End-to-End-MQTT-Datenpipeline inklusive
Topic-Design und Datenmodellierung.
? Auswahl, Anpassung und Betrieb des MQTT-Brokers.
? Entwicklung von Producer-Komponenten zur Generierung und Einspeisung von
Produktionsdaten.
? Erstellung und Optimierung von Insert-Skripten für TimescaleDB zur
Hochdurchsatz-Verarbeitung von MQTT Daten.
? Implementierung von Mechanismen zur deduplizierten Datenhaltung in
TimescaleDB (Hash-basierte Bereinigung).
? Aufbrechen geschachtelter Daten in relationale Strukturen und Gestaltung der
zugrundeliegenden TimescaleDB-Architektur.
? Einführung und Pflege von Usermanagement in TimescaleDB sowie SSO für
Grafana.
? Aufbau der Observability-Schicht: Logging mit Graylog, Filterlogik in
FluentBit, Metriken und Dashboards in Grafana.
? Automatisierung des Deployments via Skripte für Docker Swarm und später
Migration / Betrieb auf Tanzu Kubernetes.
? Testentwicklung (C# für Deployment-Tests, Pytest für Systemverifikation).
? Betrieb und kontinuierliche Verbesserung der Live-Visualisierungsanwendungen
für Maschinenzustände.
Aufbau einer skalierbaren, sicheren und zukunftsfähigen Plattform zur Verwaltung, Aufbereitung und Bereitstellung von Trainingsdaten und KI-Modellen, die sowohl in der Cloud (Azure) als auch On-Premise in lokalen Anlagenrechenzentren betrieben werden kann. Die Plattform soll automatisierte Workflows, Nutzerverwaltung, optimierten Datentransfer und einfache Test-/Endpoint-Bereitstellung unterstützen.
Aufgaben
Radardaten sollten, unter Einsatz der AWS-Cloud mit PySpark, in Relation zu Geo-Koordinaten gesetzt und anschließend auf Muster mit KI-Methoden untersucht werden. Die eingesetzten AWS-Services wurde als Code in Kombination mit einer GitHub CI/CD Pipeline getestet und orchestriert.
Aufgaben:
Architektur, Konzeptionierung, Implementierung
Analyse von Produktreviews mit Hilfe großer Sprachmodelle (LLMs), Extraktion relevanter Kategorien und Darstellung der Ergebnisse zur Unterstützung von Marktforschungsentscheidungen.
Aufgaben:
Ein primär im Projektgeschäft tätiger Kunde wünschte für seine zukünftige Staffing-Planung ein KI-gestütztes Optimierungssystem, ohne der Verwendung von Machine-Learning. Um dieser Anforderung gerecht zu werden, wurde ein heuristik basiertes System unter Einsatz von evolutorischen Schwarm-Algorithmen entwickelt und detailliert an die Anforderungen des Kunden angepasst.
Aufgaben:
Problemanalyse und Lösungsentwicklung, Algorithmus-Auswahl, Implementierung, Hyperparameter-Tuning
Ein Kunde aus dem Medizinbereich generiert während des Produktionsprozesses seiner Geräte umfassende Datenmengen, die mit Hilfe einer Orchestrierungs-Engine erfasst, strukturiert, gesäubert und letztlich über eine SQL-Datenbank einer Tableau Instanz bereitgestellt werden. Die Prozessspezialisten verwenden diese Daten zur Qualitätssicherung und -verbesserung, wobei durchwegs neue Anforderungen an neuartige Datenquellen aufkommen.
Aufgaben:
Technologieauswahl, Konzeptionierung, Implementierung
Im Rahmen der Implementierung einer umfassenden modernen Datenplattform war es erstrebenswert, ein Zusammenfassen von Daten in Pakete durchzuführen, bevor diese in ein Snowflake Cloud Data Ware House überführt werden. Hierfür kamen Azure Functions sowie diverse Azure Storage-Lösungen zum Einsatz. Der Prozess wurde durch die Azure Data Factory orchestriert.
Aufgaben:
Konzeptionierung, Implementierung
Umfassende Datenmengen, die durch eine Cloud API sowie Application Insights gesammelt wurden, sollten in einem Dashboard den Angestellten zur Verfügung gestellt werden. Es war erforderlich die Daten im Vorfeld durch einen umfassenden Transformations- und Säuberungsprozess zu führen.
Aufgaben:
Technologieauswahl, Konzeptionierung, Implementierung
Der Kunde wünschte eine high-throughput API auf Basis des Azure Stacks um alle Loggingdaten der Geräte und Anwendungen des Unternehmens sammeln und für eine Weiterverarbeitung bereitstellen zu können. Dies wurde auf Basis von Azure Functions als Serverless-API umgesetzt.
Aufgaben:
Technologieauswahl, Konzeptionierung, Implementierung, Projektmanagement