Ein Fertigungswerk und Industrieanlagen sollten auf Basis von MQTT umfassend vernetzt werden. Hierfür musste ein passender MQTT-Broker gewählt und um diesen eine Dateninfrastruktur gestrickt werden. In diesem Rahmen wurden verschiedenste MQTT-Broker, sowie Datenbank- und Hostingtechnologien implementiert und betrieben.
Aufgaben:
Architektur, Konzeptionierung, Implementierung, Betrieb
Evaluierung von Cloud-Alternativen für die Datenhaltung und -aufbereitung von Trainingsdaten für ML-Zwecke. Einrichtung von ETL-Pipelines für Upload und Transformationen von Stamm- und Bilddaten. Training von KI-Modellen und Bereitstellung als Docker Container.
Aufgaben:
Anforderungsanalyse, Datenaufbereitung, Cloud-Architektur, Entwicklung
Radardaten sollten, unter Einsatz der AWS-Cloud mit PySpark, in Relation zu Geo-Koordinaten gesetzt und anschließend auf Muster mit KI-Methoden untersucht werden. Die eingesetzten AWS-Services wurde als Code in Kombination mit einer GitHub CI/CD Pipeline getestet und orchestriert.
Aufgaben:
Architektur, Konzeptionierung, Implementierung
Mit Hilfe von LLM sollten Produktreviews analysiert und relevante Kategorien extrahiert werden. Prompts wurden unter Einsatz von Promptflow versioniert und validiert. Die Visualisierung der Analyseergebnisse erfolgte über eine einfach gehaltene Streamlit-App.
Aufgaben:
Konzeptionierung, Implementierung
Ein primär im Projektgeschäft tätiger Kunde wünschte für seine zukünftige Staffing-Planung ein KI-gestütztes Optimierungssystem, ohne der Verwendung von Machine-Learning. Um dieser Anforderung gerecht zu werden, wurde ein heuristik basiertes System unter Einsatz von evolutorischen Schwarm-Algorithmen entwickelt und detailliert an die Anforderungen des Kunden angepasst.
Aufgaben:
Problemanalyse und Lösungsentwicklung, Algorithmus-Auswahl, Implementierung, Hyperparameter-Tuning
Ein Kunde aus dem Medizinbereich generiert während des Produktionsprozesses seiner Geräte umfassende Datenmengen, die mit Hilfe einer Orchestrierungs-Engine erfasst, strukturiert, gesäubert und letztlich über eine SQL-Datenbank einer Tableau Instanz bereitgestellt werden. Die Prozessspezialisten verwenden diese Daten zur Qualitätssicherung und -verbesserung, wobei durchwegs neue Anforderungen an neuartige Datenquellen aufkommen.
Aufgaben:
Technologieauswahl, Konzeptionierung, Implementierung
Im Rahmen der Implementierung einer umfassenden modernen Datenplattform war es erstrebenswert, ein Zusammenfassen von Daten in Pakete durchzuführen, bevor diese in ein Snowflake Cloud Data Ware House überführt werden. Hierfür kamen Azure Functions sowie diverse Azure Storage-Lösungen zum Einsatz. Der Prozess wurde durch die Azure Data Factory orchestriert.
Aufgaben:
Konzeptionierung, Implementierung
Umfassende Datenmengen, die durch eine Cloud API sowie Application Insights gesammelt wurden, sollten in einem Dashboard den Angestellten zur Verfügung gestellt werden. Es war erforderlich die Daten im Vorfeld durch einen umfassenden Transformations- und Säuberungsprozess zu führen.
Aufgaben:
Technologieauswahl, Konzeptionierung, Implementierung
Der Kunde wünschte eine high-throughput API auf Basis des Azure Stacks um alle Loggingdaten der Geräte und Anwendungen des Unternehmens sammeln und für eine Weiterverarbeitung bereitstellen zu können. Dies wurde auf Basis von Azure Functions als Serverless-API umgesetzt.
Aufgaben:
Technologieauswahl, Konzeptionierung, Implementierung, Projektmanagement
Ein Fertigungswerk und Industrieanlagen sollten auf Basis von MQTT umfassend vernetzt werden. Hierfür musste ein passender MQTT-Broker gewählt und um diesen eine Dateninfrastruktur gestrickt werden. In diesem Rahmen wurden verschiedenste MQTT-Broker, sowie Datenbank- und Hostingtechnologien implementiert und betrieben.
Aufgaben:
Architektur, Konzeptionierung, Implementierung, Betrieb
Evaluierung von Cloud-Alternativen für die Datenhaltung und -aufbereitung von Trainingsdaten für ML-Zwecke. Einrichtung von ETL-Pipelines für Upload und Transformationen von Stamm- und Bilddaten. Training von KI-Modellen und Bereitstellung als Docker Container.
Aufgaben:
Anforderungsanalyse, Datenaufbereitung, Cloud-Architektur, Entwicklung
Radardaten sollten, unter Einsatz der AWS-Cloud mit PySpark, in Relation zu Geo-Koordinaten gesetzt und anschließend auf Muster mit KI-Methoden untersucht werden. Die eingesetzten AWS-Services wurde als Code in Kombination mit einer GitHub CI/CD Pipeline getestet und orchestriert.
Aufgaben:
Architektur, Konzeptionierung, Implementierung
Mit Hilfe von LLM sollten Produktreviews analysiert und relevante Kategorien extrahiert werden. Prompts wurden unter Einsatz von Promptflow versioniert und validiert. Die Visualisierung der Analyseergebnisse erfolgte über eine einfach gehaltene Streamlit-App.
Aufgaben:
Konzeptionierung, Implementierung
Ein primär im Projektgeschäft tätiger Kunde wünschte für seine zukünftige Staffing-Planung ein KI-gestütztes Optimierungssystem, ohne der Verwendung von Machine-Learning. Um dieser Anforderung gerecht zu werden, wurde ein heuristik basiertes System unter Einsatz von evolutorischen Schwarm-Algorithmen entwickelt und detailliert an die Anforderungen des Kunden angepasst.
Aufgaben:
Problemanalyse und Lösungsentwicklung, Algorithmus-Auswahl, Implementierung, Hyperparameter-Tuning
Ein Kunde aus dem Medizinbereich generiert während des Produktionsprozesses seiner Geräte umfassende Datenmengen, die mit Hilfe einer Orchestrierungs-Engine erfasst, strukturiert, gesäubert und letztlich über eine SQL-Datenbank einer Tableau Instanz bereitgestellt werden. Die Prozessspezialisten verwenden diese Daten zur Qualitätssicherung und -verbesserung, wobei durchwegs neue Anforderungen an neuartige Datenquellen aufkommen.
Aufgaben:
Technologieauswahl, Konzeptionierung, Implementierung
Im Rahmen der Implementierung einer umfassenden modernen Datenplattform war es erstrebenswert, ein Zusammenfassen von Daten in Pakete durchzuführen, bevor diese in ein Snowflake Cloud Data Ware House überführt werden. Hierfür kamen Azure Functions sowie diverse Azure Storage-Lösungen zum Einsatz. Der Prozess wurde durch die Azure Data Factory orchestriert.
Aufgaben:
Konzeptionierung, Implementierung
Umfassende Datenmengen, die durch eine Cloud API sowie Application Insights gesammelt wurden, sollten in einem Dashboard den Angestellten zur Verfügung gestellt werden. Es war erforderlich die Daten im Vorfeld durch einen umfassenden Transformations- und Säuberungsprozess zu führen.
Aufgaben:
Technologieauswahl, Konzeptionierung, Implementierung
Der Kunde wünschte eine high-throughput API auf Basis des Azure Stacks um alle Loggingdaten der Geräte und Anwendungen des Unternehmens sammeln und für eine Weiterverarbeitung bereitstellen zu können. Dies wurde auf Basis von Azure Functions als Serverless-API umgesetzt.
Aufgaben:
Technologieauswahl, Konzeptionierung, Implementierung, Projektmanagement