Für die Produktion eines Medizinproduktes habe ich ein zweistufiges, automatisiertes Testsystem entwickelt:
Analyse eines Kamerabildes mittels Computer Vision.
Auslesen von Spektrometer-Rohdaten über USB und Umrechnung in absolute Messergebnisse unter Anwendung von Kalibrierdaten.
Den mechanischen Aufbau habe ich in Zusammenarbeit mit einem mechanischen Ingenieur nach meinen Vorgaben gestaltet. Durch integrierte Positionssensoren wird die Testsequenz automatisch gesteuert.
Trotz begrenzter Hardware-Ressourcen (Tablet-Prozessor) läuft das System in Echtzeit, ermöglicht durch eine hochoptimierte Implementierung der Bild- und Datenauswertung mit OpenGL.
Für die Zulassung eines Medizinproduktes habe ich die Anforderungen an die Bildqualität und die Beleuchtung definiert und entsprechende Testverfahren entwickelt.
Ich habe die Durchführung der Tests organisiert, einschließlich:
Planung und Koordination von Labortests bei einem externen Prüfinstitut
Organisation und Durchführung ausgewählter Tests intern
Ich habe eine vollständige Bildverarbeitungs-Pipeline in OpenGL entworfen und implementiert. Die Pipeline umfasst folgende Schritte:
Debayering zur Rekonstruktion von Farbinformationen aus Rohdaten
Temporale und spatiale Rauschreduktion zur Verbesserung der Bildqualität
Farbkalibrierung für eine farbgetreue Darstellung
Filtering zur gezielten Bildoptimierung
Image Enhancement zur Steigerung von Kontrast, Schärfe und Detailtreue
Sowohl die Algorithmen als auch deren effiziente Umsetzung wurden speziell für eine leistungsfähige Bildaufbereitung auf ressourcenbegrenzter Hardware entwickelt.
Im Rahmen eines Projekts für die Verarbeitung von Kinokamera-Bilddaten war ich Teil eines Teams, das die Bildverarbeitung auf mehrere Grafikkarten (Multi-GPU) parallelisiert hat.
Die Berechnungen wurden auf Desktop-Computern unter Einsatz von CUDA durchgeführt.
Mein Beitrag umfasste:
Anpassung und Erweiterung der bestehenden Architektur für effizientes Multi-GPU-Processing
Entwicklung von Caching-Strategien zur Optimierung des Speicherzugriffs unter Berücksichtigung der Speicherhierarchie (Shared Memory, Global Memory, Host-Device-Transfers)
Implementierung von Overlap-Strategien zur gleichzeitigen Durchführung von Berechnungen und Datenübertragungen, inklusive Entwicklung eines eigenen Geometrie-Moduls zur effizienten Skalierung der Bilder während der Verarbeitung
Synchronisation der Verarbeitungsschritte zwischen den GPUs zur Vermeidung von Race Conditions und zur Maximierung der Auslastung
Durch diese Maßnahmen konnte die Pipeline für die Verarbeitung hochauflösender Kinobilder erheblich beschleunigt und erfolgreich auf eine Multi-GPU-Architektur skaliert werden.
Für die Produktion eines Medizinproduktes habe ich ein zweistufiges, automatisiertes Testsystem entwickelt:
Analyse eines Kamerabildes mittels Computer Vision.
Auslesen von Spektrometer-Rohdaten über USB und Umrechnung in absolute Messergebnisse unter Anwendung von Kalibrierdaten.
Den mechanischen Aufbau habe ich in Zusammenarbeit mit einem mechanischen Ingenieur nach meinen Vorgaben gestaltet. Durch integrierte Positionssensoren wird die Testsequenz automatisch gesteuert.
Trotz begrenzter Hardware-Ressourcen (Tablet-Prozessor) läuft das System in Echtzeit, ermöglicht durch eine hochoptimierte Implementierung der Bild- und Datenauswertung mit OpenGL.
Für die Zulassung eines Medizinproduktes habe ich die Anforderungen an die Bildqualität und die Beleuchtung definiert und entsprechende Testverfahren entwickelt.
Ich habe die Durchführung der Tests organisiert, einschließlich:
Planung und Koordination von Labortests bei einem externen Prüfinstitut
Organisation und Durchführung ausgewählter Tests intern
Ich habe eine vollständige Bildverarbeitungs-Pipeline in OpenGL entworfen und implementiert. Die Pipeline umfasst folgende Schritte:
Debayering zur Rekonstruktion von Farbinformationen aus Rohdaten
Temporale und spatiale Rauschreduktion zur Verbesserung der Bildqualität
Farbkalibrierung für eine farbgetreue Darstellung
Filtering zur gezielten Bildoptimierung
Image Enhancement zur Steigerung von Kontrast, Schärfe und Detailtreue
Sowohl die Algorithmen als auch deren effiziente Umsetzung wurden speziell für eine leistungsfähige Bildaufbereitung auf ressourcenbegrenzter Hardware entwickelt.
Im Rahmen eines Projekts für die Verarbeitung von Kinokamera-Bilddaten war ich Teil eines Teams, das die Bildverarbeitung auf mehrere Grafikkarten (Multi-GPU) parallelisiert hat.
Die Berechnungen wurden auf Desktop-Computern unter Einsatz von CUDA durchgeführt.
Mein Beitrag umfasste:
Anpassung und Erweiterung der bestehenden Architektur für effizientes Multi-GPU-Processing
Entwicklung von Caching-Strategien zur Optimierung des Speicherzugriffs unter Berücksichtigung der Speicherhierarchie (Shared Memory, Global Memory, Host-Device-Transfers)
Implementierung von Overlap-Strategien zur gleichzeitigen Durchführung von Berechnungen und Datenübertragungen, inklusive Entwicklung eines eigenen Geometrie-Moduls zur effizienten Skalierung der Bilder während der Verarbeitung
Synchronisation der Verarbeitungsschritte zwischen den GPUs zur Vermeidung von Race Conditions und zur Maximierung der Auslastung
Durch diese Maßnahmen konnte die Pipeline für die Verarbeitung hochauflösender Kinobilder erheblich beschleunigt und erfolgreich auf eine Multi-GPU-Architektur skaliert werden.