Entwicklung eines Backends zur automatisierten Ähnlichkeitsbestimmung von Skill-Sets basierend auf der ?SkillExplorer?-Technologie.
Weiterentwicklung eines HR-Tools zur Optimierung von Personalentscheidungen in IT-Projekt- und Stellenbesetzung sowie Entwicklung. Aufbau und Qualitätssicherung einer Data-Pipeline für IT-Skills, basierend auf Daten von 250 Mio. GitHub-Repositories und angereichert mit Wikipedia/DBPedia-Informationen.
- Datenbeschaffung
- Datenbereinigung
- Datensatzerzeugung
- Erstellung einer Trainingspipeline
- Identifikation von Evaluationmetriken
- Vergleich von KI-Modellen
- Erstellung und Wartung einer CICD-Pipeline
- Weiterentwicklung der Streamlit-Web-App als PoC.
- Entwicklung und Wartung von Use-Cases
- Aufbau und Erweiterung einer Confluence-Page
- Erweiterung und Updaten der Dokumentation in den erstellten Code-Repositorys
- Erläuterung der Technologien und Zukunftsaussichten des SkillExplorers bei der AWESOME! Software GmbH.
Entwicklung einer Methode zur automatischen Bestimmung der Lesereihenfolge von eingescannten Dokumenten mittels Layout-Analyse, einschließlich:
- Datenpipeline für Datenbereinigung und -anreicherung
- Feature Engineering zur Anreicherung der Rohdaten in der Datenpipeline
- OCR-basierte Worterkennung und Clustering zur Absatzbildung;
- Prototypische KI zur Ermittlung der Lesereihenfolge.
- Halbzeitpräsentation der Erkenntnisse in einer Poster-Session.
Die finalen Ergebnisse wurden in einer wissenschaftlichen Ausarbeitung zusammengefasst und in einer Präsentation den Stakeholdern vorgestellt.
Wöchentliche Termine ermöglichen Studierenden,
Fragen zu Aufgaben und Vorlesungen zu klären. Einmal pro Semester können sie
gelöste Aufgaben vorstellen, wobei ihre Erklärungen die Abschlussnote
verbessern können. Probleme werden in Zusammenarbeit mit dem Professor gelöst.
Gruppengröße liegt bei 20-30 Studierenden; insgesamt wurden drei Gruppen
betreut.
Training und Vergleich von KI-Modellen zur Klassifikation menschlicher Bewegungen mit Apple Watch-Sensordaten, inklusive
- Implementierung eines Self-Supervised Machine Learning Modells;
- Aufbau einer Datenpipeline zur Datensegmentierung/-aufbereitung und schneller Inferenz ohne Skalierung der Hardware.
Präsentation der Zwischenergebnisse in einer Poster-Session und finale schriftliche Ausarbeitung für Stakeholder.
Wöchentliche Termine klären Fragen zu Aufgaben und Vorlesungsinhalten. Der Fokus liegt auf individueller Betreuung zur Vermittlung von Programmierparadigmen. Studierende erledigen wöchentliche Hausaufgaben, die analysiert und kommentiert werden, mit ständigem Austausch zwischen dem Dozent und Praktikumsleitern.
Betreut wurden 15-20 Studierenden in insgesamt
zwei Gruppen.
Im Scrum-Team übernahm er Aufgaben wie:
- Wartung/Erweiterung von Compliance-Software,
- Datenpflege im CRM,
- Quartalspräsentationen für Stakeholder,
- Cloud-Migrationsplanung,
- Teamkoordination (3 Entwickler).
Aus Wikipedia-Artikeln extrahierte Frage-Antwort-Paare (Faktoids) wurden für die Entwicklung eines KI-Systems genutzt, das korrekte Antworten findet. Das System identifiziert zunächst Fragentypen zur Vorauswahl und bewertet dann Frage-Antwort-Kombinationen.
Dabei kamen folgende Technologien zum Einsatz: NLP-Techniken (Tokenization, Normalization), einem LLM (DistilBERT) und Elasticsearch (effiziente Volltextsuche).
Eine Web-Applikation für die Kreativfabrik Wiesbaden wurde zur effizienten Planung und Verwaltung von Personaleinsatz bei Events weiterentwickelt, mit Fokus auf Fehlerbehebungen und Implementierung neuer Features.
Installation einer PLM-Software für einen Hochschulkurs und Unterstützung bei der Website eines IT-Sicherheitsprojekts in Industrie 4.0
Fachkompetenz:
Software-Architektur und Design von KI-Modellen, KI-Modell Training, Data Modelling, Datenanalyse, Datenvisualisierung, Machine Learning, Data Mining, Softwareentwicklung, Deployment von KI-Modellen, ML/Daten-Pipeline, Signal Processing/Signalverarbeitung
IT-Kompetenz:
Python, FastAPI, Starlette, Uvicorn, RestAPI, BeautifulSoup, OpenCV, Seaborn, Matplotlib, Numpy, Scipy, Ruff, Poetry, Alembic, SQLAlchemy, Pydantic, Scikit-Learn, Pandas, PyTest, Unittest, Jupyter Notebook, Streamlit, Natural Language Toolkit (NLTK), spaCy, Dockerfile, Docker Compose, C# .NET, Bash Scripting, JSON, XML
Produkte:
Confluence, Jira, BitBucket, Github, Gitlab, Overleaf, Weights&Biases, Hugging Face, Ubuntu (Versionen 18.04 - 22.04), Windows Server, Windows, Linux, MacOS, Docker, Weights&Biases, Dockerhub
Methodenkompetenz:
Scrum, Agile, Kanban, Wasserfall, V-Modell, OOP, UML, Design Pattern
Programmiersprachen:
Python, Java, C#, JavaScript
Datenbanken: (SQL/NoSQL) MySQL, MariaDB, PostgreSQL, SQLite, MongoDB, Neo4j
KI-Kompetenzen:
Tensorflow, Keras, PyTorch, TensorBoard, TorchData, Torchvision, PyTorch-Lightning, Autoencoder, Transformer, Klassifizierung, Clustering, Computer Vision, Neuronale Netze (NN), Logistic Regression, Convolutional Neural Nets (CNNs), Natural Language Processing (NLP)
Forschung, Finanzsektor
Entwicklung eines Backends zur automatisierten Ähnlichkeitsbestimmung von Skill-Sets basierend auf der ?SkillExplorer?-Technologie.
Weiterentwicklung eines HR-Tools zur Optimierung von Personalentscheidungen in IT-Projekt- und Stellenbesetzung sowie Entwicklung. Aufbau und Qualitätssicherung einer Data-Pipeline für IT-Skills, basierend auf Daten von 250 Mio. GitHub-Repositories und angereichert mit Wikipedia/DBPedia-Informationen.
- Datenbeschaffung
- Datenbereinigung
- Datensatzerzeugung
- Erstellung einer Trainingspipeline
- Identifikation von Evaluationmetriken
- Vergleich von KI-Modellen
- Erstellung und Wartung einer CICD-Pipeline
- Weiterentwicklung der Streamlit-Web-App als PoC.
- Entwicklung und Wartung von Use-Cases
- Aufbau und Erweiterung einer Confluence-Page
- Erweiterung und Updaten der Dokumentation in den erstellten Code-Repositorys
- Erläuterung der Technologien und Zukunftsaussichten des SkillExplorers bei der AWESOME! Software GmbH.
Entwicklung einer Methode zur automatischen Bestimmung der Lesereihenfolge von eingescannten Dokumenten mittels Layout-Analyse, einschließlich:
- Datenpipeline für Datenbereinigung und -anreicherung
- Feature Engineering zur Anreicherung der Rohdaten in der Datenpipeline
- OCR-basierte Worterkennung und Clustering zur Absatzbildung;
- Prototypische KI zur Ermittlung der Lesereihenfolge.
- Halbzeitpräsentation der Erkenntnisse in einer Poster-Session.
Die finalen Ergebnisse wurden in einer wissenschaftlichen Ausarbeitung zusammengefasst und in einer Präsentation den Stakeholdern vorgestellt.
Wöchentliche Termine ermöglichen Studierenden,
Fragen zu Aufgaben und Vorlesungen zu klären. Einmal pro Semester können sie
gelöste Aufgaben vorstellen, wobei ihre Erklärungen die Abschlussnote
verbessern können. Probleme werden in Zusammenarbeit mit dem Professor gelöst.
Gruppengröße liegt bei 20-30 Studierenden; insgesamt wurden drei Gruppen
betreut.
Training und Vergleich von KI-Modellen zur Klassifikation menschlicher Bewegungen mit Apple Watch-Sensordaten, inklusive
- Implementierung eines Self-Supervised Machine Learning Modells;
- Aufbau einer Datenpipeline zur Datensegmentierung/-aufbereitung und schneller Inferenz ohne Skalierung der Hardware.
Präsentation der Zwischenergebnisse in einer Poster-Session und finale schriftliche Ausarbeitung für Stakeholder.
Wöchentliche Termine klären Fragen zu Aufgaben und Vorlesungsinhalten. Der Fokus liegt auf individueller Betreuung zur Vermittlung von Programmierparadigmen. Studierende erledigen wöchentliche Hausaufgaben, die analysiert und kommentiert werden, mit ständigem Austausch zwischen dem Dozent und Praktikumsleitern.
Betreut wurden 15-20 Studierenden in insgesamt
zwei Gruppen.
Im Scrum-Team übernahm er Aufgaben wie:
- Wartung/Erweiterung von Compliance-Software,
- Datenpflege im CRM,
- Quartalspräsentationen für Stakeholder,
- Cloud-Migrationsplanung,
- Teamkoordination (3 Entwickler).
Aus Wikipedia-Artikeln extrahierte Frage-Antwort-Paare (Faktoids) wurden für die Entwicklung eines KI-Systems genutzt, das korrekte Antworten findet. Das System identifiziert zunächst Fragentypen zur Vorauswahl und bewertet dann Frage-Antwort-Kombinationen.
Dabei kamen folgende Technologien zum Einsatz: NLP-Techniken (Tokenization, Normalization), einem LLM (DistilBERT) und Elasticsearch (effiziente Volltextsuche).
Eine Web-Applikation für die Kreativfabrik Wiesbaden wurde zur effizienten Planung und Verwaltung von Personaleinsatz bei Events weiterentwickelt, mit Fokus auf Fehlerbehebungen und Implementierung neuer Features.
Installation einer PLM-Software für einen Hochschulkurs und Unterstützung bei der Website eines IT-Sicherheitsprojekts in Industrie 4.0
Fachkompetenz:
Software-Architektur und Design von KI-Modellen, KI-Modell Training, Data Modelling, Datenanalyse, Datenvisualisierung, Machine Learning, Data Mining, Softwareentwicklung, Deployment von KI-Modellen, ML/Daten-Pipeline, Signal Processing/Signalverarbeitung
IT-Kompetenz:
Python, FastAPI, Starlette, Uvicorn, RestAPI, BeautifulSoup, OpenCV, Seaborn, Matplotlib, Numpy, Scipy, Ruff, Poetry, Alembic, SQLAlchemy, Pydantic, Scikit-Learn, Pandas, PyTest, Unittest, Jupyter Notebook, Streamlit, Natural Language Toolkit (NLTK), spaCy, Dockerfile, Docker Compose, C# .NET, Bash Scripting, JSON, XML
Produkte:
Confluence, Jira, BitBucket, Github, Gitlab, Overleaf, Weights&Biases, Hugging Face, Ubuntu (Versionen 18.04 - 22.04), Windows Server, Windows, Linux, MacOS, Docker, Weights&Biases, Dockerhub
Methodenkompetenz:
Scrum, Agile, Kanban, Wasserfall, V-Modell, OOP, UML, Design Pattern
Programmiersprachen:
Python, Java, C#, JavaScript
Datenbanken: (SQL/NoSQL) MySQL, MariaDB, PostgreSQL, SQLite, MongoDB, Neo4j
KI-Kompetenzen:
Tensorflow, Keras, PyTorch, TensorBoard, TorchData, Torchvision, PyTorch-Lightning, Autoencoder, Transformer, Klassifizierung, Clustering, Computer Vision, Neuronale Netze (NN), Logistic Regression, Convolutional Neural Nets (CNNs), Natural Language Processing (NLP)
Forschung, Finanzsektor