Entwicklung eines Saas Produkts. Angeboten werden managed PostgreSql Instanzen
Die pressrelations GmbH ist der führende Mediamonitoring Anbieter in Deutschland im Bereich der Online Medien Beobachtung. Die Natural Language Processing Pipeline der pressrelations GmbH verarbeitet mehr als 1 Millionen News Artikel pro Tag. Ein Teil dieser Pipeline ist die sog. Named Entity Recognition (NER).
Ziel des Projektes war zum einen die Verbesserung der Erkennungsgüte bei Einhaltung des verfügbaren CPU und Speicher Budgets. Zum anderen sollte eine unmittelbares Anpassen des Verhaltens der NER ohne aufwendiges Neu Trainieren der verwendeten Modelle möglich gemacht werden.
Erreicht wurde dieses Ziel unter Verwendung eines hybriden Ansatzes: ein trainiertes neurales Netz in Kombination mit semi automatisch erzeugten Wortlisten unter Verwendung des sog. Aho–Corasick Algorithmus. Das neuronale Netz wurde auf einer großen annotierten Menge von News Artikeln trainert und lieferte eine gute Erkennungsrate, während die Verwendung der Wortlisten eine einfache und schnelle Anpassung an speziellen Themen Bereiche ermöglicht.
Entwicklung eines Web Crawlers auf Basis von Selenium und headless Chrome. Mithilfe des Crawlers werde die Daten über Sportkurse für das Portal erzeugt.
Forschungs Kooperation mit der Heinrich Heine Universität (AGENT) und Entwicklung im Bereich Natural Language Processing / Machine Learning Module für die Web Crawling Pipeline von pressrelations.
Das Inspektionstool "Database-Inspector" für den Navigation Data Standard wurde weiterentwickelt.
Softwareentwicklung für die Automobilindustrie in einem Team von 4 Personen. Daten Inspektions Tool für Daten im Navigation Data Standard (NDS) Format
2014 - 2015: Data Science/Business Analytics
Als Teil von Teams von 2-6 Personen erarbeitete ich Lösungen im Bereich der Datenanalyse bzw. Produktanalyse.
2011 - 2014: Softwareentwicklung
Zu Beginn meiner Tätigkeit bei sipgate arbeitete ich an den verteilten Systemen in Scrum-Teams von 6-10 Personen. Die Entwicklung erfolgte sowohl im Bereich des Backends als auch im Frontend.
Die Artificial Technology GmbH war ein Anbieter für künstliche Intelligenz Lösungen für Computerspiele.
Entwicklung einer KI Middleware für Videospiele. Team von 6 Personen.
2007 - 2008: Flughafen Simulationen
Kunde: Airport Research Center in Aachen
Aufgaben:
Eingesetzte Technologien:
Delphi, GUI Development, Java, Netbeans, Java Swing
2001 - 2008
Ausbildung: Unvollendetes Studium der Informatik
2001
Institution: Aachen am Geschwister Scholl Gymnasium
Abschluss: Abitur
Fortbildungen:
Agile Developer Skills, ISTQB Certified Tester, Machine Learning und Data Analysis/Big Data (insb. Hadoop/Spark)
Auf einen Blick:
Beruflicher Werdegang:
2019 - heute
Kunde: semantics Kommunikationsmanagement GmbH
Aufgaben:
Tools:
Python, CherryPy, React, MsSql, MText Format
2019 - heute
Kunde: schnupperkurs.media GmbH in Düsseldorf, Webportal
Aufgaben:
Entwicklung eines Web Crawlers auf Basis von Selenium und headless Chrome. Mithilfe des Crawlers werde die Daten über Sportkurse für das Portal erzeugt.
Tools:
AWS, DigitalOcean
2018 - heute
Aufgaben:
Tools:
AWS, DigitalOcean, Linux
2016 - 2019
Kunde: pressrelations in Düsseldorf
Aufgaben:
Tools:
scikit-learn, tensorflow, xgboost, spacy, nltk, pandas, numpy, scipy, shell, Linux, Bash, Elasticsearch, MsSql, GraphQl, Python,Cython, Ruby On Rails, React, Angular, Docker, docker-compose, Apache Mesos, Git, PyUnit, SQL, PostgreSQL, Flask
2015 - 2016
Aufgaben:
Tools:
C++, QT5, QTCreator, XPath, OpenGl, Teamcity, CI/CD, Git, Java, SQLite, Shell, Linux, Bash, Ubuntu/Debian, QTTest, Cross-Platform Development (Windows, Linux, Android)
2011 - 2015
Kunde: Sipgate in Düsseldorf, Telekommunikation
2014 - 2015
Kunde: Data Science/Business Analytics
Aufgaben:
Tools:
Data Warehouse, MongoDB, Agile Entwicklung, SCRUM
2011 - 2014
Aufgaben:
Tools:
J2EE, Java, PHP, JavaScript, Voip Komponenten (HLR, SMSC, Asterisk,...) in C/C++, Shell, Python, Java SE, Jenkins, Python, SciPy, Git, Unit Testing, Junit, Selenium, Agile Entwicklung, SCRUM
2010 - 2011
Kunde: Goodgame Studios in Hamburg
Aufgaben:
Tools:
JavaSE Backend
2008 - 2010
Kunde: Artificial Technology in Puchheim bei München
Aufgaben:
Tools:
C++, Java, Lua, SVN
2007 - 2008
Kunde: Airport Research Center in Aachen
Aufgaben:
Tools:
Delphi, GUI Development, Java, Netbeans, Java Swing
Publikationen gerne auf Anfrage.
Entwicklung eines Saas Produkts. Angeboten werden managed PostgreSql Instanzen
Die pressrelations GmbH ist der führende Mediamonitoring Anbieter in Deutschland im Bereich der Online Medien Beobachtung. Die Natural Language Processing Pipeline der pressrelations GmbH verarbeitet mehr als 1 Millionen News Artikel pro Tag. Ein Teil dieser Pipeline ist die sog. Named Entity Recognition (NER).
Ziel des Projektes war zum einen die Verbesserung der Erkennungsgüte bei Einhaltung des verfügbaren CPU und Speicher Budgets. Zum anderen sollte eine unmittelbares Anpassen des Verhaltens der NER ohne aufwendiges Neu Trainieren der verwendeten Modelle möglich gemacht werden.
Erreicht wurde dieses Ziel unter Verwendung eines hybriden Ansatzes: ein trainiertes neurales Netz in Kombination mit semi automatisch erzeugten Wortlisten unter Verwendung des sog. Aho–Corasick Algorithmus. Das neuronale Netz wurde auf einer großen annotierten Menge von News Artikeln trainert und lieferte eine gute Erkennungsrate, während die Verwendung der Wortlisten eine einfache und schnelle Anpassung an speziellen Themen Bereiche ermöglicht.
Entwicklung eines Web Crawlers auf Basis von Selenium und headless Chrome. Mithilfe des Crawlers werde die Daten über Sportkurse für das Portal erzeugt.
Forschungs Kooperation mit der Heinrich Heine Universität (AGENT) und Entwicklung im Bereich Natural Language Processing / Machine Learning Module für die Web Crawling Pipeline von pressrelations.
Das Inspektionstool "Database-Inspector" für den Navigation Data Standard wurde weiterentwickelt.
Softwareentwicklung für die Automobilindustrie in einem Team von 4 Personen. Daten Inspektions Tool für Daten im Navigation Data Standard (NDS) Format
2014 - 2015: Data Science/Business Analytics
Als Teil von Teams von 2-6 Personen erarbeitete ich Lösungen im Bereich der Datenanalyse bzw. Produktanalyse.
2011 - 2014: Softwareentwicklung
Zu Beginn meiner Tätigkeit bei sipgate arbeitete ich an den verteilten Systemen in Scrum-Teams von 6-10 Personen. Die Entwicklung erfolgte sowohl im Bereich des Backends als auch im Frontend.
Die Artificial Technology GmbH war ein Anbieter für künstliche Intelligenz Lösungen für Computerspiele.
Entwicklung einer KI Middleware für Videospiele. Team von 6 Personen.
2007 - 2008: Flughafen Simulationen
Kunde: Airport Research Center in Aachen
Aufgaben:
Eingesetzte Technologien:
Delphi, GUI Development, Java, Netbeans, Java Swing
2001 - 2008
Ausbildung: Unvollendetes Studium der Informatik
2001
Institution: Aachen am Geschwister Scholl Gymnasium
Abschluss: Abitur
Fortbildungen:
Agile Developer Skills, ISTQB Certified Tester, Machine Learning und Data Analysis/Big Data (insb. Hadoop/Spark)
Auf einen Blick:
Beruflicher Werdegang:
2019 - heute
Kunde: semantics Kommunikationsmanagement GmbH
Aufgaben:
Tools:
Python, CherryPy, React, MsSql, MText Format
2019 - heute
Kunde: schnupperkurs.media GmbH in Düsseldorf, Webportal
Aufgaben:
Entwicklung eines Web Crawlers auf Basis von Selenium und headless Chrome. Mithilfe des Crawlers werde die Daten über Sportkurse für das Portal erzeugt.
Tools:
AWS, DigitalOcean
2018 - heute
Aufgaben:
Tools:
AWS, DigitalOcean, Linux
2016 - 2019
Kunde: pressrelations in Düsseldorf
Aufgaben:
Tools:
scikit-learn, tensorflow, xgboost, spacy, nltk, pandas, numpy, scipy, shell, Linux, Bash, Elasticsearch, MsSql, GraphQl, Python,Cython, Ruby On Rails, React, Angular, Docker, docker-compose, Apache Mesos, Git, PyUnit, SQL, PostgreSQL, Flask
2015 - 2016
Aufgaben:
Tools:
C++, QT5, QTCreator, XPath, OpenGl, Teamcity, CI/CD, Git, Java, SQLite, Shell, Linux, Bash, Ubuntu/Debian, QTTest, Cross-Platform Development (Windows, Linux, Android)
2011 - 2015
Kunde: Sipgate in Düsseldorf, Telekommunikation
2014 - 2015
Kunde: Data Science/Business Analytics
Aufgaben:
Tools:
Data Warehouse, MongoDB, Agile Entwicklung, SCRUM
2011 - 2014
Aufgaben:
Tools:
J2EE, Java, PHP, JavaScript, Voip Komponenten (HLR, SMSC, Asterisk,...) in C/C++, Shell, Python, Java SE, Jenkins, Python, SciPy, Git, Unit Testing, Junit, Selenium, Agile Entwicklung, SCRUM
2010 - 2011
Kunde: Goodgame Studios in Hamburg
Aufgaben:
Tools:
JavaSE Backend
2008 - 2010
Kunde: Artificial Technology in Puchheim bei München
Aufgaben:
Tools:
C++, Java, Lua, SVN
2007 - 2008
Kunde: Airport Research Center in Aachen
Aufgaben:
Tools:
Delphi, GUI Development, Java, Netbeans, Java Swing
Publikationen gerne auf Anfrage.
Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.