Regelmäßige Lokalisierung und linguistische Qualitätssicherung der Anwenderdokumentation in amerikanischem
Englisch für die monatlichen Software-Updates. Prototypische Entwicklung von automatisierten
Dokumenterstellungen in MS Word.
Erstellung und kontinuierliche Wartung eines phonetisch annotierten TTS-Lexikons, phonetische Sprachanalyse,
Qualitätssicherung von generierten Aussprachen, Textnormalisierung, grammatische Modellierung (GRXMLGrammatiken).
Entwicklung von Verfahren zur automatisierten Query-Generierung in ElasticSearch. Ziel ist es, für ausgewählte
Unternehmen vollautomatisiert das gesamte deutschsprachige Internet nach thematisch relevanten
Pressemeldungen zu durchsuchen.
Konzeption und Umsetzung eines automatisierten Verfahrens zur Analyse von Social-Media-Posts. Konkret
ist die Zielsetzung des Projekts die gezielte Analyse der Kommunikation in Patientenforen, um spezifische Pharma-
Produkte der Zielgruppe gegenüber kommunikativ besser positionieren zu können.
Beratende Unterstützung in der Erstellung einer NLP-Processing-Pipeline zur Verarbeitung von sprachlich
heterogenen Versicherungstexten. Training statistischer Modelle und Entwicklung einer selektiven Keyword-
Extraktion.
Konzeption, Entwicklung, Deployment und kontinuierlicher Ausbau einer automatisierten Lösung zur effizienten
Datensynchronisierung zwischen global verteilten Unternehmensstandorten.
Prototypische Entwicklung einer Lösung zur Ermittlung von Artikelähnlichkeiten in einem Online-Shop basierend auf
den extrahierten textlichen Produktbeschreibungen.
Konzeption und Entwicklung eines selbstlernenden Systems zur Abbildung von mehrsprachigen Lieferantentexten
auf intern standardisierte Fehlercodes einer kontrollierten Sprache. Umfangreiche Datenanalyse der Eingangsdaten,
markenspezifische Vorverarbeitung, Feature-Optimierung der maschinellen Lernalgorithmen (Support Vector
Machines) und abschließende formale Performance-Evaluation.
Umfassende grammatische Modellierung von Regeln zur Textnormalisierung und inversen Textnormalisierung für
Text-to-Speech-Systeme und mobile Assistenzsysteme.
Konzeption und Entwicklung einer Lösung zur Erzeugung grammatikalisch korrekter Anzeigentexte basierend auf
Suchanfragen und einer Produktdatenbank. Mehrsprachige Umsetzung für Deutsch und Englisch. Modellierung aller
morphosyntaktischen Abhängigkeiten sowie formaler Constraints.
Methodische und linguistische Beratung für die automatische Sentiment-Erkennung von Facebook-Daten. Roll-out
der entwickelten Lösung in verschiedene Sprachen (EN, FR, ES, AR). Manuelle Annotation von Sentiment-Korpora.
Erfolgreiche Antragsstellung zur Projektförderung durch die Innovationsstiftung der Stadt Hamburg.
Konzeption und Entwicklung einer automatisierten Lösung zur Optimierung des Einsatzes von Online-Marketing-
Budgets auf Facebook. Das Verfahren ermöglicht bereits im Rahmen des Erstellungsprozesses – also noch vor der
eigentlichen Live-Schaltung der Anzeige – anhand der Eigenschaften der Anzeige eine Prognose über deren
voraussichtliche Kosteneffizienz.
Detaillierte technische Konzeption eines Suchalgorithmus zur Bestimmung von bedeutungsähnlichen Worten in
Wikipedia und dem Google-n-Gram-Corpus. Der Algorithmus liefert automatisiert alternative Begrifflichkeiten zur
Suchmaschinen-Optimierung für e-Commerce-Produktdaten.
Entwicklung einer Datenbank als Produkt zur Abbildung von Business-relevanten semantischen Geo-Informationen
wie dem Zusammenhang zwischen Postleitzahl und Stadtteil oder von ist-in-Relationen für über 60.000 Gemeinden,
Stadtteile und Städte in Deutschland. Konzeptioniert ist auch die Integration von Straßen und Hausnummern.
Entwicklung von kollaborativen Recommender-Systemen mit unterschiedlichen Empfehlungsstrategien basierend
auf dem Download-Verhalten von Kunden sowie den inhaltlichen Eigenschaften der herunter geladenen und der
noch verfügbaren Dokumente. Systematische quantitative Evaluation der Empfehlungsqualität.
Konzeption und Umsetzung einer automatisierten Lösung zur Ermittlung von Produktähnlichkeit im e-Commerce
anhand der Produktbeschreibungstexte. Systematische Auswertung der Bewertungsgenauigkeit.
Prototypische Entwicklung eines automatisierten Genre-Klassifikators von Kinofilmen basierend auf den textlichen
Beschreibungen der Handlung. Training des Klassifikators auf den Beschreibungstexten von als 300.000 Filmen mit
über 34 Mio. Wörtern. Systematische Auswertung der Klassifikationssgenauigkeit für zwei unterschiedliche
Klassifikationsalgorithmen.
Verbindung von hochperformanten Webtechnologien mit computerlinguistischen Analysefunktionen zur
Extraktion relevanter Markennamen aus Logdateien von Suchanfragen im Bereich e-Commerce.
Entwicklung von Web-Crawlern zur gezielten Sammlung von Forumsinhalten. Automatisiertes POS-Tagging
und umfangreiche Frequenzanalysen über den gesammelten Daten. Entwicklung einer Lösung zur automatisierten
Extraktion und morphologischen Zerlegung von 40.000 Nominalkomposita.
Entwicklung von Klassifikationsverfahren basierend auf maschinellem Lernen (Deep Learning) für die Analyse
komplexer Analysedaten als Basis von operativen Entscheidungen
Entwicklung eines technischen Prototypen zur Abbildung der gesamten Verarbeitungskette vom Crawling der
Stellenanzeigen über die linguistische Vorverarbeitung hin zur semantischen Erschließung der Daten basierend
auf einer Domänen-Ontologie und Indizierung in solr.
Beratung und Konzeption für die Automatisierung der Erkennung von neuen Technologie-Trends im Web (Big Data
Information Retrieval). Erfolgreiche Antragsstellung zur Projektförderung durch die Innovationsstiftung der
Stadt Hamburg.
Beratung in der Umstrukturierung der Daten in der Wissensbasis für die Analyse-Engine eines automatisierten
Dialogsystems. Entwicklung von Analyse-Applikationen zur Auswertung der bestehenden Lösung und des Lexikons.
Erstellung von phonetischen Transkriptionen für In-Car Sprachsteuerungssysteme. Entwicklung von Software-
Lösungen zur Automatisierung des Transkriptionsprozesses (Grapheme-to-Phoneme Conversion).
2006 ? 2010
Promotionsstipendiat der Deutschen Forschungsgemeinschaft (DFG)
CINACS Graduierten Kolleg, Fachbereich Informatik an der Universität Hamburg
Entwicklung eines Java-basierten Frameworks zur semantischen Analyse von mehrdeutigen Sätzen unter
Einbeziehung ontologischer Wissensrepräsentationen (OWL-Ontologien). Erstellung von semantischen Annotationen
und umfangreichen Textdatensammlungen (Corpora), ontologische Wissensmodellierung, syntaktisches und
semantisches Dependenz-Parsing.
Eingesetzte Technologien: Java, OWL, Bash, Perl, XML, WCDG.
2006 Three-year full PhD scholarship award from the German
Research Foundation (DFG) for participation in the
International Graduate Research Group (CINACS) on the
cognitive aspects of cross-modal communication. Academic
collaboration with Tsinghua University, Beijing, China.
1998 Master of Letters in Linguistics with merit
University of Sydney, Australia
Overall Mark: High Distinction
1997 Diploma in Croatian Language, Literature and Culture
Zagreb University, Croatia
Final Mark: High Distinction Plus
1996 Full Scholarship and Bursary from the Croatian Ministry
for Science and Technology
1995 B. A. with Honors in Chemistry
Trinity College Dublin, Ireland
Final Mark: II.1
1990 German Abitur
Leibniz Gymnasium Wiesbaden, Germany
Overall Mark: 1.0 (maximum score)
Additional Courses, Awards and Qualications
2014 Successful participation in the Autumn School on
Information Retrieval and Foraging at Schloss Dagstuhl,
Germany
2013 Reviewer for the ACM/IEEE International Conference on
Human-Robot Interaction (HRI 2014)
Since 2011 Programme Committee Member for the CSLP International
Workshops on Constraints and Language Processing
2011 Successful participation in the First International Summer
School on Machine Learning LxMLS in Lisbon, Portugal
2010 Successful participation in the International Summer School
on Neural Networks, Text- and Data-Mining NN2010 at
Porto University, Portugal
2009 Leadership Competence Seminar at Hamburg University
2006 AS Service Excellence Award for a remarkable contribution
to the project success as business process consultant in the
global implementation of a procurement platform
2005 Java Programming Course for Experienced Programmers
2004 IBM Bravo Award for outstanding commitment and
excellent performance as information architecture lead for
Europe on a global automotive employee portal project
2003 IBM Professional Certication as Business Consultant
2001 Appointed IBM Patent Facilitator
Beratung und Entwicklung im Bereich der forschungsnahen Text- und Datenanalyse in Hamburg. Ausdrückliches Ziel ist es, neuste Erkenntnisse aus dem Bereich des semantischen Text- und Data-Minings in konkreten, innovativen Projekten zur Anwendung zu bringen. Darüber hinaus: Erbringung umfangreicher Lokalisierungsdienstleistungen für alle europäischen Zielsprachen.
Inhaltliche Schwerpunkte auf Anwendung von maschinellen Lernverfahren auf große, unstrukturierte Datenmengen (Big Data), der Entwicklung semantischer Suchsysteme sowie der Integration von wissensbasierten Systemen (Ontologien) in die Verarbeitung und Analyse von natürlicher Sprache.
Crawlen, Aggregieren, Konvertieren und Analysieren von großen Text- und Datenmengen. Semantische Erschließung von strukturierten und unstrukturierten Daten. Typische Anwendungsbereiche sind die Nutzer-bezogene, intelligente Bereitstellung großer Dokumentmengen, die automatisierte Klassifizierung von Texten, die Erkennung von e-Commerce-relevanten Thementrends in Social Media, die domänenspezifische Informationsextraktion aus Fließtext sowie die Sentiment-Erkennung in User-generated Content.
Stichworte:
Kein spezifischer Branchenfokus.
Regelmäßige Lokalisierung und linguistische Qualitätssicherung der Anwenderdokumentation in amerikanischem
Englisch für die monatlichen Software-Updates. Prototypische Entwicklung von automatisierten
Dokumenterstellungen in MS Word.
Erstellung und kontinuierliche Wartung eines phonetisch annotierten TTS-Lexikons, phonetische Sprachanalyse,
Qualitätssicherung von generierten Aussprachen, Textnormalisierung, grammatische Modellierung (GRXMLGrammatiken).
Entwicklung von Verfahren zur automatisierten Query-Generierung in ElasticSearch. Ziel ist es, für ausgewählte
Unternehmen vollautomatisiert das gesamte deutschsprachige Internet nach thematisch relevanten
Pressemeldungen zu durchsuchen.
Konzeption und Umsetzung eines automatisierten Verfahrens zur Analyse von Social-Media-Posts. Konkret
ist die Zielsetzung des Projekts die gezielte Analyse der Kommunikation in Patientenforen, um spezifische Pharma-
Produkte der Zielgruppe gegenüber kommunikativ besser positionieren zu können.
Beratende Unterstützung in der Erstellung einer NLP-Processing-Pipeline zur Verarbeitung von sprachlich
heterogenen Versicherungstexten. Training statistischer Modelle und Entwicklung einer selektiven Keyword-
Extraktion.
Konzeption, Entwicklung, Deployment und kontinuierlicher Ausbau einer automatisierten Lösung zur effizienten
Datensynchronisierung zwischen global verteilten Unternehmensstandorten.
Prototypische Entwicklung einer Lösung zur Ermittlung von Artikelähnlichkeiten in einem Online-Shop basierend auf
den extrahierten textlichen Produktbeschreibungen.
Konzeption und Entwicklung eines selbstlernenden Systems zur Abbildung von mehrsprachigen Lieferantentexten
auf intern standardisierte Fehlercodes einer kontrollierten Sprache. Umfangreiche Datenanalyse der Eingangsdaten,
markenspezifische Vorverarbeitung, Feature-Optimierung der maschinellen Lernalgorithmen (Support Vector
Machines) und abschließende formale Performance-Evaluation.
Umfassende grammatische Modellierung von Regeln zur Textnormalisierung und inversen Textnormalisierung für
Text-to-Speech-Systeme und mobile Assistenzsysteme.
Konzeption und Entwicklung einer Lösung zur Erzeugung grammatikalisch korrekter Anzeigentexte basierend auf
Suchanfragen und einer Produktdatenbank. Mehrsprachige Umsetzung für Deutsch und Englisch. Modellierung aller
morphosyntaktischen Abhängigkeiten sowie formaler Constraints.
Methodische und linguistische Beratung für die automatische Sentiment-Erkennung von Facebook-Daten. Roll-out
der entwickelten Lösung in verschiedene Sprachen (EN, FR, ES, AR). Manuelle Annotation von Sentiment-Korpora.
Erfolgreiche Antragsstellung zur Projektförderung durch die Innovationsstiftung der Stadt Hamburg.
Konzeption und Entwicklung einer automatisierten Lösung zur Optimierung des Einsatzes von Online-Marketing-
Budgets auf Facebook. Das Verfahren ermöglicht bereits im Rahmen des Erstellungsprozesses – also noch vor der
eigentlichen Live-Schaltung der Anzeige – anhand der Eigenschaften der Anzeige eine Prognose über deren
voraussichtliche Kosteneffizienz.
Detaillierte technische Konzeption eines Suchalgorithmus zur Bestimmung von bedeutungsähnlichen Worten in
Wikipedia und dem Google-n-Gram-Corpus. Der Algorithmus liefert automatisiert alternative Begrifflichkeiten zur
Suchmaschinen-Optimierung für e-Commerce-Produktdaten.
Entwicklung einer Datenbank als Produkt zur Abbildung von Business-relevanten semantischen Geo-Informationen
wie dem Zusammenhang zwischen Postleitzahl und Stadtteil oder von ist-in-Relationen für über 60.000 Gemeinden,
Stadtteile und Städte in Deutschland. Konzeptioniert ist auch die Integration von Straßen und Hausnummern.
Entwicklung von kollaborativen Recommender-Systemen mit unterschiedlichen Empfehlungsstrategien basierend
auf dem Download-Verhalten von Kunden sowie den inhaltlichen Eigenschaften der herunter geladenen und der
noch verfügbaren Dokumente. Systematische quantitative Evaluation der Empfehlungsqualität.
Konzeption und Umsetzung einer automatisierten Lösung zur Ermittlung von Produktähnlichkeit im e-Commerce
anhand der Produktbeschreibungstexte. Systematische Auswertung der Bewertungsgenauigkeit.
Prototypische Entwicklung eines automatisierten Genre-Klassifikators von Kinofilmen basierend auf den textlichen
Beschreibungen der Handlung. Training des Klassifikators auf den Beschreibungstexten von als 300.000 Filmen mit
über 34 Mio. Wörtern. Systematische Auswertung der Klassifikationssgenauigkeit für zwei unterschiedliche
Klassifikationsalgorithmen.
Verbindung von hochperformanten Webtechnologien mit computerlinguistischen Analysefunktionen zur
Extraktion relevanter Markennamen aus Logdateien von Suchanfragen im Bereich e-Commerce.
Entwicklung von Web-Crawlern zur gezielten Sammlung von Forumsinhalten. Automatisiertes POS-Tagging
und umfangreiche Frequenzanalysen über den gesammelten Daten. Entwicklung einer Lösung zur automatisierten
Extraktion und morphologischen Zerlegung von 40.000 Nominalkomposita.
Entwicklung von Klassifikationsverfahren basierend auf maschinellem Lernen (Deep Learning) für die Analyse
komplexer Analysedaten als Basis von operativen Entscheidungen
Entwicklung eines technischen Prototypen zur Abbildung der gesamten Verarbeitungskette vom Crawling der
Stellenanzeigen über die linguistische Vorverarbeitung hin zur semantischen Erschließung der Daten basierend
auf einer Domänen-Ontologie und Indizierung in solr.
Beratung und Konzeption für die Automatisierung der Erkennung von neuen Technologie-Trends im Web (Big Data
Information Retrieval). Erfolgreiche Antragsstellung zur Projektförderung durch die Innovationsstiftung der
Stadt Hamburg.
Beratung in der Umstrukturierung der Daten in der Wissensbasis für die Analyse-Engine eines automatisierten
Dialogsystems. Entwicklung von Analyse-Applikationen zur Auswertung der bestehenden Lösung und des Lexikons.
Erstellung von phonetischen Transkriptionen für In-Car Sprachsteuerungssysteme. Entwicklung von Software-
Lösungen zur Automatisierung des Transkriptionsprozesses (Grapheme-to-Phoneme Conversion).
2006 ? 2010
Promotionsstipendiat der Deutschen Forschungsgemeinschaft (DFG)
CINACS Graduierten Kolleg, Fachbereich Informatik an der Universität Hamburg
Entwicklung eines Java-basierten Frameworks zur semantischen Analyse von mehrdeutigen Sätzen unter
Einbeziehung ontologischer Wissensrepräsentationen (OWL-Ontologien). Erstellung von semantischen Annotationen
und umfangreichen Textdatensammlungen (Corpora), ontologische Wissensmodellierung, syntaktisches und
semantisches Dependenz-Parsing.
Eingesetzte Technologien: Java, OWL, Bash, Perl, XML, WCDG.
2006 Three-year full PhD scholarship award from the German
Research Foundation (DFG) for participation in the
International Graduate Research Group (CINACS) on the
cognitive aspects of cross-modal communication. Academic
collaboration with Tsinghua University, Beijing, China.
1998 Master of Letters in Linguistics with merit
University of Sydney, Australia
Overall Mark: High Distinction
1997 Diploma in Croatian Language, Literature and Culture
Zagreb University, Croatia
Final Mark: High Distinction Plus
1996 Full Scholarship and Bursary from the Croatian Ministry
for Science and Technology
1995 B. A. with Honors in Chemistry
Trinity College Dublin, Ireland
Final Mark: II.1
1990 German Abitur
Leibniz Gymnasium Wiesbaden, Germany
Overall Mark: 1.0 (maximum score)
Additional Courses, Awards and Qualications
2014 Successful participation in the Autumn School on
Information Retrieval and Foraging at Schloss Dagstuhl,
Germany
2013 Reviewer for the ACM/IEEE International Conference on
Human-Robot Interaction (HRI 2014)
Since 2011 Programme Committee Member for the CSLP International
Workshops on Constraints and Language Processing
2011 Successful participation in the First International Summer
School on Machine Learning LxMLS in Lisbon, Portugal
2010 Successful participation in the International Summer School
on Neural Networks, Text- and Data-Mining NN2010 at
Porto University, Portugal
2009 Leadership Competence Seminar at Hamburg University
2006 AS Service Excellence Award for a remarkable contribution
to the project success as business process consultant in the
global implementation of a procurement platform
2005 Java Programming Course for Experienced Programmers
2004 IBM Bravo Award for outstanding commitment and
excellent performance as information architecture lead for
Europe on a global automotive employee portal project
2003 IBM Professional Certication as Business Consultant
2001 Appointed IBM Patent Facilitator
Beratung und Entwicklung im Bereich der forschungsnahen Text- und Datenanalyse in Hamburg. Ausdrückliches Ziel ist es, neuste Erkenntnisse aus dem Bereich des semantischen Text- und Data-Minings in konkreten, innovativen Projekten zur Anwendung zu bringen. Darüber hinaus: Erbringung umfangreicher Lokalisierungsdienstleistungen für alle europäischen Zielsprachen.
Inhaltliche Schwerpunkte auf Anwendung von maschinellen Lernverfahren auf große, unstrukturierte Datenmengen (Big Data), der Entwicklung semantischer Suchsysteme sowie der Integration von wissensbasierten Systemen (Ontologien) in die Verarbeitung und Analyse von natürlicher Sprache.
Crawlen, Aggregieren, Konvertieren und Analysieren von großen Text- und Datenmengen. Semantische Erschließung von strukturierten und unstrukturierten Daten. Typische Anwendungsbereiche sind die Nutzer-bezogene, intelligente Bereitstellung großer Dokumentmengen, die automatisierte Klassifizierung von Texten, die Erkennung von e-Commerce-relevanten Thementrends in Social Media, die domänenspezifische Informationsextraktion aus Fließtext sowie die Sentiment-Erkennung in User-generated Content.
Stichworte:
Kein spezifischer Branchenfokus.
Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.