- Softwareentwicklung (R, Python)
- Analyse von Genomikdaten für große Studien
- Processierung und statistisches- und Performancebenchmarking von Analysepipelines in der Cloud
- Visualisierung, reporting
Evaluation and extension of Omics analysis pipelines. Data analysis, testing, software development, visualisation and reporting.
Entwicklung einer neuartigen Hochdurchsatzpipeline für long- und short-read Sequenzierdaten in AWS.
Datenaufbereitung, Qualitätskontrolle, Entwicklung von Algorithmen.
Konzeptionierung, Umsetzung, Simulation, Testen, Datenanalysen und Benchmarking der Infrastruktur.
Datenanalysen, Datenengineering, Auswertungen und Modellierung für eine der führenden Banken Deutschlands.
Implementierung eines neuen Machine Leaning Modells für eine Anwending im Privatkundengeschäft. Zusammenarbeit mit den externen sowie hauseigenen Analysten, Data Scientists und IT-Experten. Aufbereitung der Rohdaten, explorative Analysen, Visualisierungen und Strukturierung der Daten.
Entwicklung eines ultraschnellen Algorithmus (10.000x Effizienz) der eine neuartige statistische Analyse von Sequenzdaten ermöglicht, Implementierung in C/C++, Anwendung auf genomische Studien zur Untersuchung von Erbrankheiten.
Projektleitung und Projektentwicklung, Data Science, Big Data, Entwicklung von ultraschnellen Algorithmen und statistischen Methoden, Computation. Interdisziplinäre Kommunikation, Visualisierung, Präsentation, wissenschaftliches Schreiben.
Assoziationsanalyse in Big Genomic Data, Einfluss von seltenen genomischen Varianten auf Vererbbarkeit von Krankheiten, Regressionsmodelle, Monte-Carlo Simulationen, Resampling-Methoden, Statistik, Algorithmen, Anwendungsentwicklung
Analyse von großen genomischen und Transkriptomischen Assoziationsstudien, Anwendungs- und Systemprogrammierung, wissenschafltiches Schreiben. Internationale Kollaborationen, überwiegend in der Alzheimer- und Krebsforschung.
Auswertung einer großen Krebsstudie, Exomsequenzierung, Entwicklung einer Analysepipeline, know-how Transfer, davon 8 Monate vor Ort in Berlin
Theoretische statistische und mathematische Physik, skaleninvariante Systeme, Quantenfeldtheorie
Vertiefung der Mathematik und theoretischen Physik (Differentialgleichungen, Simulation, Astrophysik)
AWS, Data Engineering, Data Science, Bioinformatics, Biostatistics, Software Development
Biotechnologie, Pharma, Life Science, Finanzen
- Softwareentwicklung (R, Python)
- Analyse von Genomikdaten für große Studien
- Processierung und statistisches- und Performancebenchmarking von Analysepipelines in der Cloud
- Visualisierung, reporting
Evaluation and extension of Omics analysis pipelines. Data analysis, testing, software development, visualisation and reporting.
Entwicklung einer neuartigen Hochdurchsatzpipeline für long- und short-read Sequenzierdaten in AWS.
Datenaufbereitung, Qualitätskontrolle, Entwicklung von Algorithmen.
Konzeptionierung, Umsetzung, Simulation, Testen, Datenanalysen und Benchmarking der Infrastruktur.
Datenanalysen, Datenengineering, Auswertungen und Modellierung für eine der führenden Banken Deutschlands.
Implementierung eines neuen Machine Leaning Modells für eine Anwending im Privatkundengeschäft. Zusammenarbeit mit den externen sowie hauseigenen Analysten, Data Scientists und IT-Experten. Aufbereitung der Rohdaten, explorative Analysen, Visualisierungen und Strukturierung der Daten.
Entwicklung eines ultraschnellen Algorithmus (10.000x Effizienz) der eine neuartige statistische Analyse von Sequenzdaten ermöglicht, Implementierung in C/C++, Anwendung auf genomische Studien zur Untersuchung von Erbrankheiten.
Projektleitung und Projektentwicklung, Data Science, Big Data, Entwicklung von ultraschnellen Algorithmen und statistischen Methoden, Computation. Interdisziplinäre Kommunikation, Visualisierung, Präsentation, wissenschaftliches Schreiben.
Assoziationsanalyse in Big Genomic Data, Einfluss von seltenen genomischen Varianten auf Vererbbarkeit von Krankheiten, Regressionsmodelle, Monte-Carlo Simulationen, Resampling-Methoden, Statistik, Algorithmen, Anwendungsentwicklung
Analyse von großen genomischen und Transkriptomischen Assoziationsstudien, Anwendungs- und Systemprogrammierung, wissenschafltiches Schreiben. Internationale Kollaborationen, überwiegend in der Alzheimer- und Krebsforschung.
Auswertung einer großen Krebsstudie, Exomsequenzierung, Entwicklung einer Analysepipeline, know-how Transfer, davon 8 Monate vor Ort in Berlin
Theoretische statistische und mathematische Physik, skaleninvariante Systeme, Quantenfeldtheorie
Vertiefung der Mathematik und theoretischen Physik (Differentialgleichungen, Simulation, Astrophysik)
AWS, Data Engineering, Data Science, Bioinformatics, Biostatistics, Software Development
Biotechnologie, Pharma, Life Science, Finanzen