Fachlicher Schwerpunkt dieses Freiberuflers

Java Software Entwicklung und Architektur: Big Data, Hadoop, NoSQL, Data engineering, Suchmaschinen, Information retrieval, Machine learning, Linux

verfügbar ab
15.10.2019
verfügbar zu
100 %
davon vor Ort
100 %
PLZ-Gebiet, Land

D1

Kontaktwunsch

Ich möchte bevorzugt für Projekte in diesen Einsatzorten kontaktiert werden.

Position

Kommentar
  • Data engineer
  • Software engineer
  • Software architect
  • Machine learning engineer
  • Consultant

Projekte

01/2019 - 06/2019

6 Monate

Architektur und Entwicklung

Rolle
Architect, Lead developer, Software engineer, Data engineer
Kunde
Sportradar Media Services GmbH / Sportradar GmbH
Einsatzort
Wien
Projektinhalte

Architektur und Entwicklung einer Data Management Platform (DMP) zur Verarbeitung von Click-Stream Daten und zur User-Segmentierung.

Aufgaben:

Konzeption und Implementierung einer Lambda-Architektur zur skalierbaren Aufnahme von Click-Stream Daten und Erstellung von Audience-Segmenten auf einem Kubernetes Cluster, mit folgenden Schwerpunkten:

  • Streaming-Pipeline zur Aufnahme, Transformation, Validierung & Filterung und Persistierung von Click-Stream Daten. (Spring Boot 2, Microservices, Kubernetes, S3, Kafka)
  • Spark-basierende Batch-Jobs zur Ermittlung von Cookie-
    Labels und Berechnung der Segmente mit verschiedenen Auspr¨agungen und verschiedenen Wahrscheinlichkeiten (Cassandra, Spark, S3, Kafka).
  • Indizierung der Segmente zur schnellen Berechnung der Kardinalit ¨ at von kombinierten Audience-Segmenten (Spark, ElasticSearch, Spring Boot 2, Cassandra, Kafka).
  • Entwicklung und Anpassung verschiedener Helm-Charts für die SB-Microservices und Tech-Infrastruktur (Helm, Kubernetes, Cassandra, ElasticSearch, Kafka, Zookeeper, Prometheus, Grafana).
Kenntnisse

Java 8

Big Data

Kubernetes

Continuous integration

Scrum

AdTech

Java

Spark

Spring Boot 2

Kubernetes

ElasticSearch

S3

Kafka

Zookeeper

Grafana

Prometheus

Helm

Jira

Git

Gitlab

IntelliJ

Maven

11/2017 - 06/2018

8 Monate

Entwicklung einer skalierbaren Pipeline

Rolle
Data engineer, Software engineer
Kunde
Otto GmbH & Co. KG
Einsatzort
Hamburg
Projektinhalte
  • Entwicklung einer skalierbaren Pipeline zur Aufnahme, Verarbeitung und Auslieferung von Massen-Bilddaten
  • Entwicklung der neuen, zentralen Plattform und Pipelines zur Verarbeitung und Auslieferung von Bildern und Metadaten. Aufgaben waren unter Anderem:
    • Erstellung diverser Spark-Streaming Jobs (Kafka/
      Hbase/SolR/HDFS), z.B. query-basierende (SolR)
      Auslieferung von skalierten und annotierten Bildern,
      Metadaten(re)indizierung, Aufnahme von neuen Metadaten.
    • Erstellung einer skalierbaren, Spring-Boot basierenden
      Server-Applikation zum Prozessieren (Validierung, Normalisierung, Standardisierung, Skalierung), Indizieren (Metadaten) und Persistieren von Bildern.
    • Erstellung einer Spring-Boot basierenden Client-Applikation
      zum Erfassen und U¨ bertragen der Bilder.
    • Anbindung von deep-learning basierenden subflows zur Metadatengenerierung.
    • Anbindung von legacy subflows mit Bildern und Metadaten.
    • Docker-compose basierendes Test- und Produktivenvironment mit diversen images/container (HBase, Kafka, SolR, Zookeeper, Consul, Grafana, Prometheus, Zookeeper).
Kenntnisse

Java 8

Big Data

Hadoop

Image Processing

Continuous integration

Produkte

Java

Spark/Spark (Structured) Streaming

SolR

Spring Boot

HBase

Kafka

Zookeeper

Consul

Grafana

Prometheus

Atlassian Tool Suite (Bitbucket

Jira))

Git

Jenkins

IntelliJ

Maven

11/2016 - 09/2017

11 Monate

Entwicklung eines Produktes

Rolle
Data engineer, Machine learning engineer
Kunde
GfK SE
Einsatzort
Berlin
Projektinhalte

Entwicklung eines Produktes zur Verarbeitung großer Datenmengen im Kontext AdTech/Market Research

  • Verarbeitung von großen Datenmengen im Kontext von AdTech und Market Research (Details unter NDA):
  • Requirements engineering mit Anforderungen von Produktmanagern und Data Scientists, Erarbeitung von verschiedenen Lösungskonzepten und eines Technologiestacks für die technische Realisierung
  • Design, Implementierung, Build, Dokumentation, Test, Deployment, Troubleshooting und Ende-zu-Ende Mo-
    nitoring einer big-data Lösung, die täglich mehrere TBs auf-
    nimmt und verarbeitet (Java Spark, AWS (EMR, EC2, S3, Glacier, DynamoDB, CloudWatch), Atlassian Tool Suite (Stash, Bamboo))
  • Operationalisierung von prototypischen ML Methoden, die durch das GfK Data Science Team entwickelt wurden (R → Java Spark, PySpark, SparkMLlib)
  • Vorantreiben des Feature-Engineering Prozesses in enger Zusammenarbeit mit dem Data-Science Team und Anbindung und Integration neuer Datenquellen (Java Spark, PySpark, S3)
  • Unterstützung bei Daten-Integrationsaufgaben in Abstimmung mit Engineering Teams von Fremdfirmen.
Kenntnisse

Java 8

Python

Big Data

Algorithmen

Predictive Analytics

AdTech

Market Research

Continuous integration

Kanban

Produkte

Spark (Java)

PySpark

MLlib

EMR

EC2

S3

Glacier

DynamoDB

CloudWatch

Stash

Bamboo

Jira

Git

IntelliJ

Maven

01/2015 - 05/2017

2 Jahre 5 Monate

PaaS

Rolle
Software-, Data- & DevOps engineer / Software Architect
Kunde
Unternehmen in Gründung
Einsatzort
Freiburg und Berlin
Projektinhalte
  • PaaS: Kundenspezifischer vertikaler Webcrawler und Dataminer
  • Entwicklung und Architektur einer PaaS:
    • Kundenspezifischer Webcrawler und Dataminer
    • Vertikale SE
    • Crawling und Indizierung von URLs und Domains
    • Graph-, NLP-, ML- und Regexbasierendes Datamining
    • REST-basierende Webservices.
Kenntnisse

Java 8

NLP

Machine learning

Big Data Analytics

Clustering

Classification

Explicit Semantic Analysis

Continuous Integration

Produkte

Spark

Yarn

Storm

Eclipse

Git

Maven

Titan

ElasticSearch

Ansible

Cassandra

Kafka

Spring

Stanford CoreNLP

09/2015 - 08/2016

1 Jahr

Entwicklung advertiser campaign setup tool

Rolle
Data engineer, Software engineer
Kunde
Zalando SE
Einsatzort
Berlin
Projektinhalte
  • Entwicklung advertiser campaign setup tool mit feingranularer, zielgruppengenauer Werbeausspielung
  • Data analysis und enrichment und von Double Click Campaign Manager (DCM) Daten und proprietären Datenquellen:
    • Erzeugung von diversen custom audiences (Spark / EMR / S3/ Parquet) für Kampagnenausspielung in DoubleClick for Publishers (DFP)
    • Implementierung eines auktionsbasierenden forecast-Mechanismus (probabilistische counter) zur CPM-Maximierung, unter Berücksichtigung von konkurrierenden Kampagnen und überlappenden audience-Segmenten.
    • Implementierung einer Spring-Boot-Applikation zur Kommunikation und Weitergabe von analysis data an das Frontend (docker, REST, Swagger, Spring Boot, stups, aws cloud). Entwicklung von diversen data analysis jobs (produktiv und prototypisch) zur Bestimmung von Kontrollgruppen (und uplifts), similar brands, Visitor-Aggregationen, Cookie-Alignment (Spark/EMR/S3/Parquet).
Kenntnisse

Java 8

Big Data Analytics

Algorithmen

MapReduce

Audience targeting

Audience matching

Clustering

Collaborative filtering

Probabilistic counter

Continuous integration

Scrum

Kanban

Produkte

Spark

Hadoop/Yarn

HDFS

Amazon Elastic MapReduce

AWS

S3

Docker

Stups

DCM

DFP

Jenkins

Atlassian JIRA

Git

Eclipse

IntelliJ

Maven

04/2015 - 07/2015

4 Monate

Rollout Hortonworks BD Cluster

Rolle
Data engineer, DevOps engineer
Kunde
ING-DiBa AG
Einsatzort
Frankfurt am Main
Projektinhalte

Rollout Hortonworks BD Cluster für Data Scientists

  • Testdeployment einer Big data Infrastruktur (Hortonworks, Ambari, Docker, Vagrant, Bash). Finale Planung für die Provisionierung des Clusters (Rechtemanagement, Security (Firewall), Authentifizierung und Autorisierung, Directory Services Anbindung (AD/LDAP/Kerberos), Terminal Server, sichere Einbindung von Softwarekomponenten und Repositories)
  • Training und Beratung der Data scientists zur horizontalen Skalierung von single/shared memory Implementierungen (Spark, Hive, Hadoop/Yarn) und zum Einsatz von Continuos integration (Git, Jenkins).
Kenntnisse

Java 8

Continuous Integration

Terminal Server

Scrum

Virtualisierung

MapReduce

Big Data Analytics

Produkte

Docker

Vagrant

Hortonworks

Ambari

Spark

Git

Hadoop/Yarn

Hive

LDAP

Kerberos

FreeIPA

02/2014 - 12/2014

11 Monate

Entwicklung

Rolle
Software engineer, Data engineer, Software Architect
Kunde
iQser GmbH
Einsatzort
Wiesbaden
Projektinhalte

Entwicklung einer hochskalierbaren semantischen Middleware

  • Entwicklung und Architektur einer big-data Plattform zur dynamischen Vernetzung und Analyse unstrukturierter Daten.
  • Entwicklung der inkrementellen Algorithmik (NLP, hazelcast MR, elasticsearch, Cassandra); Analyse, Transformation und Persistierung der abgeleiteten Daten in eine verteilte Graphdatenbank (Titan, Gremlin, Tinkerpop/Blueprints)
  • Entwicklung von performanten Batch-jobs (Hadoop MR, Faunus, TitanHadoop).
Kenntnisse

Java

Shell-Script

SQL

Gremlin

XML

NoSQL

SOAP

REST

Spring (Batch

Boot

Core)

Lucene

ElasticSearch

Natural Language Processing

SCRUM

Continuos Integration

HDFS

MapReduce

DAO/ORM

Produkte

Eclipse

Ant

Maven

Subversion

Git

Gitorious

JUnit

EasyMock

ActiveMQ

Hudson

Titan

Faunus

Cassandra

Hadoop

MySQL

Hibernate

OpenNLP

03/2013 - 01/2014

11 Monate

Architektur und Entwicklung

Rolle
Software engineer, Data engineer, Software architect
Kunde
Startup
Einsatzort
Freiburg
Projektinhalte

Architektur und Entwicklung einer spezialisierten und verteilten Suchmaschinenanwendung für SEO-Dienstleistungen

Suchmaschine:

  • Crawling
  • Parsing
  • Indexing mit Hadoop/Map-Reduce-Jobs
  • Storage in HDFS u. HBase (content)
  • Cassandra (links, tld-zonefiles(domains))
  • Index mit ElasticSearch (diverse doctypes, mappings und indexes)

Frontend:

Entwicklung des Frontends mit GWT

Backend:

  • Dienste als GWT RPC Services und Servlets (REST)
  • Datenbankanbindung der Client/User-Daten
  • Security, Login, Textprocessing mit CoreNLP und Weka
  • Mailing

Client-App:

  • Entwicklung einer Desktop-Applikation mit Java FX
  • Browsersteuerung via Selenium
  • Backend-Kommunikation via JSON/servlets
  • Steuerung mehreren Browser- Instanzen
  • Lokale Datenverwaltung mit SQLite
  • Schneller Crawler für client URLs
Kenntnisse

Java

MapReduce

Natural Language Processing

Machine Learning

SQL & NoSQL

XML/XSD

Shell-Script

Python

JavaScript

SQL

FXML

& Kontext UiBinder XML

CSS

HTML

DAO/ORM

WebServices

MVC

Produkte

Hadoop

HDFS

Hive

Mahout

Stanford CoreNLP

GWT

Tomcat

MySQL

Cassandra (thrift

CQL3)

HBase

Hive

Pig

JSP

Hibernate

JavaMail

Weka

Mahout

Lucene

NetBeans

01/2009 - 12/2012

4 Jahre

Administration Linux-Cluster

Rolle
Administrator
Kunde
Universität Freiburg, Lehrstuhl für Simulation
Einsatzort
Freiburg
Projektinhalte

Beschaffung, Aufbau und Administrierung eines Linux HPC-Clusters (shared und distributed memory, grid).

Kenntnisse

GPGPUNodes

Failover-Fileserving

UPS

Produkte

Shell-Script

Python

Grid (Sun Grid Engine)

Apache Httpd

CMS (Zope/Plone

WordPress)

FTP

DNS (Bind)

LDAP

Samba

NFS

Wiki (DokuWiki

MoinMoin)

Virtualisierung (VirtualBox

qemu

VMWare)

06/2009 - 06/2012

3 Jahre 1 Monat

Entwicklung eines Multiphysik- Simulators

Rolle
Modellierung, Architektur, Entwicklung
Kunde
Universität Freiburg, Lehrstuhl für Simulation
Einsatzort
Freiburg
Projektinhalte

Entwicklung eines parallelen, partikelbasierenden Multiphysik- Simulators für die numerische Charakterisierung und Analyse schwingender Tropfen

  • Entwicklung eines effizienten, partikelbasierenden Multiphysik-Simulators im DFG-Projekts “Electrowetting-Simulation mit Partikelmethoden”:
    • numerische Simulation von kleinen Tropfen, welche
      mittels elektrischer Felder bewegt werden

Schwerpunkte:

  • diskrete Simulation
  • physikalische Modellbildung
  • numerische Charakterisierung
  • scientific computing

Implementierung:

  • modulare Klassenhierarchien für Kräfte, Integratoren, Paarlistenberechnung und Interaktoren
  • Adaptivität und verschiedene solver für die Lösung von linearen Gleichungssystemen. Optimierter und parallelisierter Code
Kenntnisse

Agile Softwareentwicklung (SCRUM)

Smoothed Particle Hydrodynamics

Dissipative Particle Dynamics

Smoothed Dissipative Particle Dynamics

Moving Least Squares

Lineare Gleichungssysteme

Hydrodynamik

Elektrostatik

Partielle Differentialgleichungen

Statistik

Produkte

Java

C++

JUnit

Ant

SVN

Netbeans

ProGuard (Obfuscation)

Trac

Linux

03/2009 - 09/2009

7 Monate

Entwicklung von Modulen

Rolle
Entwickler
Kunde
Universität Freiburg, Lehrstuhl für Simulation
Einsatzort
Freiburg
Projektinhalte

Entwicklung von Modulen für ein partikelbasierendes Simulatoren- Framework

  • Kopplung an Finite-Elemente Löser, effiziente Lösung schwachbesetzter lineare Gleichungssysteme
  • Partikel-Feld-Kopplung für Navier-Stokes-Gleichungen und Elektrostatik
  • Kopplung von mesoskopischer und makroskopischer Skala.
Kenntnisse

Smoothed Particle Hydrodynamics

Finite Element Method

Lineare Gleichungssysteme

Hydrodynamik

Elektrostatik

Partielle Differentialgleichungen

Produkte

C++

Java

JUnit

SVN

Netbeans

Eclipse

Emacs

Linux

10/2005 - 06/2008

2 Jahre 9 Monate

Entwicklung eines proprietärer design flows

Rolle
Entwickler, Architekt
Kunde
Micronas GmbH
Einsatzort
Freiburg
Projektinhalte
  • Entwicklung und Erweiterung eines proprietären semicustom Designflows (Java, Perl, C)
  • Reporting, Versionierung (CVS, SVN) und Issuetracking (bugzilla)
  • Erarbeitung des Flowschnittstellendesigns
  • Multisite Daten-Management und -Releasing
  • Versionskontrolle der Flow-Daten
  • EDA-Tool-Einbindung
  • hierarchische XML-basierende Konfiguration
  • Erstellung von Dokumentation (Manuals, Man-Pages, Javadoc) und Tests (JUnit, Perl)
Produkte

Java

Perl

C

Python

PHP

XML/XSD

SQL

JUnit

Bugzilla

MySQL

Netbeans

Eclipse

Emacs

CVS

Linux

Swing

11/2007 - 03/2008

5 Monate

Entwicklung eines SystemC Simulators

Rolle
Entwickler, Architekt
Kunde
Micronas GmbH
Einsatzort
Freiburg
Projektinhalte

Entwicklung eines performanten SystemC-Simulators für den Mikrocontroller m8051ew mit vollständiger Abdeckung des Microcodes/Befehlssatzes

Produkte

C++

Assembler

SystemC

Emacs

CVS

Linux

12/2006 - 06/2007

7 Monate

Migration/Entwicklung Projekte Datenbank

Rolle
Redesign, Entwicklung
Kunde
Micronas GmbH
Einsatzort
Freiburg
Projektinhalte
  • Migration/Entwicklung einer Online-Datenbank (PHP ! Java Server Faces, TXT ! MySQL/Oracle) für die Projekteverwaltung
  • Erweiterung einer webbasierten Designflow-Projekte-Datenbank zur übergreifenden Dokumentation von Teilprojekten, Releases/IPs und automatisierter Validierung (Perl/Python-Scripts).
Produkte

Java

Perl

Python

PHP

XML/XSD

SQL

SQL

JavaEE/JEE

MVC

JSF

Linux

Tomcat

Bugzilla

MySQL

Oracle

Eclipse

Emacs

CVS

01/2004 - 09/2005

1 Jahr 9 Monate

Entwicklung von Simulatoren-Komponenten

Rolle
Entwickler, Architekt
Kunde
Universität Freiburg
Einsatzort
Freiburg
Projektinhalte
  • Implementierung von Modellen mit der Finite Elemente und Finite Volumen Methode
  • Implementierung einer mesoskaligen Partikel-Feld Kopplung
Produkte

C++

FEM

FVM

Diffpack

OpenFOAM

Linux

03/2005 - 07/2005

5 Monate

Entwicklung einer Geoinformationssystem- Anwendung

Rolle
Entwickler
Kunde
IVU Umwelt GmbH
Einsatzort
Freiburg
Projektinhalte

Entwicklung einer GUI, Implementierung verschiedener Klassen für die Berechnung und Darstellung von Geo-Daten

Produkte

C#

esri ArcGIS

Windows

04/2003 - 06/2003

3 Monate

Entwicklung/Migration einer Anwendung für Simulationsdaten

Rolle
Entwickler
Kunde
Universität Freiburg
Einsatzort
Freiburg
Projektinhalte
  • Entwicklung und Migration einer Anwendung für Simulationsdaten
  • Import, Verarbeitung und Export von Geometrie und Meßpunkten von ANSYS-Simulationsdaten (Pre/Post-Processing)
Produkte

C++

Fortran

Ansys

Linux

07/2002 - 09/2002

3 Monate

Komponenten für Prozess/Leitsteuerungssoftware

Rolle
Entwickler, IAESTE Praktikant
Kunde
IHM Ltda.
Einsatzort
Belo Horizonte
Projektinhalte
  • Mitarbeit in der Entwicklung von Leit- / Prozeßsteuerungssoftware
Produkte

C

VB

Visual Studio

Windows

08/2001 - 10/2001

3 Monate

MS Windows unattended setup / rollout für SBTerminals

Rolle
Entwickler
Kunde
EXET AG
Einsatzort
Karlsruhe
Projektinhalte
  • Windows unattended setup für autonome, gesicherte SBSysteme/Terminals für verschiedene Zielapplikationen
  • Entwicklung von DLLs (MFC) und Einbindung mittels proprietärer Makros.
Produkte

C/C++

Script

MFC

Makrorecorder

Windows

Branchen

  • E-Commerce
  • IT-Dienstleistungen
  • Forschung
  • Industrie-Dienstleistungen
  • Medien
  • Umwelt/Gesundheitswesen
  • Konsumgüter/Halbleiter

Kompetenzen

Sprachkenntnisse
Deutsch
Muttersprache
Englisch
fließend
Französisch
fortgeschrittene Grundkenntnisse
Portugiesisch
Grundkenntnisse
Serbokroatisch
Grundkenntnisse
Spanisch
fließend

Schwerpunkte
Information retrieval
Java Software Entwicklung und Architektur
Big Data, Hadoop, NoSQL, Data engineering
Linux
Machine learning
Suchmaschinen

Programmiersprachen
Assembler
Bash/Shell
C#
C/C++
Gremlin
Java 8
Perl
PHP
Python

Datenbanken
Cassandra
Graph-Datenbanken
HBase
Hive
MySQL
Neo4J
NoSQL
Oracle
PostgreSQL
SQL
Titan

Produkte / Standards / Erfahrungen
Amazon EC2
Ansible
Datastax DSE
Elastic MapReduce (EMR)
ElasticSearch
Git
Hadoop
Hamcrest
HDFS
Hortonworks
Jenkins
JUnit
Kafka
Kanban
Lucene
Maven
Mockito
S3
Scrum
SEO
Viel Erfahrung in Suchmaschinenoptimierung / SEO und Entwicklung entsprechender Client-Tools
Spark
Spark-ML
Spark-Streaming
Spring Boot
Spring Core
Stanford CoreNLP
Storm
Stups
Trident
Yarn
Zookeeper

Software-Entwicklung

  • Produkte: Git, Subversion, CVS, Ant/Ivy, Maven, Jenkins, Hudson, JUnit, Mockito, EasyMock, jMock, Hamcrest, Gitorious, Gitlab
  • Methoden: Test-Driven-Development, Objektorientierte Programmierung (OOP, OOD), Continuous Integration, MVC, UML, DAO/ORM, Design Patterns (Entwurfsmuster), agile Softwareentwicklung (Scrum, Kanban)

Hadoop & Friends

  • Produkte: Spark, Hadoop, Hortonworks, Yarn, HDFS, Zookeeper, Datastax DSE, Pig
  • Methoden: Large scale data processing, MapReduce

Streaming

Produkte: Kafka, Storm / Trident, Spark-Streaming

Frameworks & API

  • Produkte: Spring Core, Spring Boot, Spring Batch, Spring Security, Hibernate, JPA
  • Methoden: Dependency Injection, REST, JWT, JMS Message Queuing

Machine learning

  • Produkte: Spark-ML, Hadoop/Yarn/MapReduce, Mahout, Weka
  • Methoden: Clustering, Classification, Regression; Collaborative filtering, Predictive analytics

Information retrieval

  • Produkte: ElasticSearch, Lucene, Nutch, Stanford CoreNLP, OpenNLP
  • Methoden: Natural Language Processing (NLP), TFIDF similarity und Varianten, Latent Dirichlet Allocation, Latent Semantic Indexing (LSI/LSA/SVD), Clustering & Dimensionality reduction

Cloud

Produkte: Amazon EC2, Elastic MapReduce (EMR), Stups, S3, Amazon Mechanical Turk, Google Cloud Storage

Administration

  • Automation: Ansible, Puppet
  • Hardware: Cluster-Computing, GPGPU-Computing, Storage, Virtualisation (VirtualBox, VMWare, KVM)
  • Services: Apache Httpd, Tomcat, MySQL, Hadoop, HBase, Zookeeper, elasticsearch, Storm, Cassandra, CMS (Zope/Plone, WordPress), FTP, DNS(Bind), LDAP, Samba, NFS, Wiki (DokuWiki, MoinMoin)

Web-Entwicklung

  • Produkte: Google Web Toolkit, Selenium, HtmlUnit, Java Server Faces, JavaFX
  • Methoden: TCP/IP, Internet, OSI

Computational physics & fluid dynamics

  • Analytics and Physics: Modelling, physics & fluid dynamics multiphysics/multiscale-simulation, fluid dynamics, statistics, electrostatics, heat conduction, stress/strain
  • Algorithms and numerics: Particle methods (smoothed particle hydrodynamics, (smoothed) dissipative particle dynamics, moving least squares), PDGL, continuum methods (finite elements, finite differences, finite volume), spherical harmonic functions, efficiently calculating systems of linear equations, simulated annealing
  • Tools: Mathematica, openFOAM, Diffpack, ANSYS, COMSOL Multiphysics

Anmerkung

  • Gerne auch Projekte mit ingenieurwissenschaftlichem (z.B. Signalverarbeitung, Integraltransformationen) und physikalischem Bezug (computational physics, fluid dynamics, s.o.), sofern eine substantielle Üerschneidungen mit meinem beschriebenen fachlichen Schwerpunkt existiert.
  • Linux
    • Ich nutze beinahe ausschließlich Linux seit 2003 (Ubuntu, Debian, Fedora, Redhat, Gentoo), im Zeitraum 2009-2012 als Administrator
  • SEO
    • Ich verf ¨uge ¨uber viel Erfahrung in Suchmaschinenoptimierung/ SEO und Entwicklung entsprechender Client-Tools.
  • Background
    • Gerne auch Projekte mit ingenieurwissenschaftlichem (z.B. Signalverarbeitung, Integraltransformationen) und physikalischem Bezug (computational physics, fluid dynamics, s.o.), sofern eine substantielle U¨ berschneidungen mit meinem beschriebenen fachlichen Schwerpunkt existiert.

2009 - 2012:

Kunde: Universität Freiburg, Technische Fakultät, Institut für Mikrosystemtechnik, Lehrstuhl für Simulation

Rolle: Doktorand, Wissenschaftlicher Mitarbeiter/Doktorand im Bereich Computational Physics/Fluid Dynamics - Entwicklung von Simulatoren

Praktikum:

2002:

Kunde: IHM Engenharia e Sistemas de Automacao Ltda., Belo Horizonte, Brasilien


Betriebssysteme
Linux
Ubuntu, Debian, Fedora, Redhat, Gentoo

Bemerkungen

  • Publikationen gerne auf Anfrage.
  • Konferenzen gerne auf Anfrage.


Ausbildungshistorie

2005:

Ausbildung: Studium Mikrosystemtechnik 

Abschluss: Dipl.-Ing. Mikrosystemtechnik (Gesamtnote: 1,6)

Diplomarbeit:Gerne auf Anfrage

2000 - 2001:

Institution: Universität des Baskenlandes, Fakultät für Informatik, San Sebastian, Spanien

Ausbildung: Erasmus Auslandsstudium


1998 - 2005:

Institution: Universität Freiburg

Ausbildung: Studium Mikrosystemtechnik

×
×