1 von 91.893 IT- und Engineering-Profilen

Fachlicher Schwerpunkt dieses Freiberuflers

Software-Entwickler, Projektleiter, Berater, DataStage, Data Warehouse, Java, J2EE, XML, C++, MDA, DSL, Xtext, Xtend1

verfügbar ab
05.03.2018
verfügbar zu
100 %
davon vor Ort
80 %
PLZ-Gebiet, Land

D0

D1

D2

D3

D4

D5

D6

D7

D8

D9

Österreich

Schweiz

Einsatzort unbestimmt

Position

Projekte

05/2016 - 05/2017

1 Jahr 1 Monat

Migration von Legacy-Systemen nach SAP-GKV

Rolle
ETL-Entwickler
Kunde
Gesetzliche Krankenversicherung
Einsatzort
Wuppertal
Projektinhalte
  • Migration von Legacy-Systemen nach SAP-GKV für die Produkte Pflege, Arbeitsunfähigkeit-Krankengeld, Krankenhaus und Zuzahlung mittels dem ETL-Tool DataStage.
  • Als Code-Basis wurde der Code aus dem Projekt 03/2010-11/2013 verwendet und dann mittels der neuen Konzepte und Modelle für die neuen Anforderungen angepasst.
  • Erstellung von Table-Definitions und OSH-Schemas aus von SAP ausgelesenen DI-Strukturen zur Verwendung in den Datastage-Jobs. Da die Access ODBC-Treiber kein 64-Bit unterstützen und auch in Java 1.8 die JDBC-ODBC-Bridge entfernt wurde, wurde die Datenbasis neu in eine H2-Datenbank überführt.
    Die ausgelesen Strukturinformationen wurden in der Datenbank abgelegt und daraus wurde mittels eines
    Java-Programmes und Freemarker die Table-Definitonen, SQL und OSH-Schemas generiert.
  • Ablauf der Migrationen: Angelieferte Datenbank-Extrakte im
    CSV-Format werden mittels Datenbank-Loads in die Datenbank DB2 eingelesen und dann mittels Datastage-Jobs in DI-Strukturen (Direkt-import) gewandelt welche dann durch Massentransaktionen in SAP verbucht werden.
  • Mittels Python wurde ein Map-Reduce-Script erstellt um parallel Statistiken aus den erzeugten DI-Dateien mittels awk-Scripten zu ermitteln. Für die verschiedenen Produkte musste dann nur noch eine Klasse abgeleitet werden und die entsprechenden Methoden überladen werden.
Kenntnisse

SQL

PL/SQL

Produkte

Microsoft Windows 7

IBM Information Server WebSphere DataStage 11.5

DB2 10.5

C++

Java 1.7

Java 1.8

JDBC

Citrix Terminal Server

Bash

SAP

Freemarker 2.3.24

awk

AIX 7.1

Eclipse 4.5.2

H2 DB-Engine 1.4.192

Microsoft Access 2013

Python 2.6.2

Subversion 1.7.9

Tortoise 1.7.12

Rational Quality Manager 4.0.7

Claims GKV 4.0.5

03/2015 - 05/2016

1 Jahr 3 Monate

Erstellung einer DSL zum verarbeiten von XML-Messages

Rolle
Software-Entwickler
Kunde
Großhandelsunternehmen
Einsatzort
Ingolstadt
Projektinhalte

Es wurde eine Software erstellt, welche eingehende XML-Messages aus einer MessageQueue performant entgegen nimmt, validiert, konvertiert und in eine Datenbank persistiert.

Dazu wurde eine DSL erstellt, welche die eingehenden Daten modellieren kann und zusätzlich datentypbasierte Konvertierungen automatisiert ausführen konnte. Weiterhin wurde die DSL mit Validierungen angereichert. Diese Konvertierungen und Validierungen sind auf Typebene als Fallback anzugeben oder sie können an den modellierten Daten "überladen" werden. Dafür unterstützt die Datenmodellierung Vererbung.

Realisiert wurde das ganze mit xText für die DSL-Erstellung. Daraus wurde dann mit Generatoren Java-Code erstellt, welcher dann unter Wildfly mittels Message-Driven-Beans hochperformant und vor allem parallel und damit skalierbar die XML-Messages validiert und konvertiert hat. Die Messages werden danach im CSV-Format auf der Platte zwischengelagert, wo sie dann asynchron von einer JEE7 Batch Processing Anwendung zusammengefasst werden und in die Datenbank persistiert werden.

Der Durchsatz konnte so gegenüber der Altlösung erheblich gesteigert werden. Und vor allem könnte man später, wenn nötig, den Wildfly clustern um den Durchsatz weiter zu erhöhen.

Um die ganze Infrastruktur, welche zur Entwicklung benötigt wird, auch anderen Entwicklern, welche nicht so tief in der Materie stecken, zur Verfügung zu stellen, wurden mittels VirtualBox virtuelle Maschinen mit CentOS und Docker Containern und eine mit IPFire aufgesetzt. In IPFire lief dann ein Proxy zum cachen von Entwicklungs-Artefakten. In den Docker Containern liefen dann ein Nexus Artefakt Repository zur Verwaltung der Maven und der Eclipse-Plugin Artefakten und ein Wildfly zur Implementierung der Message-Driven-Beans und der Batch-Processing-Anwendung.

Produkte

Eclipse

xText

Wildfly

JEE7

SLES

Windows

Nexus

Artifactory

Maven

IPFire

VirtualBox

Xtend

Docker

Teradata

TIBCO Enterprise Message Service

Java

XML

Squid

HornetQ

ActiveMQ

JSR-352 Batch Processing

XSLT

03/2014 - 11/2014

9 Monate

ETL Bewirtschaftung eines DataWareHouse

Rolle
ETL-Entwickler
Einsatzort
München
Projektinhalte

Erstellung von Datastage-Jobs um neue Produkte in das DataWareHouse zu laden. Implementierung nach Fachkonzept.

Anpassen von existierenden Jobs an neue Produkte. Implementierung nach Fachkonzept.

Fehlerbehebung beim Integrationstest.

Optimierung von Job-Laufzeiten beim Massentest.

Analyse der bestehenden Jobs zur Befüllung der Dimensions-Tabellen. Generalisierung der Jobs zur Bewirtschaftung der Dimensions-Tabellen. Dadurch wird jetzt eine Einsparung von etwa 80 Jobs möglich. Dadurch vor allem Reduzierung der Komplexität und der Fehler-Diversifikation. Einheitliche Behandlung der Dimensionen nach dem Prinzip "Slowly Changing Dimensions".

Kenntnisse

IBM Information Server WebSphere DataStage

SQL

AIX

Shell-Script

Produkte

IBM Information Server WebSphere DataStage 8.7

Windows XP

IBM AIX 6.1

DB/2 9.1

MS Office

Lotus Notes

Subversion 1.8

Tortoise 1.8.6

01/2014 - 03/2014

3 Monate

Review einer bestehenden Web-Anwendung und Erstellung eines Prototyps zur Neuimplementierung mittels Model Driven Architecture

Rolle
Architekt
Einsatzort
Saarbrücken
Projektinhalte

Eine bestehende Web-Anwendung sollte hinsichtlich Performance, Wartbarkeit, Erweiterbarkeit, Skalierbarkeit und Code-Qualität analysiert werden um eine Meinung eines Aussenstehenden zu erhalten. Bei der Analyse wurde dann festgestellt dass durch zu viele gleichzeitig eingesetzte Technologien, welche die gleiche Funktionalität abbildeten, und zu wenig Objektorientierung die Code-Basis sehr schwer wartbar, geschweige denn erweiterbar war. Durch diesen Code-Moloch waren natürlich auch Fehler sehr schwer zu beheben, da diese an mehreren Stellen korrigiert werden mussten. Dazu wurden Metriken ermittelt, Abhängigkeiten analysiert und dokumentiert und toter Code lokalisiert.

Man kam also zu dem Schluss, dass man einen neuen moderneren, zeitgemässeren Ansatz für eine Neuimplementierung haben wollte und man die alte Code-Basis nur noch kurz- bis mittelfristig pflegen aber nicht mehr weiterentwickeln wollte.

Nach Bestimmung der benötigten Funktionalitäten und Auswahl der dazu passenden Architektur wurde ein Prototyp von mir erstellt. Dieser basiert auf Model Driven Architecture und erzeugt den Grossteil des Codes aus einem UML Modell. Er reduziert so also den zu pflegenden Code deutlich. Er ist in Xtend implementiert und kann somit existierenden Java-Code und schon bewährte Funktionalitäten einbinden. Das Framework wurde mit Injection und vollständig objektorientiert aufgebaut. Man könnte also alle Funktionalitäten einzeln austauschen ohne den Rest anzufassen und ohne dass dieser etwas davon merkt.

Die getroffene Wahl der MDA erlaubt es später dann auch den Server-Code zum Großteil aus dem Modell zu generieren.

Als weiteren Punkt für die spätere Weiterentwicklung könnte dann anstatt UML eine eigene DSL benutzt werden, welche die Modellplege deutlich beschleunigen würde und die Generierung von noch komplexeren Code erlauben würde ohne das die bestehende Code-Basis geändert werden müsste, sondern nur der Generierungscode.

Kenntnisse

XML

DTD

XML-Schema

UML

DSL

MDA

Java 6

Java 7

Xtext

Xtend

Xbase

JAXB

JSON

Java EE 6

Produkte

Windows 7

Eclipse Kepler 4.3

MS Office

Lotus Notes

Git

SourceTree

Xtend 2.6

Xtext 2.6

Xbase 2.6

Infinispan 7.0

Checkstyle 6.1

Guice 3.0

jdepend 2.9.1

Castor 1.3.3

gson 2.3.1

JBoss 6.3

JBoss Cache 3.0.0

GWT 2.6

Projekthistorie


Zeitraum      : 03/2010 - 11/2013
Firma/Institut: Gesetzliche Krankenversicherung
Projekt       : - Migration von Legacy-Systemen (DB2 mit Java und
                  Host-Anwendungen) nach SAP-GKV, in der 1.Phase Häusliche
                  Krankenpflege und Pflege und in der 2. Phase
                  Entgeldersatzleistungen, Regress, Reha und Krankenhaus.
                - Die Fachkonzepte wurden von Architekten in UML-Modellen als
                  technische Vorgabe für die Implementierung erstellt.
                  Aufgrund dieser Modelle wurde dann von mir der Aufwand zur
                  Implementierung geschätzt und eine Infrastruktur zur
                  Implementierung innerhalb Datastage angelegt, welche dann von
                  den anderen Entwicklern genutzt werden konnte.
                - Als Lead-Developer habe ich die Entwicklungsrichtlinien und
                  Tipps und Tricks, welche von den anderen Datastage-Entwicklern
                  eingehalten werden sollen, in Dokumenten erfasst und
                  kontrolliere deren Einhaltung bei Code-Reviews. Der generische
                  Teil, welcher gemeinsame Funktionalitäten kapselt und somit
                  von allen zu migrierenden Produkten verwendet wird, wurde von
                  mir implementiert und wird mittlerweile im 4-Augen-Prinzip
                  von mir und einem anderen Entwickler gewartet. Ich diente als
                  Ansprechpartner für alle anfallenden technischen Probleme
                  oder Implementierungsdetails.
                - Planung und Generierung der Infrastruktur in der Datenbank und
                  im Filesystem um eine parallele Entwicklung von mehreren
                  Produkten in verschiedenen Codeständen zu ermöglichen ohne dass
                  diese sich gegenseitig beeinflussen können.
                - Erstellung einer eigenen Stage in C++ zum Aufsplitten von
                  langen Textzeilen in mehrere kürzere. Eine Row mit langer Zeile
                  geht in die Stage und heraus kommen mehrere Rows mit kurzen Zeilen.
                - Erstellung von Jobs zum zurückgeben von Werten als Userstatus
                  (Rückgabewerte von Datenbankabfragen und Stored procedures),
                  damit dieser in Sequenzen zu weiteren Verarbeitung zur
                  Verfügung steht. Damit wurden Parameter für die Sequenzen
                  eingelesen und konnten zur Verzweigung und Übergabe innerhalb
                  der Sequenzen benutzt werden.
                - Erstellung von After-Job-Routinen in Datastage-Basic zur
                  Persistierung der Job-Lauf-Informationen zur späteren Auswertung
                  und Kontrolle für Regressionstests. Wieviel Rows laufen in
                  welcher Zeit über welche Links.
                - Erstellung von parallelen Routinen in C++ zur einheitlichen
                  Formatierung von speziellen Referenzen innerhalb der DI-Strukturen.
                - Erstellung von Table-Definitions und OSH-Schemas aus von SAP
                  ausgelesenen DI-Strukturen zur Verwendung in Datastage-Jobs.
                  Die ausgelesen Strukturinformationen wurden in einer
                  Access-Datenbank abgelegt und daraus wurde mittels eines
                  Java-Programmes und Freemarker die Table-Definitonen, SQL und
                  OSH-Schemas generiert.
                - Planung und Realisierung der Versionierung der
                  Datastage- und Datenbank-Entwicklungsartefakte und Erzeugung
                  von Deployment-Paketen oder mittlerweile Tags zum
                  anschliessenden Deployment auf den Produktionsmaschinen, damit
                  immer nachvollziehbar ist, was ausgeliefert wurde und mit
                  welchem Codestand welcher Output generiert wurde.
                - Performance-Optimierung von Langläufern nach dem 80:20 Prinzip
                  oder von direkt sichtbaren Engpässen in Jobs beim Code-Review.
                - Ablauf der Migrationen: Angelieferte Datenbank-Extrakte im
                  CSV-Format werden mittels Datenbank-Loads in die Datenbank
                  DB2 eingelesen und dann mittels Datastage-Jobs in
                  DI-Strukturen (Direkt-import) gewandelt welche dann durch
                  Massentransaktionen in SAP verbucht werden.
                - Erstellung eines flexiblen Split-Programmes in Java, welches
                  performant eine große Ausgabedatei in mehrere tausend
                  kleinere Dateien splitten kann. Es sollte dabei eine
                  möglichst gleiche Verteilung auf die Ausgabedateien erreicht
                  werden und zusammengehörende Datensätze durften nicht über
                  mehrere Dateien verteilt werden.
                - Behebung und Retest von Fehlern, welche in RQM von den Testern
                  eingestellt wurden. Dokumentation davon in Subversion und
                  Releasenotes.
Infrastruktur : Windows Vista, IBM Information Server WebSphere DataStage 8.0.1 +
                8.7, Quality Stage, Information Analyzer, DB/2 9.1 + 9.7 auf AIX,
                AIX, SQL, PL/SQL, Visual Explain, C++, Datastage-Basic, Java 1.6
                + 1.7, Eclipse, Freemarker, MS Office inkl. Access, JDBC, XML,
                UML, Rational Quality Manager RQM, Lotus Notes,
                Citrix Terminal Server, Unix-Scripting, SAP, SAP Modul GKV,
                Subversion, Tortoise
Ergebnis      : Erfolgreiche Migration aller Produkte der Phase 1 und 2 von den
                Legacy-Systemen nach SAP. Alle Mitarbeiter arbeiten mittlerweile
                in SAP mit den migrierten Daten.

Zeitraum      : 01/2010 - 03/2010
Firma/Institut: Bank
Projekt       : - Erstellung von DataStage Jobs und Sequenzen. Umsetzen von
                  Change Requests und Behebung von Defects. z.B. Behebung von
                  Umlautproblemen bei der Behandlung von XML aus MQ oder Oracle.
                - Erstellung von DataStage Jobs und Sequenzen um SOAP-Messages
                  zur Anlage von Personendaten zu generieren, welche dann in
                  Message-Queues zur weiteren Verarbeitung mittels eines
                  Application-Servers abgelegt wurden.
Infrastruktur : Windows XP, AIX, IBM Information Server
                WebSphere DataStage 8.0.1, MQ Series, Oracle 10g, XML, PL/SQL
Ergebnis      : Noch nicht abgeschlossen aber die mir übertragenen Jobs wurden
                implementiert und übergeben.

Zeitraum      : 02/2009 - 12/2009
Firma/Institut: Versicherung
Projekt       : - ETL Bewirtschaftung eines DataWareHouse.

 - Performanceoptimierung von DataStage-Jobs, da sich die

Laufzeiten durch neue Datenlieferungen aus weiteren Systemen

teilweise signifikant erhöht haben. Hier wurden durch

Optimierungen der SQL-Queries oder anderer Massnahmen in

DB2 und DataStage beträchtliche Beschleunigungen erzielt.

Hier wurden z.B. neue Indizes in DB2 angelegt, Lookups in

Joins gewandelt, SQL-Joins in DataStage verlagert und umgekehrt,

Einsatz von OLAP-Funktionen (Analytic Functions) um den I/O zu

reduzieren und Last von den Servern zu nehmen.

Infrastruktur : Windows XP, DataStage 7.5.3 PX, DB/2 auf AIX, AIX, SQL,

 Visual Explain, Speedgain

Ergebnis      : Abgeschlossen

Zeitraum      : 04/2008 - 10/2008
Firma/Institut: Bank
Projekt       : Erstellung von DataStage Jobs und Sequenzen zur zentralen

 Fehlerbehandlung über Message-Queues. Es können von Host-,

 DataStage- und Java-Anwendungen Fehlermeldungen in

 Message-Queues eingestellt werden, welche von DataStage-Jobs

 transaktionssicher in die Oracle Datenbank gespeichert werden.

 Erstellung und Pflege von Custom Build Operatoren für DataStage

 in C++ und Java. Wave-Verarbeitung von Messages aus

 Message-Queues. Diese Messages bestehen aus mehreren Paketen,

 welche mittels eines in C++ implementierten Custom Build

 Operator zerteilt werden und innerhalb einer Wave verarbeitet

 werden. Einbindung eines Java-Build-Operator um die

 Möglichkeiten von log4j zu nutzen. Synchronisation von Requests

 und Responses von WebServices um aufgetretene Fehler, durch

 Parsen der XML-Soap-Responses mittels Oracle PL/SQL, in die

 zentrale Fehlerbehandlung einzustellen. Hierbei mussten die

 Unzulänglichkeiten von DataStage und Oracle umgangen werden.

 Wie z.B. Behandlung von Null-Zeichen in Strings, Varchar mit

 mehr als 4000 Zeichen (auch 4000 Umlaute evtl.) und Schreiben

 und Lesen von CLOB's mit DataStage und PL/SQL. Implementierung

 eines Servlets mit dem es möglich ist, die Requests und

 Responses zu suchen und die darin enthaltenen CLOBS lesbar

 darzustellen, da diese Hexadezimal kodiert in den Tabellen

 vorliegen. Hiermit ist dann eine bessere Fehlerdiagnose möglich.

 Nutzung von Form Based Authentication, DB Connection Pools.

 Geschwindigkeitsoptimierung durch Umstellung der Jobs auf

 Behandlung von komprimierten BLOB's anstatt CLOB's. Das ist nun

 etwa 12 mal schneller, da die BLOB-Daten jetzt In-Row gespeichert

 werden können anstatt in extra LOB-Tabellen.

Infrastruktur : Windows XP, C++, Java 1.5, Solaris, AIX, IBM Information Server

 WebSphere DataStage 8.0.1, MQ Series, Oracle 10g, XML, PL/SQL,

 Tomcat 6.0.18, Eclipse 3.4 Ganymede, WebSphere Application

 Server 6.0, JAAS

Ergebnis      : Erste Implementierungsphase abgeschlossen.

Zeitraum      : 04/2008 - 04/2008
Firma/Institut: Bank
Projekt       : Support beim Anwendertest und Defectbearbeitung in

 DataStage-Jobs. Überprüfung der korrekten Umsetzung der

 fachlichen Vorgaben (Corda-Regeln) im Code. Zusammenstellung

 aller betroffenen Felder in Defects.

Infrastruktur : Windows XP, DataStage 7.5
Ergebnis      : Abgeschlossen

Zeitraum      : 11/2007 - 03/2008
Firma/Institut: EDV-Unternehmen
Projekt       : - Erstellung von 2 Frontend Wizard Dialogen mittels eines Swing-

 Frameworks von ARIS. Diese Dialoge dienen zum Aufruf der

 Server-Funktionalitäten der modellgestützten Transformation von

 bestimmten Modellen in andere Modelle, z.B. EPK nach BPEL

 - Erstellung einer graphisch interaktiven Merge Komponente

 mittels eines Swing-Frameworks von ARIS. Diese dient zum

 Anzeigen, Akzeptieren oder Verwerfen von Änderungen zwischen

 2 Versionen eines Modelles.

Infrastruktur : Windows XP, Java 1.5 (Enum,Generics,ForEach), ARIS Platform 7.02

 und 7.1 (ARIS Business Architect, ARIS SOA Architect, ARIS UML

 Designer, ARIS API), Perforce 2007.2, IntelliJ IDEA 5.0 und 6.0

Ergebnis      : Abgeschlossen

Zeitraum      : 01/2007 - 10/2007
Firma/Institut: Wirtschaftsprüfung
Projekt       : - Regelbetriebsbetreuung einer komplexen verteilten J2EE

Applikation. Fehlersuche und Fehlerbehebung,

Prozessablaufverbesserungen und Konfigurationsmanagement.

Deployment von EAR's in die Integrationstestumgebungen.

 - Generierung von Datenbankschema aus UML Modellen mittels OAW.

MDA Model Driven Architecture

 - Einführung von Constraints in die bestehende Datenbank.

Foreign Key-, Not Null-, XOR- und Unique-Constraints.

Absicherung der Integrität der Daten.

 - Anonymisierung von Produktionsdatenbank-Exporten mittels

Oracle Analytic Funktions.

Infrastruktur : Windows XP, Oracle 9 und 10, SQLDeveloper, TOAD, Java 1.4, SQL,

 Enterprise Architect 6.1, Rational Application Developer RAD,

 OpenArchitectureWare OAW, JUnit, DBUnit, FitNesse, Selenium,

 Ant, CruiseControl, Lotus Notes, SubVersion, WebSphere 6.0, LDAP,

 JXplorer

Ergebnis      : An interne Mitarbeiter zur Weiterführung übergeben

Zeitraum      : 07/2006 - 12/2006
Firma/Institut: Medien
Projekt       : - Erstellung eines Prototyps zur Abrechnung von Video on demand

Diensten gegenüber den Lizenzgebern.

 - Importieren von Werbeblock-Prognosedaten im XML-Format ins

DataWarehouse und Aufbereitung der Daten als Dimensions- und

Fakten-Tabellen.

Infrastruktur : Windows XP, DataStage 7.1r1 Server, Informix auf Solaris,

 Solaris, SQL, ERWin, ClearCase

Ergebnis      : An interne Mitarbeiter zur Fertigstellung übergeben

Zeitraum      : 05/2006 - 07/2006
Firma/Institut: Versicherung
Projekt       : - ETL Bewirtschaftung eines DataWareHouse und Erzeugung von

Exports im GDV-Format zur Belieferung des Vertriebs.

 - Performanceoptimierung der SQL-Queries mittels Explain Plan

und Reduzierung der Joblaufzeiten insgesamt.

Infrastruktur : Windows XP, DataStage 7.5.1A PX, DB/2 auf z/OS, AIX, SQL,

 Visual Explain

Ergebnis      : Abgeschlossen und in erfolgreichem Betrieb

Zeitraum      : 05/2005 - 05/2006
Firma/Institut: Rechenzentrum einer Bankengemeinschaft
Projekt       : Im Rahmen der Anpassungen an ein bestehendes DataWareHouse für

 die Anforderungen an Basel II werden für das Rating von Kunden

 verschiedene DataStage-Jobs implementiert. Diese Jobs ermitteln

 die für das Rating relevanten Daten und bereiten sie für das

 Frontend auf.

Infrastruktur : Windows XP, DataStage 7.1 PX, Clearcase, Oracle 9i,

 Sun Solaris, PL/SQL, Toad, Rational Rose

Ergebnis      : Abgeschlossen und in erfolgreichem Betrieb

Zeitraum      : 01/2005 - 04/2005
Firma/Institut: Consulting Unternehmen
Projekt       : Als erstes Land führt Deutschland ab Juli 2005 eine neue

 einheitliche Notrufnummer 116 116 zum Sperren von Medien wie zum

 Beispiel Kredit- und EC-Karten, Handys, digitale Signaturen,

 Krankenkassenkarten, Mitarbeiter-Ausweise, Kundenkarten oder

 sensible Online-Berechtigungen des Internets ein. Für den

 Verbraucher bedeutet dieses weltweit neue Sicherheitssystem

 einen deutlich besseren Schutz in Notfällen.

 - Entwicklung von WebServices zur Kommunikation mit der

Telefonvermittlung und den Callcentern

 - Entwicklung von Entity Beans für die Datenbanktabellen in

Oracle

 - Erstellung eines Build Prozesses mittels Ant mit der

Möglichkeit zu einem automatisierten Daily Build

Infrastruktur : Windows XP, Java 1.4.2_06, Java 1.5.0, JBOSS, WebServices,

 Oracle, PVCS-Tracker, CVS, Scarab, Eclipse, Ant, XDoclet,

 SLES9, T-Com IN, CTI

Ergebnis      : Abgeschlossen

Zeitraum      :  Oktober 2004 - November 2004
Firma/Institut:  Versicherung
Projekt       :  - Einführung und Schulung von DataStage PX-Templates an

 festangestellte Mitarbeiter zur Bewirtschaftung von

 DataWareHouse-Lösungen

  - Umstellung dieser Templates von DB2 auf Oracle

  - Ausarbeitung eigener Templates und Lösungs- und

 Integrationsansätze für den Kunden

Infrastruktur :  Windows XP, Ascential DataStage 7.5 PX; Oracle 9i
Ergebnis      :  Abgeschlossen

Zeitraum      :  August 2003 - Oktober 2004
Firma/Institut:  Ingenieurbüro für ÖPNV-Lösungen
Projekt       :  Planung und Erstellung einer

  - Client-Server-Kommunikations-Komponente über Sockets oder

 über GSM-Netze mittels des gleichen Interfaces.

  - Grafisches Datenbankfilterungstool zum Filtern einer Menge

 solange bis nur noch ein Datensatz übrigbleibt. Die

 Reihenfolge der Filterauswahl ist dabei egal.

 Der Benutzer wird immer geführt. Wenn durch vorhergehende

 Filterungen für einen Filter nur noch eine

 Auswahlmöglichkeit besteht, wird diese als Filter gewählt

 und es geht weiter zum nächsten noch nicht bestimmten Ziel.

 Man ist also mit sehr wenigen Angaben am Ziel.

  - Errichtung eines VPN über Vodafone Corporate Data Access

 zur sicheren Kommunikation des Servers mit den

 GPRS-Endgeräten.

  - Einwahlprogramm für DFÜ-Netzwerk inklusive Initialisierung

 des Modems über serielle Schnittstelle per AT-Kommandos

Infrastruktur :  Borland-C++-Builder 5.0, Windows 2000, GSM-Modem, PC104-PC,

  Linux, IPCOP, Borland-Delphi 6.0; SUSE Linux 9.1

Ergebnis      :  Abgeschlossen.

Zeitraum      :  März 2003 - März 2003
Firma/Institut:  Privat
Projekt       :  Aufsetzen eines SSH-Servers, der per DSL und Dynamischer

  IP-Vergabe nun sicher von außen erreichbar ist und die

  Steuerung des Heimnetzwerkes und aller daran angeschlossenen

  Infrastruktur erlaubt. Zusätzlich kann darüber jetzt jeder

  beliebige Port, verschlüsselt getunnelt werden.

Infrastruktur :  Linux, Squid
Ergebnis      :

Zeitraum      :  Januar 2002 - Juni 2003
Firma/Institut:  Großer Versicherungskonzern
Projekt       :  Erstellung einer Datenbank zum zentralen Erfassen aller

  Informationen des Konzerns, was Kunden oder Verträge

  betrifft, um Online-Systeme besser mit Daten versorgen zu

  können. Von mir dabei erfüllte Aufgaben:

  - Beteiligung an der Planung und Erstellung des ERM

  - Beratung in vielerlei Hinsicht z.B. Design, Performance,

 Normalisierung, Server-Auswahl, Datenbankauswahl,

 Auswahl des ETL-Tools, Auswahl des Fehlertracking-Tools

  - Installation eines Linux-Servers auf dem die Fehlertracking-

 Software Bugzilla mittels eines Apache Webservers, Perl und

 MySQL in Betrieb genommen wurde. Dessen Frontend wurde von

 mir dann noch den Vorstellungen der Projektleitung

 entsprechend customized. Eine automatisierte Sicherung


 der Daten wurde dann per Cron-Job täglich durchgeführt.

 Hierzu gab ich dann entsprechende Einweisungen für

 Administratoren, Moderatoren, Tester und Entwickler.

  - Erstellung eines Java-Tools zum automatisierten Vergleich

 kompletter Datenbanktabellen zwischen Oracle und DB2.

  - Erstellung einer Web-Anwendung, welche es ermöglicht, den

 Inhalt der Datenbank in einem beliebigen Browser für

 Testfälle anzuzeigen und somit manuell mit den Ausgaben

 des jeweiligen Spartensystems vergleichen zu können.

 Dies geschah durch Erzeugen von XML aus den

 Datenbank-Inhalten und anschließendemszlig;endem Verarbeiten mit XSL

 um das Ergebnis dann per Servlet in HTML im Browser

 anzuzeigen. Hierbei wurden Schlüsselumsetzungen direkt

 dem erzeugten XML beigemengt um das XSL zu vereinfachen.

  - Belieferung eines Online-Systems mittels dem ETL-Tool

 DataStage durch Erzeugung von Export-Dateien. Diese werden

 per OpenFTP, gesteuert über Semaphor-Dateien vom Online

 System täglich abgeholt und dann darin weiterverarbeitet.

  - Erstellung von Scripten, die die Erzeugung von Testdaten

 in einer leeren Datenbank (aber angelegtes Schema) durch

 Kopie der Daten aus der Produktionsdatenbank, ermöglichen.

 Dies geschieht sehr schnell durch Benutzung der DB2-eigenen

 Ex- und Import-Funktionalitäten.

  - Erstellung eines Tools, welches eine Datenbank in eine

 leere andere Datenbank clont. Hierzu wird das Schema auch

 noch in einer Java-Datenbank gespeichert und die Daten

 in einer Datenbank-unabhängigen Form gespeichert um das

 clonen zu wiederholen un um Schema-Änderungen zu bemerken.

  - Planung und Erstellung eines für Online-Systeme, wie z.B.

 das Kundenkonto des Konzerns, besser geeigneten Zugriffs

 auf die Daten als über eine relationale Datenbank.

 Hierzu werden die Daten redundant in hochkomprimiertem XML

 pro Vertrag oder Kunde abgespeichert und können so sofort,

 ohne Zeitraubende Joins und XML-Erzeugung, mit XSL

 weiterverarbeitet werden. Zum Suchen innerhalb des XML's

 existieren noch zusätzliche Suchtabellen eigens hierfür,

 damit auch ohne Joins gesucht werden kann. Der Inhalt

 der Datenbank existiert dann komplett in nur noch 7

 optimierten Tabellen anstatt in weit über 30. Den Zugriff

 auf diese Daten ermöglicht momentan ein Servlet welches

 zentral diese Aufgabe übernimmt. Ein Zugriff per RMI, Corba

 oder WebService wäre kein Problem. Jeder Anwender kann

 seine eigenen XSL's direkt auf dem Server auf die von ihm

 angeforderten Daten anwenden lassen und erhält seine

 aufbereiteten Daten zurück und kann sie direkt in einer

 Browserkomponente darstellen lassen.

Infrastruktur :  Oracle, DB2, PC, Windows NT, AIX, Eclipse, JDK 1.3 bis 1.4,

  PVCS, BUgzilla, JDBC, SQL, Java, JavaScript, HTTP, HTTPS,

  Servlets, Tomcat, Apache, Perl, MySQL, Linux, SSL, XML, XSL,

  Xalan, Xerces, XMLSpy, DataStage, Hypersonic, ICEReader,

  Internet-Explorer

Ergebnis      :  Die Datenbank ist im Betrieb und der Export mittels DataStage

  läuft seither täglich. Der Online-Zugriff vom Kundenkonto auf

  die optimierten XML-Tabellen ist auch in Betrieb.


Zeitraum      :  September 2000 - Dezember 2001
Firma/Institut:  Großer Versicherungskonzern
Projekt       :  Umstellung der Datenbankschicht für das Kundenkonto

  auf effizienteren Zugriff, damit auch Firmenkunden mit sehr

  vielen Verträgen das Kundenkonto nutzen können ohne

  allzu lange warten zu müssen. Worst case ist hier etwa 40000

  Verträge für einen Kunden. Da die existierende Schnittstelle

  als Entity-Bean-Verbund realisiert war, kann man sich

  vorstellen, das das die Performance negativ beeinflusst hat.

  - Das ERM wird nun für einen Kunden komplett in XML abgebildet

 und on-demand aus der Datenbank gelesen. In der Zeit, in der

 vorher 40 Verträge gelesen wurden, werden jetzt mehrere

 tausend gelesen. Da man es nun mit viel mehr Verträgen zu

 tun hatte, wurde das Design des Web-Frontend fast komplett

 umgestellt. Seiten mussten mit Vor- und Zurück-Navigation

 versehen werden, Verträge mussten gefiltert werden können.

 Die Darstellung in HTML wurde dabei zu 80% über XSL

 realisiert, der Rest mittels Servlets oder statischem HTML.

  - Da die XML-Verarbeitung bei sehr vielen Verträgen sehr viel

 Hauptspeicher benötigte, wurde dazu ein Process-Pool

 implementiert, welcher die XML-Verarbeitung für jeden Kunden

 in einem neuen Java-Prozeß durchführte und mittels RMI

 gesteuert wurde. Wenn also nicht genug Hauptspeicher

 vorhanden wäre, würde nur der Prozeß dieses einen Kunden

 in Mitleidenschaft gezogen werden und nicht der gesamte

 Webauftritt.

  - Die Schnittstelle zur BS2000 über OpenUTM wurde überarbeitet

 und so angepasst, das sie ohne Neukompilation auf andere

 Hosts umgestellt werden kann. Weiterhin wurde die Anzeige

 in HTML mittels XSL aus XML generiert.

  - Wartung und Pflege anderer Seiten des Kundenkontos:

 Seiten zur Mitteilung von Änderungen eines Kfz-Vertrages.

 Filterseiten zur Selektion von Verträgen.

  - Generierung von eMails im Format des Remedy-Systems zur

 automatischen Erstellung eines Tickets zur weiteren

 Verarbeitung von Kundenwünschen.

  - Einbau eines Demo-Zugangs zum Austesten der Kundenkonto-

 Funktionalitäten.

Infrastruktur :  Oracle, DB2, BEA Weblogic, PC, Windows NT, AIX, Makefiles,

  Forte for Java, JDK 1.2.2, Inprise JBuilder, PVCS, JavaMail,

  JDBC, SQL, Java, JavaScript, HTML, HTTP, HTTPS, Servlets, JSP,

  EJB, SSL, LDAP, VIP von Gauss, XML, XSL, Xalan, Xerces, RMI,

Ergebnis      :  Firmenkunden können nun problemloser und komfortabler auf das

  Kundenkonto zugreifen.


Zeitraum      :  Mai 2000 - August 2000
Firma/Institut:  Großer Versicherungskonzern
Projekt       :  kompletter Webauftritt, meine Aufgaben dabei waren die

  Realisierung von Möglichkeiten zum sicheren Betrachten und

  Bearbeiten von eigenen Versicherungsverträgen (Kundenkonto),

  Rückkaufswertberechnung von Lebens- und Rentenversicherungen,

  Abbonnementverwaltung von eMail-Newslettern, grundlegende

  Funktionalitäten wie eMail versenden, datenbankunabhängige

  Autoincrement-Spalten, Zugriff auf Datenbank-Lookuptabellen

  als Enterprise Java Beans. Erstellung von Makefiles für das

  automatisierte Erzeugen und Deployen der Servlets und EJB"s

  des kompletten Webauftrittes.

Infrastruktur :  Oracle, DB2, BEA Weblogic, PC, Windows NT, AIX, Makefiles,

  Forte for Java, JDK 1.2.2, Inprise JBuilder, PVCS, JavaMail,

  JDBC, SQL, Java, JavaScript, HTML, HTTP, HTTPS, Servlets, JSP,

  EJB, SSL, LDAP, VIP von Gauss, XML, XSL, Xalan, Xerces,

Ergebnis      :  Ist am 05.09.2000 online gegangen

Zeitraum      :  1995 - 1999 nebenberuflich
Firma/Institut:  Institut für Phonetik
Projekt       :  Datenbank zur Verwaltung von Dialekt-Sprecherdaten auf einem

  normalen PC

  - Tool zur Erfassung von Soundsamples und deren Inhalt in einer

 Datenbank. Zu jedem Audio-File wurden die gesprochenen

 Worte in einer Datenbank in normaler (orthographischer),

 hochsprachlicher (orthoepisch) und dialektbehaftet

 (phonetisch) erfasst. Audio-Editor zum Segmentieren

 der Audio-Dateien auf Wortebene. Dadurch wurde es möglich

 sich schnell Worte von verschiedenen Sprechern alternierend

 anzuhören, um sie besser zu vergleichen können.

 Erstellung eines eigenen IPA-Zeichensatzes zur Darstellung

 der Sonderzeichen der Lautschrift. Erfassungseditoren

 für alle anfallenden Daten. Assoziative oder normale Suche

 innerhalb des Datenbestandes. Schnelles Recherchieren

 von auffälligen Dialekten und Eingrenzung der Herkunft

 des Sprechers. Dynamische Visualisierung der Herkunftsorte

 der Sprachproben in der Datenbank auf einer Karte des

 deutschsprachigen Raumes. Komplette Eigenentwicklung

 über mehrere Produktzyklen da die Anforderungen an die

 Datenbank, Speicherbedarf und die Performance doch erheblich

 waren.

Infrastruktur :  Poet, dBase, Paradox, zApp, Borland-C++, Borland-C++-Builder,

  PC, Windows 3.11, Windows 95, Windows NT, OS/2, CVS,

  MP3-Audio-Kompressions-Algorithmen, ACM Audio Compression

  Manager

Ergebnis      :

Zeitraum      :  03/1996 - 04/2000 fest angestellt
Firma/Institut:  EDV-Unternehmen
Projekt       :  - Framework zum modellgestützten Erzeugen von auf den

 jeweiligen Anwender zugeschnittenen Applikationen. Grafische

 Modellierung von Objekten welche in einer ORACLE-Datenbank

 persistent gemacht werden können, deren Funktionalitäten

 und Masken zum Editieren der Objekte. Die Rechte auf

 Funktionalitäten der Objekte für verschiedene Benutzer oder

 Benutzergruppen wurden ebenfalls modelliert.

 Bei diesem Produkt wurde höchster Wert auf die Generik

 gelegt, d.h. möglichst keine Änderungen am Code, wenn die

 Modelle geändert wurden. Es wurde eine Multi-Tier-Architektur

 mittels CORBA implementiert.

 Dem Produkt wurde der Best of Byte Award auf der Systems 1996

 in München als beste Business Management Solution verliehen.

  - Basisfunktionalitäten der Model-View-Controller-Architektur

 eines Tools zur grafischen Modellierung von

 Geschäftsprozessen z.B. QuadTree zum effizienten Verwalten

 der Daten im Model, Design der Datenbankzugriffsschicht-

 Interfaces, dadurch einfacher Austausch der verschiedenen

 Implementierungen, teilweise Umstellung der

 Speicherverwaltung auf Reference-Counted-Pointer

  - Utilities für den SAP-Knowledge-Engineer z.B. komprimierende

 COM-Structured-Storage-Interface-Implementierungen mit

 längeren Namen als 31 Zeichen zum Verwalten von

 strukturierten Informationen innerhalb einer Datei.

 Explorer-Tree in JavaScript für verschiedene Browser.

 Zusammenführung zweier Tools zur Contentpflege des SAP-

 Knowledge-Engineer.

  - Knowledge Management, Erstellung eines Tools zum Verbreiten

 von Wissen über Intra- und Internet. Dezentrale Verwaltung

 des Wissens über Redakteure und Administratoren. Das Wissen

 wird über beliebig zusammenstellbare Rollen gefiltert und

 auch die Funktionalitäten, die auf dem Wissen ausgeführt

 werden können, werden über Rollen gefiltert. Hier

 wurde eine Multi-Tier-Architektur mittels RMI implementiert.

 Die komplette Projektleitung auf Entwicklungsseite oblag mir.

Infrastruktur :  PC, Windows NT, Windows 95, Oracle, CORBA, IDL, MFC Microsoft

  Foundation Classes, Visual C++, Java, JavaScript, HTML, HTTP,

  RMI, JDBC, SQL, Visual Basic, Poet, Orbix, Swing, JDK 1.2,

  STL Standard Template Library, Forte for Java (Netbeans),

  Symantec Visual Cafe, PVCS, CVS, Visual Source Safe,

  Datenkompressionalgorithmen RLE, LZW, Huffman Codierung,

  Arithmetische Codierung

Ergebnis      :

Zeitraum      :  08/1993 - 12/1995 fest angestellt
Firma/Institut:  Ingenieurbüro für ÖPNV-Lösungen

  Öffentlicher Personennahverkehr

Projekt       :  - Portierung eines schon in der Programmiersprache Pascal

 und C implementierten und existierenden Fahrplan-

 Verwaltungssystemes in die Programmiersprache C++ und

 Object-Pascal (Delphi) und eine plattformunabhängige

 GUI-Bibliothek. Portierung auf DOS, Windows 3.1*, OS/2.

 Module wie Haltestelleneditor, Linieneditor, Fahrteneditor,

 Kursplaneditor, Dienstplanoptimierung, Auskunftssystem.

  - Deutschlandweites Auskunftssystem zum Berechnen von

 Zeiten, Kosten und Umsteigepunkten einer gewünschten Route.

 Dies wurde in OS/2 in einem POS (Point of sale) mit

 Touchscreen-Bedienung integriert.

  - Library mit Algorithmen zur automatischen Konvertierung

 von Fahrplandaten in beliebigen Formaten in das dem

 Unternehmen eigene Format. z.B. ASCII-Dateien, XLS-Dateien,

 dBase, Deutsche-Bundesbahn-Daten

  - Verwaltungssoftware eines Roboter-Bus-Betankungssystemes.

 Kommunikation mit einer Speicherprogrammierbaren Steuerung

 und sonstiger Komponenten über RS-232. Optimierung der

 Betankung durch Kenntnis der anschliessend zu fahrenden

 Routen der Busse. Wenn der Bus den Betriebshof erreicht hat,

 wird diesem per Display mitgeteilt, ob er zum Tanken soll

 oder ob die Tankfüllung für die nächsten Fahrten noch

 ausreichend ist. Auswertungsmöglichkeiten hinsichtlich

 Flottenverbrauch, Einzelfahrzeugverbrauch innerhalb

 frei wählbarer Zeiträume.

Infrastruktur :  PC, DOS, Windows 3.1, OS/2, zApp, dBase, Delphi, Zortech-C++,

  Borland C++ für OS/2, DOS und Windows, RS-232

Ergebnis      :

Zeitraum      :  08/1991 - 08/1993 fest angestellt
Firma/Institut:  Industrieunternehmen mit vielfältigen Betätigungsfeldern
Projekt       :  - Dämonprozeß unter SCO-Unix, welcher die optimale Auslastung

 einer Omninet-Netzwerkkarte im Hintergrund mit Lastverteilung

 gewährleistet. Dazu war die komplette Ausnutzung der

 Unix-Interprozess-Kommunikation nötig. Message-Queues,

 Semaphoren, Pipes, Prozesse usw.

  - Datenbankanwendungen mit dem 4GL-Tool unifAce implementiert.

  - Crossreference-Listen der Informationen, welche Maske in

 unifAce welche Strings und welche Strings in welchen Masken

 benutzt werden, generiert. Diese Informationen kamen aus

 einer Oracle-Datenbank die unifAce als Datenbasis benutzte.

 Die daraus entstandenen Textdateien wurden mit Hilfe von

 Unix-Kommandos wie sed, awk, lex und yacc in die richtige

 Form gebracht. Die Listen wurden zum Übersetzen benutzt und

 wurden nach der Übersetzung wieder automatisch über

 entsprechende Shellscripte wieder in das

 unifAce-Oracle-System eingespielt.

  - Messedemos für das Lambda-Laser-Abstandsmessgerät erstellt.

 Mit Digitaler-I/O-Karte wurde ein Drehgeber angeschlossen und

 mit einer A/D-Wandlerkarte wurde der Laser an den PC

 angeschlossen. Die Visualisierung des Ganzen funktionierte in

 Echtzeit mittels der gemessenen Abstände und Winkel.

 Einmal wurde eine sich drehende verchromte Nockenwelle

 gemessen und das andere mal ein sich drehendes Tai-Chi-Symbol

 mit Oberflächen mit verschiedenen Reflexionseigenschaften.

  - Netzwerkadministration unter Novell und Unix. IPX und IP

  - Anbindung des IP-Netzwerkes an das Internet über einen

 PPP-Zugang zu XLink

  - 2D-, 3D-Bildverarbeitung und Audiodatenbearbeitung.

 Bearbeitung der Daten mit Mustererkennung, Fuzzy-Logic

 und Neuronalen Netzen auf einer SGI-Workstation.

  - Design von Polygonspiegeln zur alternativen Laserablenkung

 für Lambda-Laser-Abstandsmessgerät. Deren Berechnung und

 Simulation auf SGI-Workstation.

Infrastruktur :  Oracle, unifAce, C, Fortran, PC, DOS, Windows 3.1,

  Silicon-Graphics-Workstation IRIS Indigo, X-Windows, IRIX,

  SCO-Unix, Unix-Shell-Commandos, sed, awk, lex, yacc, vi,

  Borland-C++, Novell, SQL, GNU C++, RCS, CVS, SCCS

Ergebnis      :

Zeitraum      :  1990 - 1991
Firma/Institut:  Fachhochschule Diplomarbeit
Projekt       :  Rechnergestützte akustische Qualitätskontrolle von Keramiken

  - Beliebige Keramiken werden mittels eines selbst geplanten

 und nach eigenen Vorgaben von einer Firma gebauten

 Fliessbandes der Prüfeinrichtung zugeführt.

  - Die Prüfeinrichtung hebt die Keramiken, damit sie frei

 schwingen können und fast keine Auflagefläche mehr haben,

 vom Fliessband ab und versetzt sie durch Anklopfen mittels

 eines "Hammers" in Schwingungen (Luftschall)

  - Der Luftschall wird von einer Signalprozessorkarte mittels

 eines Mikrofones digital aufgezeichnet und es wird eine

 Fast-Fourier-Transformation durchgeführt.

  - Die damit vorhanden Zeit- und Frequenzdaten des Luftschalls

 werden als Eingabedaten eines ausgeklügelten

 Pattern-Matching-Algorithmus zur Gut-Schlecht-Beurteilung

 benutzt

Infrastruktur :  Motorola DSP 56000, Analog-Digital-Wandler-Karte,

  Digital-I/O-Karte, PC, DOS, Microsoft-C-Compiler,

  Assembler (56000), Pneumatik, Maschinenbau, Regelungstechnik,

  Mathematik, Statistik

Ergebnis      :  Vollständige 100 % Prüfung von Keramiken ohne Mitwirkung von

  Menschen möglich.

  Ausstellung auf der Hannover-Messe 1991


Zeitraum      :  1990 - 1991 neben Studium
Firma/Institut:  Ingenieurbüro für ÖPNV-Lösungen

  Öffentlicher Personennahverkehr

Projekt       :  Portierung eines schon in der Programmiersprache Pascal

  implementierten und existierenden Fahrplanverwaltungssystemes

  in die Programmiersprache C

  - Anhand der Vorgaben der Oberfläche, der Benutzerführung und

 der Datenbankstruktur des vorhandenen Produktes wurde dieses

 komplett neu in C implementiert

Infrastruktur :  Borland Turbo-C Compiler, PC, DOS, Turbo-Pascal
Ergebnis      :  Durch objektorientierte Programmierung in C wurde eine bessere

  Wiederverwendung von Code bewirkt. Portierbarkeit auf andere

  Plattformen als PC"s mit DOS wurde durch Einhaltung des

  ANSI-C-Standards ermöglicht.


Zeitraum      :  1986 - 1987 neben Studium
Firma/Institut:  CAD-Büro für Elektro- und Automatisierungstechnik
Projekt       :  Komplettsoftware um über einen Atari-ST die auf einer

  HP-Workstation angefertigten CAD-Files auszuplotten.

  - IEC-Bus per Software über eine Digital-I/O Karte emulieren

  - Einlesen von im HP-Format beschriebenen Disketten,

 dazu Umprogrammierung des Atari-ST-Floppy-Controllers

 zum Lesen des für den Atari-ST fremden Formates

  - Einlesen und Interpretieren der CAD-Files

  - Plottwegoptimierung zum Reduzieren der Ausgabezeit

  - Benutzeroberfläche zum Auswählen der zu plottenden Files

  - Umwandeln der CAD-Files in HP-GL

  - Versenden der HP-GL-Daten über den per Software

 emulierten IEC-Bus an den Plotter

Infrastruktur :  Atari-ST, TOS, GEM, HP-Workstation, HP-Basic, HP-UX,

  HP-GL-Plotter, Assembler (68000), GFA-Basic, Omicron-Basic

Ergebnis      :  Der Atari-ST mit Motorola 68000 Prozessor mit 8 MHz Takt

  konnte danach die Files schneller(~Faktor 2) und

  billiger(Rechnerstunde,Anschaffung) ausplotten als eine

  HP-Workstation mit Motorola 68030 Prozessor mit 33 MHz Takt


Referenzen

Projekt JAVA/EJB-Programmierung für den Webauftritt eines gr. Versicherungskonzerns, 05/00-08/00
Referenz durch Projektmanager der Firma Cambridge Technology Partners vom 28.09.00

"Der Consultant war für unser Projekt ein sehr wichtiger Mitarbeiter. Er zeichnete sich durch viele hervorragende Eigenschaften aus, z.B.:
- profundes Fachwissen in den Bereichen JAVA, EJB, JSP, JDBC
- wesentliche Unterstützung auch beim Aufbau der Entwicklungsumgebung
- Er wurde sehr schnell zu einem der Keyplayer auf dem Projekt und stellte insb. im technischen Bereich eine unverzichtbare Ressource dar

Branchen

Softwarehersteller EDV
Industrie CAD
ÖPNV
Automatisierungstechnik
Börse
Versicherung
Bank
Medien
Wirschaftsprüfung

Kompetenzen

Programmiersprachen
4gl
unifAce
Apl
Assembler
Motorola 68XXX
awk
Bash
Basic
C
Sehr gute Kenntnisse
C++
Sehr gute Kenntnisse insbesondere Templates und STL
CodeWarrior
CORBA IDL
dBase
Delphi
HPGL, HP PCL
Imake, GNU-Make, Make-Maker etc...
Java
Sehr gute Kenntnisse
Java 1.7
Java 1.8
JavaScript
Sehr gute Kenntnisse
JEE7
Maschinensprachen
Modula-2
Pascal
Perl
Keine Projekterfahrung, kann es aber lesen
PHP
Keine Projekterfahrung, kann es aber lesen
PL/SQL
Psion OPL
Python 2.6.9
Rexx
Shell
TeX, LaTeX
VRML
Xtend
yacc/lex
ZINC

Betriebssysteme
AIX 6.1
AIX 7.1
Echtzeitbetriebssysteme
RTOS
HPUX
IRIX
Mac OS
Microsoft Windows 7
MS-DOS
Novell
OS/2
OSF/Motif
PalmOS
Psion Series 3
RTOS (Real Time OS)
SLES
SUN OS, Solaris
TOS
Unix
Windows

Datenbanken
Access
Adimens
B-Tree
BDE
DAO
DB2
DB2 10.5
H2 DB-Engine
Interbase
Firebird
ISAM
JDBC
Microsoft Access 2013
MySQL
ODBC
Oracle
Paradox
POET
Postgres
SQL
Teradata
xBase
Hypersonic SQL

Sprachkenntnisse
Deutsch
Englisch
Gut in Schrift, Ausreichend in Wort
Französisch
Grundkenntnisse

Hardware
Atari
CD-Writer / Brenner
Digitale Signalprozessoren
Drucker
Echtzeitsysteme
Emulatoren
Framegrabber
Fuzzy Controller
Hardware entwickelt
HP
IBM RS6000
Industrie-Roboter
Messgeräte
Mikrocontroller
Modem
Motorola
PC
Plotter
Scanner
Sensoren
Silicon-Graphics
Soundkarten
SPS
Steuer und Regelsysteme
Streamer
US Robotics Pilot

Datenkommunikation
CORBA
Ethernet
Internet, Intranet
Proprietäre Protokolle
RMI, UNIX IPC InterProcessCommunication,IEC-Bus
RS232
TCP/IP
Windows Netzwerk
Winsock

Produkte / Standards / Erfahrungen
ActiveMQ
Artifactory
Citrix Terminal Server
Claims 4.0.5
Claims GKV 4.0.5
Docker
Eclipse
Eclipse 4.5.2
Freemarker 2.3.24
H2 DB-Engine 1.4.192
HornetQ
IBM Information Server WebSphere DataStage 11.5
IPFire
JSR-352 Batch Processing
Maven
Nexus
Python 2.6.2
Rational Quality Manager 4.0.7
RQM
SAP
SAP Modul GKV
Squid
Subversion
Subversion 1.7.9
TIBCO Enterprise Message Service
Tortoise
Tortoise 1.7.12
VirtualBox
Wildfly
XML
XSLT
xText
Produkte:
ARIS-Toolset
Microsoft Office,Access
Oracle
DB2
DataStage Server
DataStage PX
Enterprise Architect
Rational Rose
BEA Weblogic Applicationserver
JBOSS Applicationserver
WebSphere Applicationserver

Enwicklungstools:
Microsoft Visual-C++,Visual-Basic
Borland/Inprise C++-Builder, Delphi, JBuilder
JDK Sun Java Development Kit
NetBeans
Forte for Java
Eclipse
Rational Application Developer RAD
OpenArchitectureWare OAW
SQLDeveloper
JXPlorer

Erfahrungen:
OOA und OOD nach Booch und UML
MDA
Neuronale Netze
Fuzzy-Logik
Objektorientierte Programmierung in C++,Java und auch in C und Assembler zu Fuss
STL Standard Template Library
MFC Microsoft Foundation Classes
Bildverarbeitung
Audioverarbeitung
Compilerbau mit lex,flex und yacc,bison,antlr
Projektleitung
Shellprogrammierung unter Unix
Web-Auftritt vom Frontend bis zum Backend (HTML,Javascript,Java,EJB,Servlet,XML,XSL)


Berechnung / Simulation / Versuch / Validierung
PSpice
Während des Studiums benutzt.

Ausbildungshistorie

Fachhochschulstudium der Elektrotechnik Fachrichtung Automatisierungstechnik
Abschluss Dipl. Ing. Elektrotechnik

1986-1991  Softwareprojekte neben Studium
1991-1998  festangestellter Softwareentwickler
1998-2000  festangestellter Projektleiter
2000-      freier Softwareentwickler
×
×