Sonstige Aktivitäten ausserhalb von Projekten
- 03/15 byaccj und jflex für Analyse C Quelldateien
- 10/14 JavaFX als Ersatz von Swing
- 07/14 python
- 07/14 perl, OO Programmierung
- xx/14 diverse organisatorische Tätigkeiten
- 01/14 BPM, grundsätzliches Verständnis
- 11/13 Liferay 6.2 ( neue Version )
- 08/13 Eclipse RCP ( SDK 4.2 )
- 06/13 Umstellung auf Java EE 7, Glassfish 4 und Eclipse Kepler
- 02/13 Soap ( Webservice + remote access )
- 11/12 Modeling ( UmlLab Testversion an Prototyp )
- 09/12 HTML5 Kenntnisse vertiefen
- 09/12 CSS3 Kenntnisse vertiefen
- 09/12 Joomla 2.5 wegen eines Updates der Homepage
- neues Template mit HTML5 und CSS3
- 09/12 Update auf OpenSuse 12.2
- 08/12 Apache Geronimo zur Analyse in einem virtuellen Server installiert
- 07/12 CRXDE Light ( Adobe CQ5 / Day ) zur Analyse auf eigenem virtuellen Server installiert
11/14 ? 03/15 : PLM
Status:
Rolle:
Bereich:
Zielsetzung:
- Customizing einer bestehenden Anwendung
Themen:
- Einarbeitung
- Customizing bestehende Client-Serveranwendung
- Fehleranalyse und Bereinigung
- Erweiterung der Anwendung
Produkte:
- Java
- Perl
- Python
- C
- Netbeans
- Mysql
- Oracle
Umgebung:
-
Linux ( RHEL )
- Solaris
- Windows
06/13 - 10/14 : Diverse Themen ( siehe Sonstige Aktivitäten )
Status:
- wird öfter bearbeitet, dient zum weiteren Wissenaufbau
Rolle:
Umgebung:
03/13 ? 05/13 : XText / XTend Tool Analyse
Status:
- zur Zeit in der Entwicklung
Rolle:
Zielsetzung:
Themen:
- Erstellen Parserdefinition zum Auslesen von Cobol Quellen
- Analyse der Informationen
- Auswertung mittels XTend
- Generierung der entsprechenden Java Quellen
Produkte:
-
Java
-
XText
-
XTend
- Eclipse
- Linux
Umgebung:
05/12 ? 07/12 : Toolentwicklung Konvertierung HTML nach JSF / Portal
Status:
- zur Zeit in der Entwicklung
- erst einmal eingestellt, da andere Themen vorrangig sind
Rolle:
Zielsetzung:
Themen:
- Auslesen eines Webauftritts
- Analyse
- Konvertierung der Daten
- Generierung JSF Dateien
- Import in das Portal
Produkte:
-
wget
-
perl
-
MySql
- mongoDB
- Linux
Umgebung:
03/12 ? 04/12 : Projektarbeit
Status:
Branche:
Rolle:
Zielsetzung:
Themen:
- Auslesen/Export der Daten aus CQ4 mittels der API
- Installationen von Liferay und MySql auf Linux und Windows ( + VMWare )
- Einarbeitung in die Liferay Api's für eine statistische Auswertung
Produkte:
Umgebung:
- Eclipse ( Indigo )
- Windows 2008 Server
- VMWare
01/12 - 02/12 : Wissensaufbau und Vertiefung diverse Tools und Anwendungen
Status:
Rolle:
Zielsetzung:
- dito im Bereich von Liferay
- dito im Bereich von IceFaces
Themen:
- EMF ( Eclipse Modeling Framework )
- Ecore
- UML ( Unified Modeling Language )
- eUml2 als UML Tool
- UmlLab als UML Tool
- Liferay 6.1
- Neueste Version von Liferay mit direkter Unterstützung von JSF 2.0
- IceFaces, JSF Framework für die Entwicklung von Oberflächen
- Ajax Funktionalität ist integriert, daher kann eine Webanwendung näher an das Thema Dialogprogrammierung heranrücken, da die Daten sofort der ManagedBean zur Verfügung steht
- AjaxPush
- KVM
- Aufbau mehrerer unterschiedliche virtuelle Server
Produkte:
- Liferay 6.1
- Icefaces
- KVM
- eUml2
- UmlLab
Umgebung:
12/11 ? 12/11 : Jboss AS 7
Status:
Rolle:
Zielsetzung:
-
Einsatz dieses Applikationsservers ( Jboss AS 7, Version 7.1.x (Beta) ) für den Prototypen
-
Ziel ist Erfahrungsaufbau über dieses AS
Themen:
Produkte:
Umgebung:
11/11 - 11/11 : Liferay 6.1
Status:
Rolle:
Zielsetzung:
Themen:
-
-
Glassfish 3.1.1
-
Installation als Standard Applikationsserver
-
Installation Liferay 6.1
-
Installation Java EE Prototyp
-
Konfiguration Datenbankzugriffe
Produkte:
-
Liferay 6.1
-
Tomcat 7
-
Glassfish 3.1.1
Umgebung:
-
Linux
-
Java / Java EE
-
Eclipse ( Indigo )
-
Glassfish 3.1.1
09/11 - 10/11 : XText
Status:
Rolle:
Zielsetzung:
-
Wissensaufbau um den Bereich von DSL ( Domain Specific Languages )
-
Ziel ist es, ggf. dieses Tool auch im Prototypen einzusetzen, um diese Anwendung zum großen Teil aus den Definitionen generieren zu können
Themen:
-
XText
-
Erstellung einer eigenen Beschreibungssprache für das o.a. Ziel.
-
Erstellen der entsprechenden XText Steuerdatei.
-
( Generierung der entsprechenden Quellen aus diesen Informationen ) erstmal zurückgestellt
-
Erstellen der XText Datei für das Verarbeiten von Java Quelltext. Wird für den Aufbau von Erfahrungen zu XText genutzt.
Produkte:
Umgebung:
-
Linux
-
Java / Java EE
-
Eclipse ( Indigo )
10/10 - 08/11 : Apache Software Foundation, JBoss Community, SpringFramework und andere
Analyse, Prototyping und Bewertung
Status:
Rolle:
Zielsetzung:
- Wissensaufbau und Wissensvertiefung zu diversen Tools im Umfeld von Java / Java EE Anwendungen
- Die meisten Themen werden durch ein intensives Selbststudium analysiert und getestet
Themen:
- Dependency Injection mit Spring in Java Anwendungen
- Inject von Klassen und Texten
- DI über *.xml Dateien steuern
- DI über Annotations im Quelltext steuern
- Aspektorientierte Programmierung mit Spring
- Around Aspect um Funktionen um bestehende Methoden zu legen
- Steuerung über XML Dateien
- Steuerung mittels Annotation
- Before, After-running und After-throwing nutzen
- Steuerung mittels Annotation
- Maven
- Einsatz von Maven unter Eclipse im Bereich Jave EE / Multitier Anwendung
- Glassfish Application Server 3.0
- Einsatz als AppServer für Anwendungen unter Java EE 6 und dessen Komponenten
- als Persistenceebene für Mysql
- Glassfish Application Server 3.1
- Liferay 6.x auf Glassfish 3.1
- Installation und Konfiguration
Produkte:
- Spring 3
- Maven
- Glassfish
- Liferay
Umgebung:
- Linux
- Java / Java EE
- Eclipse ( Helios )
09/10 - 10/10 : Konvertierung Cobol nach Java
Status:
- Selbststudium und Analyse um die Machbarkeit festzustellen
Hinweis:
- Thema ist vorerst eingestellt
Rolle:
Aufgaben:
- Einlesen in Cobol um festzustellen, ob eine entsprechendes Java Programm für die Konvertierung maschinelle Unterstützung leisten kann.
- entsprechendes Java Hilfsprogramm entwicklen.
Zielsetzung:
- Hilfsprogramm zur Analyse von Cobol Programmen
- Evtl. sogar ein Cobol to Java Programm entwickeln
Herausforderung:
- Cobol und Java haben unterschiedliche Systax und Konzepte
- Cobol scheint properitär zu sein
- Direkte Umsetzung von Cobol nach Java könnte durch die anderen internen Strukturen schwierig sein
- einen Ansatz mit einem Runtimesystem für Java wäre wahrscheinlich eine Alternative
Produkte:
Umgebung:
- Linux
- Eclipse Helios
- Java 6
08/10 - 08/10 : Wissensupdate auf Java EE 6 und Komponenten
Status:
Rolle:
Hinweis:
- Dieses ist ein laufender Prozeß um immer auf dem aktuellen Stand der Entwicklung zu sein.
- Daher werden diese Themen während allgemeinen Leerlaufzeiten weiterverfolgt.
- Die meisten Themen werden durch ein intensives Selbststudium analysiert und getestet
Aufgaben:
- Analyse und Prototyping von Testanwendungen um die neuen Funktionen von Java EE und Komponenten kennen zu lernen.
- Testen von JSF 2.0 mit Facelets und den neuen Funktionen innerhalb dieses Produkts. Dadurch kann JSF 1.2 mit JSP abgelöst werden. Die neuen Views können dann durch die o.a. Facelets ( *.xhtml Dateien ) ersetzt werden. Weiterhin sind einige neue interne Funktionen verfügbar, wie z.Bsp. Ajax Integration, eigene Komponenten, ?.. Diese neuen internen Erweiterungen müssen noch genauer getestet werden.
- Criteria API : Objektorientierter Ansatz um Datenbank Selects zu bilden. Daher sollte keine DB Abhängigkeit vorhanden sein
- Reflection : Selektion von Informationen aus Java Objekten.
- Selection der Daten aus den Entities während der Laufzeit um hieraus die Selects der Datenbank zu generieren. ( Nur einmal für alle Entities erstellt, da dafür nur die entsprechenden Entity übergeben werden müssen )
- Webservices ( JAX-RS, REST )
- Generierung von Maskenelementen für JSF direkt aus den EntityBeans mit eigenen Annotations
- eigene Annotationen
- Beschreibung innerhalb der EntityBeans für den Maskenaufbau in Java Server Faces
- Trennung der Sachgebiete
- Eigene Projekte für die Sachgebiete und dadurch auch eigene EAR Dateien, die Remote miteinander kommunizieren
- Dadurch eine Verteilung auf unterschiedliche Server möglich
Produkte:
- Java EE
- JSF 2.0
- JPA 2.0
- EJB 3.1
- XHTML
- Facelets
- Maven
Umgebung:
- Linux
- Eclipse Helios
- Java EE 5 / 6
- MySql
- Glassfish 3.0 / 3.1
07/10 - 09/10 : Analyse und Test von Sugar CRM CE ( Version 6.0 )
Status:
- Selbststudium um Grundkenntnisse über das Produkt aufzubauen
Rolle:
Aufgaben:
- Installation des Programms
- Testen der Funktionalität
- Internationalisierung nach Deutsch, da es sich bei diesem Produkt um eine amerikanische Version handelt. Eine Umstellung der Administrationsoberfläche ist evtl. nicht vorgesehen.
Ziel:
- Evtl. ist der Einsatz im eigenen Bereich vorgesehen. Außerdem könnte auch ein Einsatz bei einem befreundeten Unternehmen stattfinden.
Produkte;
Umgebung:
Sonstiges:
- Thema wird erst mal nicht weiterverfolgt, da z.Zt. kein aktueller Bedarf besteht.
07/10 - 09/10 : Weiterbildung zum Thema Ruby und Ruby on Rails
Status:
Rolle:
Aufgabe:
- Entwicklung von Prototypen um dieses Produkt und dessen Funktionen kennen zu lernen.
- Auch könnte Ruby als Scriptsprache ohne das Framework interessant sein, um es ggf. in zukünftigen Projekten zu nutzen
Ziel:
- Grundverständnis des Frameworks zu bekommen
- Das Produkt ggf. in anderen Projekten zum Einsatz zu bringen
Produkte:
- Ruby
- Ruby on Rails
- mc als Editor
Umgebung:
Sonstiges:
- Thema wird z.Zt. erst mal nicht weiterverfolgt.
- Es kommt die Version 3.0 in kürze auf den Markt. Weitere Aktivitäten werden mit dieser Version stattfinden.
- Zwischenzeitlich ist die Version 3.0 verfügbar. Das Thema wird in absehbarer Zeit sicherlich wieder aufgegriffen.
02/10 - 04/10 : Tinca als CMS System
Status:
- Analyse zum Erwerb von Kenntnissen über das Produkt
Rolle:
Aufgabe:
- Installation und Bewertung des Produkts.
- Testen der Funktionen und Wissensaufbau zu diesem Produkt.
- Es besteht evtl. Interesse, dieses Produkt als Ablösung bei einem mittelständischem Unternehmen einzusetzen.
Produkte:
Umgebung:
Sonstiges:
- Bei einem Einsatz dieses Produkts besteht der Bedarf an einen Consultant und Integrator beim Kunden.
- Das Thema wurde vom Kunden erst mal zurückgestellt.
02/10 - 04/10 : Virtualisierung mit KVM unter Linux
Status:
- Selbststudium, wird ggf. eingesetzt um Testumgebungen aufzubauen
Rolle:
Aufgabe:
- Installation verschiedener Betriebssystem unter KVM auf Linux
- auch unterschiedliche Windows Betriebssysteme müssen funktionieren
Produkte:
- Linux Suse Linux 11.x
- KVM
- Windows XP, 7, 2003, 2008
Umgebung:
Sonstiges:
- Es wird wahrscheinlich eine Umgebung benötigt, die aus mehreren Servern besteht, um eine Netzwerkumgebung zu simulieren. Da dieses nicht in bestehender Hardware nach gebaut werden kann, ist eine weitere Möglichkeit, diese Server zu Virtualisieren.
- Unterschiedliche Linux Distributionen und verschiedene Windows Systeme können unter KVM miteinander agieren, was der Anforderung gerecht wird.
03/09 - 01/10 : Prototyping Java EE Anwendung mit Java EE 5, EJB 3.0, JSF und JPA
Staus:
Rolle:
Aufgabe:
- Analyse und Prototyping von Testanwendungen zur Wissensvertiefung im Bereich von Java EE und dessen Komponenten
- Erstellen eines Prototypen einer Webanwendung mit der Anzeige von Daten im WebBrowser
- Aufbau von Verarbeitungslogik auf einem Webserver
- Speicherung der Testdaten in einer Datenbank
Hinweis:
- Bei diesem Themen handelt es sich um dauernd anliegende Herausforderungen, um immer auf dem aktuellen Stand der Entwicklung zu sein.
- Daher werden diese Themen während allgemeinen Leerlaufzeiten weiterverfolgt.
Produkte:
- Java
- Java EE 5
- EJB 3.0
- JSF 1.2
- JPA 1.x
- Jboss 4 + 5
- MySql
- Eclipse als Entwicklungsframework
Umgebung:
Sonstiges:
- Zur intensiveren Beschäftigung mit dem o.a. Thema ist es sinnvoll, einen entsprechenden Prototypen zu erzeugen. Dadurch ist wahrscheinlich sichergestellt, das während dieser Tätigkeit viele der Möglichkeiten und Probleme der entsprechenden Software erkannt und realisiert werden können.
- Für das Prototyping wird eine Beispielanwendung im Bereich Banking erstellt. Hierbei wird man dann sicherlich auf viele zu realisierende Funktionen treffen, um die wichtigsten Java Spezifika zu implementieren.
- Einzelne Punkt in dem Prototyping:
- Institutsparameter -> Anlegen, Anzeigen, Ändern, ...
- Benutzerverwaltung -> Anlegen, Ändern, Passwort, ...
- Kunde -> Anlagen, Anzeigen, Ändern, ...
- Kontokorrent -> Anlegen, Ändern, Anzeigen, Umsatz, ...
- Sachkonten -> Anlegen, Ändern, Anzeigen, Umsatz, ...
- Kassenprimanote -> Eröffnen, Abschluß, Anzeigen, ...
- Menüführung -> gem. Benutzerrechte, dynamisches
- Nachladen von Java Klassen, ...
- Restartverhalten des Prototypen
- XML Dateien für Umsätze ( Stapelprimanoten ), Upload,
- Verarbeitung
- Internationalisierung der Daten
- Weiterhin werde ich mich auch in das Umfeld von Swing ( ggf. für Oberflächen, die eine dynamische Steuerung und Prüfung benötigen, die unter HTML schwierig zu realisieren sind -> Stapelumsatzerfassung ), Spring, OSGi, ? einarbeiten
11/08 ? 03/09 : Datenmigration Bindwave Archiv nach ZDA
Status:
- Analyse des Systems für die Abgabe eines Angebots
Branche:
Rolle:
- System- und Datenanalyse
- Consultant
Aufgabe:
- Migration des Bindwave Archive nach ZDA ( zentrales DokumentenArchiv ) der Finanzinformatik
- Export der Daten aus dem Digisys Archiv
- Import der Daten in ZDA, Abgabe an der Übergabeschnittstelle
- Prüfung der Daten und Steuerung des Ablaufs
Produkte:
Umgebung:
Sonstiges:
- Durch das Insolvenzverfahren des Herstellers war der Kunde gezwungen, seine Daten in ein anderes Archiv zu überführen. Da zu dem Zweitpunkt keine Unterstützung vom Altarchiversteller mehr zu erwarten war, wurde ich gebeten, das entsprechende System zu analysieren und einen Weg für den Export der Daten aufzuzeigen. Ein Weg, um in dem unbekannten System an die Daten zu kommen, wurde gefunden. Da aber das insolvente Unternehmen von an einem anderen übernommen wurde, sind die Migrationsaktivitäten auch an dieses Unternehmen gegangen. Daher ist es nicht endgültig zu einem Auftrag gekommen.
- Bei einem Auftrag wäre wieder ein Linux PC als Migrationsrechner eingesetzt worden
- Folgende Produkte und Tools wären dann voraussichtlich zum Einsatz gekommen:
- Linux
- MySql
- FTP
- RSH / SSH
- Perl
- Tifftools
- awk
07/08 ? 03/09 : Datenmigration SER Archiv nach IDMS
Status:
- Analyse des Systems für die Abgabe eines Angebots
Branche:
Rolle:
- System- und Datenanalyse
- Consultant
Aufgaben:
- Migration des bestehenden SER Archivs nach IDMS der FinanzIT
- Export der Daten aus dem bestehenden System
- Prüfung und Aufbereitung der Daten
- Bereitstellen der Daten für den Import
- Überwachung
Produkte:
Umgebung:
Sonstiges:
- Das Quellsystem wurde analysiert und ein Weg für den Zugriff auf die Daten gefunden.
- Es sollten ca. 7 Mio. Dokumente mit einer Kapazität von ca. 500 GB für die Migration vorgesehen sein.
- Die Daten sollen auf Datenträgern für den Import geliefert werden.
- Es ist nicht zu einem Auftrag gekommen.
- Ansonsten wäre für die Migration sicherlich ein Linux MigrationsPC zum Einsatz gekommen
- Folgende Tools wären dann voraussichtlich zum Einsatz gekommen:
- Linux
- Perl
- MySql
- evtl. awk
- RSH / SSH ggf. telnet
- Samba
- tifftools
12/07 ? 06/08 : Migration Dokumentenarchiv IBM ContentManager nach Saperion
Status:
Branche:
- sonstige Dienstleistungen / Möbelindustrie
Rolle:
- Consultant für den Export der Daten
- System- und Datenanalyse
Aufgaben:
- Export der Archivdaten aus dem IBM ContentManager Archiv ( IBM CM 7.1 ) auf AIX
- Überprüfung der Daten
- Aufbereitung der Daten für den Import nach Saperion
- Überwachung des Exports und Fehlerbereinigung
Produkte:
- AIX auf RS 6000
- DB2
- TSM Tivoli Storage Manager
- C Compiler
- IBM CM API
- nfs für die Bereitstellung von Plattenkapazität für das AIX System
- Samba für die Bereitstellung der Importdaten
- Perl für diverse Steuerungs- und Überwachungsscripte
- MySql Datenbank für die Verwaltung und die Attribute
- SSH Zugang zum AIX System und für den Remotezugriff
- tifftools für die Bildinformationen
Umgebung:
- AIX auf RS 6000
- DB2
- Windows
- Linux
Sonstiges:
- Die Echtbetriebsübernahme vom Saperion Archiv wurde 04/2008 durchgeführt
- Bis dahin sind die aktuellsten Daten importiert worden
- Es wurden danach nur noch die letzten sehr alten Daten übernommen, da eher im neuen System mit den aktuelleren Daten gearbeitet werden müsste. Daher ist das Umschalten auf das neue System auch schon möglich gewesen, bevor der gesamte Altbestand übernommen wurde.
- Das Altsystem ist bis zur endg&s zur endgültigen Übername der Daten weiterhin verfügbar
- Die Gesamtübername wurde 06/2008 erfolgreich abgeschlossen
- Das Gesamtvolumen belief sich auf ca. 10 Mio. Dokumente, wovon ca 8,5 Mio. mit Bildinformationen hinterlegt waren, und einer Gesamtkapazität von ca. 1. TB
- Beim Export wurde ein C Programm geschrieben, das die interne API Schnitstelle vom ContentManager genutzt hat.
- Die Daten wurden mittels NFS auf einem MigrationsPC abgelegt, da das Archivsystem nicht genügend freie Kapazitäten aufwies
- Der Export, das Aufbereiten der Daten für den Import und die Überprüfung und Konvertierung wurde mittels Perl Scripten vom MigrationsPC gesteuert.
- Es wurde vom Endkunden ein Remotezugang zum MigrationsPC und über diesen zu den anderen beteiligten Systemen eingerichtet
- Das Altsystem musste während der Migration verfügbar sein, da bis zur Echtbetriebsübernahme auch weiterhin hierauf die Produktion lief. Daher mussten immer die neuesten Daten aktuell migriert werden, bevor mit den älteren weitergemacht werden konnte. Dieses Thema war eigentlich die Herausforderung in diesem Projekt
- Auch gewisse Kapazitätsengpässe auf dem Altsystem wurden umgangen
- Es wurde auch bei dieser Migration ein MigrationsPC unter Linux eingerichtet um das Altsystem möglichst unverändert zu lassen. Außerdem wurde über dieses System genug Plattenkapazität bereitgestellt, damit der Export Platz hatte. Der Import hat dann seine Daten auch von dieser Platte bekommen.
- Die Migration wurde nach dem ETL Prinzip durchgeführt
- (E) Nach der System- und Datenanalyse wurden die Daten über die CM Schnittstelle exportiert.
- (T) Selektion der Textdaten aus den Anmerkungen, ansonsten konnten die Daten übernommen werden
- (L) Import erfolgte über die vorgegebenen Schnittstellendefinitionen
10/07 ? 11/07 : Migration Zahlungsverkehrsarchiv Arcis auf Win2003 Webanwendung
Status:
Branche:
Rolle:
- System- und Datenanalyse
- Consultant
Aufgaben:
- Migration des alten Zahlungsverkehrsarchiv auf eine interne Webanwendung, damit das Altsystem ausgeschaltet werden kann
- Export der Daten
- Erstellen einer Dateistruktur für einen Webserver
- Erstellen einer Datenbank für die Webrecherchen
- Erstellen eines Webclients
- Installation von WAMP ( Windows, Apache, MySql, PHP )
- Inbetriebnahme und Einweisung in das neue System
Produkte:
- Arcis
- FMWORM
- Oracle
- Apache
- MySql
- PHP
- Linux
- Perl
- Samba
Referenzen:
Umgebung:
- Windows NT mit Oracle Datenbank und FMWorm
- Windows 2003 mit MySql, Apache und PHP
- Linux mit MySql
Sonstiges:
- Es sollte das Altsystem beim Kunden abgeschaltet werden, da die Wartungsverträge ausliefen und nicht mehr erneuert wurden
- Da es sich beim Archiv zwischenzeitlich um relativ alte Daten handelte und daher nur noch selten auf diese zugegriffen wurde, war auch eine Ablösung der Anwendung möglich
- Als Ziel war eine Webanwendung auf einem eigenen Server ( unter Windows ) geplant
- Als Produkt kam daher WAMP in Frage
- Die Attribute wurde aus der Datenbank Oracle vom Altsystem entnommen und in die Zieldatenbank unter MySql konvertiert.
- Die Dokumentenimages lagen auf Worms unter FMWorm. Diese wurden direkt ausgelesen und in eine neue Dateistruktur auf dem Webserver hinterlegt. Außerdem wurden die entsprechenden Verwaltungsinformationen in die Attributdatensätze eingefügt.
- Der Export wurde mit einem MigrationsPC unter Linux durchgeführt. Für die Migration wurden mittels Perl entsprechende Scripte erstellt.
- Eine Konvertierung der Bildinformationen war diesmal nicht notwendig
- Die Migration wurde erfolgreich abgeschlossen.
- Das Migrationsvolumen belief sich auf ca. 7 Mio. Dokumente mit einer Größe von ca. 600 GB. Die Bildinformationen waren auf 130 Worms gespeichert und bestanden aus 1- bzw. 2 seitigen Dokumenten
12/06 - 09/07 : allgemeine Aktivitäten, Weiterbildung
Status:
Umgebung:
Sonstiges:
- Während Lehrlaufzeiten ohne aktuelles Projekt ist es immer möglich, auch neben dem allgemeinen Tagesgeschäft, sich um die eigene Weiterbildung zu kümmern. In dieser Zeit kann man sich dann Themen widmen, die man sonst nicht unbedingt angehen würde.
- Hier können dann Produkte ausprobiert werden, die evtl. in einem späteren Projekt von Nutze sein können
- Hier ist wahrscheinlich meine Homepage mit Joomla! entstanden
09/06 ? 11/06 : Migration Zahlungsverkehrsarchiv Samos/Ars auf DVD
Status:
Branche:
Rolle:
- Consultant
- System- und Datenanalyse
Aufgaben:
- Migration der Zahlungsverkehrsdaten auf DVD
- Export der Daten aus dem Samos/Ars Archiv
- Aufbereiten der Attribute, Zusammenstellen der entsprechenden Bildinformationen, Aufbau einer Verzeichnisstruktur für die Zieldaten
- Erstellung von statischen HTML Seiten für die Navigation innerhalb der Daten auf den einzelnen DVD's
- Zusammenstellen der Daten und Attribute für die ISO Images
- Brennen der DVD's als Original und Kopie mit Ansteuerung eines Brennroboters
- Überwachung der gesamten Migration
- Abnahmetests durchführen
Produkte:
Umgebung:
Referenzen:
Sonstiges:
- Für die Migration wurden entsprechende Perl Scripts auf dem MigrationsPC ( Linux ) erstellt.
- Die Attribute und diverse Verwaltungsinformationen wurden auf dem MigrationsPC in eine MySql Datenbank während der Migration eingestellt
- Der MigrationsPC hat ebenfalls für die Migration den benötigten Plattenplatz bereitgestellt, da das Altsystem nicht über genügend Kapazitäten verfügte.
- Das Projekt wurde erfolgreich abgeschlossen
- Es wurden hierbei ca. 12 Mio. Dokumente verarbeitet und auf 114 DVD's, sortiert nach Buchungstagen und Primanoten, geschrieben
01/06 ? 03/06 : Datenmigration Archiv Arcis / Unix nach Saperion
Status:
Branche:
Rolle:
- Consultant
- System- und Datenanalyse
Aufgaben:
- Migration des Altarchivs nach Saperion
- Export der Daten aus dem Arcis System. Diese Daten konnten im Direktzugriff gelesen werden
- Attribute wurde aus einer Informix Datenbank entnommen
- Attribute wurden für das Zielsystem konvertiert, gegen eine Kundendatenbank geprüft und entsprechende Verarbeitungskennzeichen gesetzt
- Abstimmung mit dem Kunden über die unterschiedlichen Verarbeitungskennzeichen und wann sie zu setzen sind
- Zusammenstellen der Dokumente und Attribute in Paketen
- Paket wurden dem Zielsystem zur weiteren Verarbeitung an der Importschnittstelle zur Verfügung gestellt.
- Abnahmetests und Abnahme
Produkte:
- Arcis / Unix
- FMWORM
- Informix Datenbank
- MySql
- Perl
- NFS
- Samba
- RSH / SSH
Umgebung:
- Reliant Unix ?
- Linux
- Windows
Referenzen:
Sonstiges:
- Die Migration wurde mit Hilfe eines MigrationsPC's ( Linux ) durchgeführt.
- Für den Export, die Überprüfungen und die Zusammenstellung der Importdaten wurden entsprechende Perl Scripts erstellt.
- Die Attribute und diverse Verwaltungsinformationen wurden auf dem MigrationsPC in einer MySql Datenbank verwaltet. Auch wurde die Tabellen der Kundendatenbank für den Abgleich in dieser MySql Datenbank gespeichert.
- Der Zugriff auf die Dokumente von der Worm erfolgte über NFS.
- Die Exportdaten wurden über Samba dem Windows System mit Saperion zur Verfügung gestellt.
- Die Migration wurde erfolgreich angeschlossen
- Es wurden ca. 4 Mio. Dokumente mit einer Kapazität von ca. 250 GB verarbeitet
- Die Dokumente wurden von ca. 220 Worms ausgelesen
09/05 ? 05/06 : Datenmigration Questys
Status:
Branche:
Rolle:
- System- und Datenanalyse
- Consultant
Aufgaben:
- Migration des Altbestandes aus dem Archiv Questys
- Export der Daten aus dem System
- Überprüfung und Bereinigung der Daten
- Zusammenstellen der Daten für den Export an das Rechenzentrum
- Abstimmung und Abgleich mit dem Kunden
- Überwachung der Migration
- Abnahme durch den Kunden
Produkte:
- Questys
- Linux
- Perl
- MySql
- Samba
- awk
Umgebung:
- Windows
- Linux
- AIX als Zielsystem
Sonstiges:
- Die Daten aus dem Archivsystem wurden mittels eines MigrationsPC's ( Linux ) ausgelesen und auf der internen großen Festplatte zur weiteren Verarbeitung gespeichert.
- Für die Migration wurden entsprechende Perl Scripte entwickelt.
- Weiterhin wurden noch 2 kleine Festplattenarchive exportiert
- Die Migration wurde erfolgreich durchgeführt
- Es wurden dabei ca. 1,9 Mio. Dokumente mit einer Kapazität von ca. 150 GB migriert.
- Als besondere Herausforderung in diesem Projekt war, das es sich bei den Daten um teilweise sehr alte Daten gehandelt hat und diese schon mehrere Fusionen überstanden hatten. Dadurch konnte es vorkommen, das es noch Kontonummern gab, die bereits neu belegt worden sind. Es musste hierfür jedoch noch die richtige Zuordnung gefunden werden. Aber das Problem ist gelöst worden.
07/05 ? 11/05 : Analyse Kleindienst Zahlungsverkehrsarchiv ( ebs20)
Status:
- Analyse des Systems für die Abgabe eines Angebots und Prototyping
Branche:
Rolle:
- System- und Datenanalyse
- Consultant
Aufgabe:
- Erstellen eines Prototypen für die Migration der Daten aus einem EBS20 System. Als Ziel wurde vom Kunden vorgegeben, das die Daten auf DVD's auszulagern sind.
- Analyse des Datenbestands auf einem Solaris System mit Worm
- Selektierung der relevanten Attribute aus den internen Steuerdateien.
- Umorganisation der Daten und Attribute, um diese in definierte Datenstrukturen zu packen, damit die Daten auf DVD's wiedergefunden werden können.
- Eine eigene Datenbank war nicht vorgesehen
Produkte und Tools:
- EBS20 Archivsystem
- Perl
- MySql
- HexEditor
- mc
- ftp
Umgebung:
Sonstiges:
- Vom Kunden wurde von den Dienstleistern verlangt, aus gelieferten Testdaten einen Prototypen zu entwickeln. Hierdurch wollte der Kunde entscheiden, mit welchem Dienstleister er dieses Projekt durchführen will.
- Ein entsprechender Prototyp wurde von mir dem Kunden geliefert.
- Die Migration hätte vor Ort auf einen eigenständigen MigrationsPC ( Linux, Mysql, Perl, ? ) stattgefunden, der für diese Zeit bereitgestellt worden wäre.
- Da aber der Kunde sich mit diesem Thema der Migration auch intensiv auseinander gesetzt hat, wurde endgültig entschieden, die Migration mit eigenen Mitarbeitern durchzuführen. Als Ziel wurde dann eine eigene Webanwendung erstellt.
- Es ist nicht zu einem Auftrag gekommen
- Das Volumen belief sich auf ca. 620 Worms mit einer Gesamtkapazität von ca, 700 GB Daten. Es wären dann ca. 30 Mio. Dokumente zu verarbeiten gewesen, woraus ca. 160 DVD's gebrannt worden wären
09/04 - 06/05 : diverse Aktivitäten
Aufgaben:
- Weiterbildung in Linux
- Vorbereitung auf Linux Certifikat 1
- Analyse Samos/Ars Archivstruktur
Produkte und Tools:
- HexEditor
- Perl
- mc
- sonstige Linux Tools
Umgebung:
Sonstiges:
- Intensive Beschäftigung mit Linux und seine Tools
- Intensive Vorbereitung auf die Linux Prüfung ( LPIC 1 ), welche auch bestanden wurde
- Analyse der Verwaltungsdaten und der Dateistruktur von Samos/Ars
06/04 - 08/04 : Protyping Webanwendung
Status:
Rolle:
Produkte und Tools:
- Apache
- MySql
- Perl
- Web Browser
Umgebung:
Sonstiges:
- Erarbeiten einer Webanwendung, die über eine Datenbank die Verwaltungsdaten für Tiff Dokumente findet und dann diese und die Tiff Image anzeigt.
- Es wurden hierfür Testdaten generiert.
- Die Images wurden in einer definierten Dateistruktur für den Zugriff des Webservers angelegt
06/03 ? 05/04 : Migration von Archivdaten ( Arcis ) in ein neues Archivsystem
Branche:
Rolle:
- Consultant
- System- und Datenanalyse
Aufgaben:
- Migration der Daten aus dem Arcis Archiv
- Überprüfen der Daten und Images
- Erstellen von Exportpaketen aus den Informationen
- Export der Daten in das neue System
Produkte und Tools:
- IBM CM
- Websphere
- Tivoli Storage Manager
- DB2
- Arcis
- FMWORM
- Oracle
- Perl
- MySql
- Samba
- NFS
- tifftools
Umgebung:
- Windows NT mit FMWorm
- Windows
- Linux
Sonstiges:
- Durch das Insolvenzverfahren des Archivherstellers haben sich alle meine Kunden dafür entschieden, das Archiv durch eine neue Archivlösung eines anderen Herstellers zu ersetzen. Als neues Archivsystem wurde hauptsächlich der IBM Content Manager eingesetzt.
- Es wurde für die Migration ein MigrationsPC eingesetzt. Als Betriebssystem wurde Linux installiert, da Linux alle benötigten Tools bereits mitgeliefert hat
- Die Imagedaten wurden mittels NFS direkt von den Quellworms gelesen und auf dem MigrationsPC zwischen gespeichert.
- Für das Zielsystem mussten diese Imagedateien ( Single Page Tiff ) in Multi Page Tiff konvertiert werden
- Aus den Verwaltungsdaten in der Oracle Datenbank von Arcis wurde auf den MigrationsPC in MySql neue Datentabelle erstellt. Hierin wurden auch zusätzliche Verwaltungsinformationen eingestellt, um die Migration darüber zu steuern.
- Für die Migration wurden mehrere Perl Scripte entwickelt.
- Danach wurden aus den bestehenden Daten und Attribute Exportpakete für den IBM CM ( Stand alone Systeme ) bzw. für 1 ZDA Archiv erstellt und den Zielsystem zur Verarbeitung bereit gestellt.
- Von den 11 Archivkunden wurden von mir dann insgesamt 8 Archive nach IBM CM als stand alone Version und 1 Archiv nach ZDA ( Zentrales Dokumenten Archiv ) migriert.
- Die Gesamtkapazität müsste sich auf ca. 15 ? 20 Mio. Dokumente belaufen.
09/96 ? 06/03 : Bereich Dokumentmanagmentsystem (Arcis)
Branche:
Rolle:
- Consultant
- Ingenieur Produktintegration
Augaben:
- Installation und Konfiguration des Archivsystems einschl. der Oracle Datenbank
- Erweiterung, Versionsupdate, Fehleranalyse
- Beratung und Betreuung
- Eigene Erweiterungen entwickeln
Produkte:
- Arcis NT
- FMWORM
- Oracle
- Visual Basic
Umgebung:
Sonstiges:
- Neben der reinen Consulting Aufgabe wurden auch einige wenige Erweiterungen für das System von mir entwickelt
- Es gab damals 11 Kunden, die von mir gleichzeitig betreut wurden.
1990 - 1996 :
Branche:
Rolle:
Aufgaben:
- Programmierung auf PC Visual Basic, C, C++
- Programmierung im Bereich Nixdorf Open-CST
- Progr., Inst. und Betreuung der Anbindung CST an Verbandsrechenzentrum
- Progr., Inst. und Betreuung der Anbindung Twinsafe an 2. Verbandsrechenzentrum
- Progr., Inst. und Betreuung der Anbindung Nixdorf CIP FP an Verbandsrechenzentrum
- diverse andere kleine Programmierungen
Produkte:
Umgebung:
Sonstiges:
- Entwicklung in mehreren internen Projekten
- Viele Entwicklungsthemen, wo man intern keinen anderen Mitarbeiter finden konnte
1986 - 1990 : Diverse Tätigkeiten um Umfeld Verbandsrechenzentrum
Branche:
Rolle:
Aufgaben:
- Aktivitäten im Bereich Softwareverteilung
- Kundenbetreuung
- Umsetzung zentrale Generierungsdaten (Netzwerk) für die Generierung Nixdorf BNC (8864)
- Generierungstool auf dem IBM Host entwickeln unter C/3xx
Produkte:
- Borland C
- Assembler für Nixdorf 8864
- Cobol für Nixdorf 8864
- Borland C++
- C/3++ C für Großrechner
- ISPF
- DOS
Umgebung:
- Nixdorf 8864
- PC
- S/3x0 von IBM
Sonstiges:
- Das Generierungstool wurde zu erst auf einem PC entwickelt. Dann hatte der Endkunde auch C auf dem Großrechner zum Einsatz gebracht
- Daraus entstand der Wunsch des Kunden, das Generierungstool auf dem zentralen System laufen zu lassen, da es öfter Abstimmungsprobleme zwischen der zentralen und der dezentralen Generierung gab.
- Es wurden die von den einzelnen Instituten gepflegten Generierungsdaten für das zentrale Netzwerk dann auch für die Generierung der dezentralen Terminalsteuereinheiten genutzt.
10/83 - 09/85 : Entwicklung und Betreuung von Bankensoftware
Branche:
Rolle:
Aufgaben:
- Programmierung, Weiterentwicklung und Fehlerbereinigung in einer Bankensoftware für autonome Institute
- Kundenbetreuung
Produkte:
- Assembler (8864) auf Nixdorf BNC
Umgebung:
Sonstiges:
- Das Softwarehaus hatte auf dem Terminalcontroller eine komplette Bankensoftware für alle Geschäftsbereich entwickelt.
- Hier habe ich 2 Kunden komplett betreut
1982 : Mitarbeiter eines Rechenzentrums
Branche:
Rolle:
Aufgaben:
- Programmierung Dialog mit Hostanwendungen
- Umsetzen Buchungssätze auf Band
- Unterstützung Operation Host
Umgebung:
- Terminalsystem 8864
- Honeywell Host
bis 1982 + teilweise 1983 : Mitarbeiter bei einer Sparkasse
Branche:
Rolle:
- zuletzt Gruppenleiter Datenerfassung / Datenkontrolle
- sowie Mitarbeiter in der Organisation