Entwicklung einer Python-Webanwendung zur Erstellung und Einsicht von Prüfprotokollen und Dokumentation im Kontext der DGUV V3 (einschließlich Analyse fachlicher und rechtlicher Anforderungen). Extraktion von Daten aus einer (undokumentierten) SQLite-Datenbank einer proprietären Windows/Windows CE-Anwendung, Verknüpfung mit Daten aus einer an anderen (undokumentierten) MS SQL einer anderen proprietären Windows-Anwendung, Korrektur der fehlerhaften Datenanzeige der ersten proprietären Anwendung. Aufbereitung für den PDF-Export rein über HTML/CSS3. Beratung bezüglich notwendiger Anpassungen interner Geschäftsprozesse. Technisches Umfeld: Linux-Container (Debian) unter Proxmox, Windows Server (KVM unter Proxmox), Python 3, SQLite, MS SQL Server Express, Ansible. Fachlich relevante rechtliche Vorgaben: DGUV Vorschrift 3, DIN EN 50678 VDE 0701:2021-02, DIN EN 50699 VDE 0702:2021-06.
Erweiterung, Refactoring und Implementierung von Unit Tests eines BAV-Produkts (In|sure Collphir) unter VisualWorks Smalltalk, Datenbanken MS SQL Server und Postgres. Dokumentation in Confluence/Jira.
Versionshub im Bereich der Microsoft-Serverkomponenten inklusive MS SQL Server, Versionshub von Clientanwendungen im Bereich Logistik/Vertrieb (Parallelinstallation mit Fallbackoption), Datenmigration, MS SQL Server-Administration einschließlich Planung und Umsetzung eines aktualisierten Datensicherungskonzepts, Abnahmetests, Integrationstests, Penetration Tests, Erweiterung des Monitoring und Alerting. Einsatz von Python mit Selenium für Monitoring und Tests. Informelle Schulung der Auszubildenden im Bereich IT-Infrastruktur und Netzwerke.
Unterstützung der Application Owner und Projektteams bei der Durchführung von Risk Assessments,
Planung von Risk Mitigations und der notwendigen Dokumentation
Planung und Aufbau einer hochverfügbaren Netzwerkinfrastruktur und Internetanbindung auf Basis von
pfSense.
Wartung und Weiterentwicklung eines internen Systems zur Unterstützung der Analyse und Identifikation
von Malware, sowie Real-Time-Monitoring (Visualisierung u.A. mit Gephi). Automatisierte Analyse von
Malware-Samples mittels Produkten wie Lastline, Fireeye, Titaniumcore, YARA, Virustotal, PEExtract;
Erfassung und Aufbereitung der Ergebnisse in sinnvoller Form (ETL, Normierung sowie Entwicklung
geeigneter und performanter Datenmodelle). Besondere Anforderungen werden an Stabilität, Performance
(speziell auch bei Verarbeitung und Analyse großer Datenmengen), Datenschutz/Geheimhaltung und
Sicherheit gestellt (sowohl auf Anwendungs- wie auch auf Infrastrukturebene; ein separater Serverraum,
separate Netzwerke und Firewalls zwischen allen Maschinen). Zugriff auf die Anwendung geschieht über
eine Web-GUI, eine REST-API, Kommandozeilenwerkzeuge und spezialisierte Produkte (z.B. Maltego).
Weiterhin kommuniziert die Anwendung über eine Vielzahl unterschiedlichster Schnittstellen mit internen
und externer Datenquellen bzw. -senken (TCP sockets, rsync, SFTP, FTPS, HTTP, HTTPS, REST APIs,
STIX/TAXII. data diodes, etc). Experimenteller Einsatz von Machine Learning (Klassifizierung und Feature
Extraction).
Application Management für Anwendungen in den Bereichen Material Planning, Inbound und Outbound
Logistics an Standorten in UK/Niederlande, Frankreich, Thailand, Indien, Spanien, USA, Australien, China,
Südafrika, Kanada, Argentinien, Neuseeland, Tschechien und Deutschland. Die Aufgaben umfassten
Anwenderunterstützung (global, teilweise vor Ort), Steuerung/Koordination internationaler
teamübergreifender Supportaktivitäten, Problem Management, Fehlersuche und –korrektur (sowohl
eigenständig wie auch als Unterstützung der Anwendungsentwicklung), Disaster Recovery (Planung,
Dokumentation, Test, Durchführung/Koordination), Security & Controls (Definition, Dokumentation,
Reviews und Audits), Monitoring, Reporting/Business Intelligence (Business Objects, Pentaho, ad-hoc-
Reporting per SQL), Datenpflege, Datenkonsistenzsicherung und Datenkorrektur, Performanceanalyse und -
optimierung (primär Datenbanken), Datenabgleich mit internen und externen System und Entwicklung zur
Automatisierung oder Teilautomatisierung wiederkehrenden Aufgaben. Das technische Umfeld umschloss
WebSphere, Oracle, MS SQL Server, PL/SQL, Java, TSO, Windows, Linux, Cisco Request Center, BMC
Remedy Action Request System, SyncroTESS, MS Office (Access, Excel, Word, PowerPoint, Outlook) und
MS SharePoint.
Neuentwicklung eines webbasierten Planungssystems in Smalltalk (Pharo, Seaside, Zinc). Datenhaltung per In-
Memory-Database mit redundantem Logging, Datenabgleich mit einer MS SQL Server-Datenbank.
Erweiterung der Paketfilterkomponente des Kernels (pf) um DiffServ (Differentiated Services, DSCP).
Anpassung der WebGUI und Dokumentation. Aufbau einer Testumgebung, Definition und Durchführung von
Tests.
Zeitraum: 03/2006 – 06/2012
Position: Entwickler
Branche: Telekommunikation
Technologie: PHP4, PHP5, JavaScript (JScript), Windows, Linux, IIS, Apache, MQSeries, MS SQL Server, Oracle 10g/11g, SVN, Eclipse, Trac
Projekt: "Exception Handling" (Incident Management)
Beschreibung: Anforderungsanalyse, Design, Entwicklung und Last Level Support
Anforderungsanalyse, Design, Entwicklung und Last Level Support.
Eingesetzt werden PHP5, JavaScript, Oracle (bis 2009 MS SQL),
Apache (bis 2009 IIS), Windows Server und Linux (RHEL). Die
Software dient der SOX-, ITIL-, BDSG- und GoB-konformen
automatischen und manuellen Verarbeitung von Exceptions im Rahmen
der Geschäftsprozesse. Schwerpunkte meiner Aufgaben liegen in
Konzeption und Entwicklung des Datenbankabstraktionslayers,
Systemkerns, der Benutzeroberfläche, des Berechtigungskonzepts,
Monitoringkomponenten, Datenbankperformanceoptimierung sowie
statistischer Auswertungen auf dem Datenbestand. Schnittstellen zu
anderen Prozessen über Web Services, MQSeries (WebSphere MQ), XML
(FTP, SFTP, HTTP), UDP.
Projektabschnitt „Datenbankabstraktionslayer MS SQL Server/DB2“
(03/2006 – 06/2006)
Konzeption und Entwicklung eines Datenbankabstraktionslayers für
MS SQL Server und DB2. Die Abstraktionsschicht ermöglicht nicht
nur den einfachen Austausch des verwendeten RDBMS (daten-
bankspezifische SQL-Statements werden während der Laufzeit
automatisch umgeschrieben), sondern bildet auch eine SOX-konforme
Historisierung transparent ab. Durch eine „Zeitmaschine“ kann ein
Anwender in seiner aktuellen Sitzung die Anwendung auf Knopfdruck
auf einen früheren Datenbestand versetzen; dazu ändert die
Abstraktionsschicht alle abgesetzten SQL-Statement, um den
historischen Stand wiederzugeben.
Eingesetzt wird MS SQL Server 2000; die vom Kunden geplante
spätere Migration auf DB2 findet nicht statt.
Projektabschnitt „Statistiksystem“ (06/2006 – 08/2006)
Konzeption und Entwicklung der Statistikkomponenten
Statistikdefinition, Statistikberechnung und Ergebnisdarstellung.
Die Statistiken verwenden bei der Berechnung die in der Datenbank
vorhandenen Historisierungsdaten; daher können jederzeit auch
Auswertungen für vergangene Zeiträume erfolgen.
Die Statistikdefinition erfolgt über eine GUI, welche neben
einfachen KPI-Statistiken („Key Performance Indicators“) auch
deutlich komplexere Auswertungen per „Point-&-Klick“ zulässt.
Das Berechnungsmodul ermittelt ausstehende Berechnungen, steuert
die Ausführung und sorgt für die revisionssichere Ablage der
Ergebnisse. Anhand prognostizierter und bei vorherigen Läufen
aufgezeichneter Ausführungspläne (diese werden vom
Datenbankabstraktionslayer in einem in datenbankunabhängiger Form
geliefert) können temporäre Indizes zwecks Laufzeitoptimierung
automatisch ermittelt und erstellt werden.
Die Ergebnisse können tabellarisch dargestellt (mit speicherbaren
Such- und Filterfunktionen), nach Excel oder anderen Anwendungen
exportiert oder per Web Service bereitgestellt werden.
Projektabschnitt „vereinheitlichte Gesamtsicht“
(08/2006 – 09/2006)
Darstellung aller Incidents in einer Gesamtsicht unter
Berücksichtigung der Berechtigungen. Ein hierarchisches
Berechtigungskonzept (Umfang: über 25.000 Rollen) trifft auf
mehrere Millionen Incidents, für die pro Klassifizierung feldweise
Berechtigungen vergeben sind. Da sich die Datenstrukturen einer
Klassifizierung ändern kann, müssen auch historische Strukturen
und deren Berechtigungssätze berücksichtigt werden. Darüber hinaus
erfolgen auch Berechtigungsprüfungen auf Dateninhalte (einige
100.000 Kriterien).
Da die Fälle nicht einfach abgearbeitet werden, sondern auch
laufend die jeweiligen verfügbaren Volumina für Planung und
Steuerung bekannt sein müssen, muss die Gesamtsicht tatsächlich
die (durch Berechtigungen eingeschränkte) individuelle Sicht auf
den aktuellen Datenbestand widerspiegeln. Die Herausforderung war
hier, eine Antwortzeit von deutlich unter einer Sekunde zu
erreichen, auch bei zusätzlicher weiterer Filterung durch den
Anwender. Zur Wirkbetriebseinführung sind etwa 5.000 Anwender re-
gistriert, mehrere 100 sind gleichzeitig aktiv.
Projektabschnitt „Beginn Wirkbetrieb“ (09/2006 – 03/2007)
Beginn des Last Level Supports (anfangs auch First und Second
Level Support). Da das Datenvolumen deutlich schneller steigt als
geplant, zeichnet sich dieser Projektabschnitt durch intensive
Performanceoptimierungsmaßnahmen aus. Weiterhin entsteht eine
Vielzahl von Routinen zur maschinellen Verarbeitung von Incidents
(einschließlich GUI zur zentralen Konfiguration und Einbindung in
den Workflow).
Projektabschnitt „Datenbankabstraktionslayer PostgreSQL“
(03/2007 – 04/2007)
Erweiterung der Datenbankabstraktionsschicht um Kompatibilität zu
PostgreSQL. Entwicklung eines inkrementellen
Migrationsverfahrens. Bedingt durch die vorhandenen
Historisierungsdaten ist eine sukzessive Migration im laufenden
Betrieb möglich.
Projektabschnitt „Priorisierte Datenanlieferung/Real Time
Monitoring“ (04/2007 – 10/2007)
Erweiterung und Performanceoptimierung des Systemkerns: für einige
100 neu hinzugekommene Incidentklassen wird eine
schnellstmögliche Bearbeitung gefordert. Vorverarbeitung und
Bereitstellung der angelieferten Incidents (Umfang der
Anlieferungen: einige 100.000 Datensätze täglich) müssen also
zeitnah geschehen, ohne dass dabei der laufende Onlinebetrieb
beeinträchtigt wird.
Konzeption und Entwicklung eines Real Time Monitorings zur
Echtzeitanalyse von Antwortzeiten und Erkennung von
Fehlersituationen (sowohl für den Onlinebetrieb wie auch für die
Hintergrundprozesse). Der Großteil der Entwicklungsarbeit betrifft
die graphische (sinnvoll verdichtete) Darstellung der Messwerte.
Schon leichte Tendenzen können hier erkannt werden, sodass
Maßnahmen ergriffen werden können, bevor Beeinträchtigungen durch
den Anwender erkennbar werden.
Projektabschnitt „Erweiterung Automatische Incidentverarbeitung“
(10/2007 – 05/2008)
Entwicklung weiterer Routinen für die maschinelle Verarbeitung von
Incidents. Hierzu gehört auch die Anbindung eines externen Systems
(ARS) zum automatisiertem Datenaustausch und -abgleich.
Projektabschnitt „Datenbankabstraktionslayer Oracle“
(06/2008 – 12/2008)
Erweiterung der Datenbankabstraktionsschicht um Kompatibilität zu
Oracle. Hier liegt die Herausforderung in speziellen
Beschränkungen (beispielsweise 30-Zeichen-Beschränkung bei Namen,
Längenbeschränkung bei Literalen), Absonderlichkeiten
(beispielweise betrachtet Oracle leere Zeichenketten als NULL)
sowie einer deutlich schlechteren Performance bei einigen
Statements. Auch hier erreicht die Abstraktionsschicht, dass keine
der vorhandenen SQL-Statements angepasst werden müssen. Bestimmte
Konstrukte, die unter Oracle zu Performanceeinbußen führen, werden
erkannt und automatisch optimiert.
Projektabschnitt „Restelisten“ (12/2008 – 01/2009)
Redesign eines bestehenden Prozesses. Die alte Anwendung benötigte
für die Vorverarbeitung (Datenanreicherung, Klassifizierung,
Abgleich mit vorhandenem Bestand, Bewertung, Bereitstellung) der
„Restelisten“ (Umfang: mehrere 100.000 Datensätze) ein komplettes
Wochenende. Statistische Auswertungen waren nur sehr eingeschränkt
möglich; Planung und Steuerung litten entsprechend. Die
Komplexität der Anwendung war hoch, Anpassungen an geänderte
Anforderungen kaum möglich. Zudem war die Datenbanklast extrem
hoch, wodurch der Onlinebetrieb am Wochenende stark beeinträchtigt
wurde.
Die neue Anwendung behebt die genannten Probleme. Die die
komplette Vorverarbeitung wird jetzt in wenigen Minuten erledigt.
Der komplette (aktuelle und historische) Bestand liegt in einer
Form vor, die Auswertungen und Statistiken unkompliziert und
online und zulässt. Änderungen an Bewertungs- und Auswahlkriterien
sind live möglich; durch eine Simulationskomponente können die
Auswirkungen dieser Änderungen direkt dargestellt werden.
Der Prozess wird auch in den nächsten Jahren noch kontinuierlich
optimiert und an neue Anforderungen angepasst.
Projektabschnitt „Step 1“ (01/2009 – 11/2009)
Massive Erhöhung der Komplexität des Workflows. Besonderes
Augenmerk liegt hier auf Statistiken: neben täglichen
Auswertungen, die detaillierte Informationen zu hunderten von
Einzelaspekten liefern, werden auch Echtzeitanalysen benötigt.
Neben Erfolgskontrollen diesen diese Daten auch der Steuerung des
Personaleinsatzes. Aufgrund der Komplexität der Abläufe ergibt
sich hier die Herausforderung, sinnvolle und nachvollziehbare
Ergebnisse bereitzustellen. In Zusammenarbeit mit der Fachseite
werden die Statistiken in einem Zeitraum von mehr als sechs
Monaten immer wieder angepasst und verfeinert.
Projektabschnitt „Datenverfolgung/Frühwarnsystem“
(11/2009 – 04/2010)
Die Anwendung verfügt über ein „Messpunktverfahren“, welches
(redundant) quantitative und qualitative Messwerte in allen
Bereichen von Anlieferung über Vorverarbeitung bis hin zur
Bereitstellung ermittelt und revisionssicher (und wiederum
redundant) ablegt. Dadurch wird dokumentiert, dass im Verlauf der
(teilweise sehr komplexen) maschinellen Verarbeitungsschritte
weder Daten „verlorengehen“ noch „erfunden“ werden.
Schon aufgrund des hohen Datenvolumens ist eine Interpretation der
Daten sehr aufwendig. Durch eine neu konzipierte und entwickelte
GUI-Komponente wurde ein praxisgerechter und anwenderfreundlicher
Zugang geschaffen, der die kompletten Lebenszyklen aller
aufgezeichneten Datenelemente detailliert und nachvollziehbar
darstellt.
Da das „Messpunktverfahren“ qualitative und quantitative Daten
bereits zum frühestmöglichen Zeitpunkt ermittelt, wird auf dieser
Datenbasis ein Frühwarnsystem entwickelt. Erkannt werden unter
anderem fehlerhafte oder ausbeliebende Datenlieferungen, Fehler im
Verarbeitungsprozess oder unerwartete Mengenanstiege. Es dient
somit nicht nur der analytischen Qualitätssicherung, sondern auch
der Personalplanung.
Projektabschnitt „Step 1 plus“ (04/2010 – 06/2011)
An Hand der im Pilotprojekt „Step 1“ gewonnen Erkenntnisse werden
die Geschäftsprozesse verbessert; teilweise wird die Komplexität
reduziert, teilweise wird aber auch die Anwenderunterstützung
durch das System verbessert, sodass die Komplexität der Software
steigt. Auch die Statistiken profitieren von der teilweise
reduzierten Komplexität, werden dafür aber umfangreich erweitert.
Projektabschnitt „Benutzeradministration“ (06/2011 – 10/2011)
Die bisherigen komplexen papierbasierten Prozesse für die
Anwenderregistrierungen und Berechtigungsänderungen sollen durch
noch komplexere papierlose Prozesse abgelöst bzw. ergänzt werden.
Hier ist die Herausforderung, dass auch ungeschulte Vorgesetzte
(selbst ohne Grundkenntnisse bezüglich der Anwendung) die
entsprechenden Vorgänge in Bereich der Benutzeradministration auf
Anhieb fehlerfrei durchführen könne müssen.
Projektabschnitt „Step 1 reloaded“ (11/2011 – 03/2012)
Weitere Verbesserung der Geschäftsprozesse. Die Statistiken werden
massiv erweitert; sie ermöglichen jetzt auch detaillierte
analytische Qualitätssicherung und dienen als Grundlage für
konstruktive Qualitätssicherungsmaßnahmen.
Projektabschnitt „Restelistenvcrfahren erweitern“
(04/2012 – 06/2012)
Aufgrund der besonderen positiven Anwenderresonanz bezüglich der
redesignten „Restelisten“ soll das Verfahren jetzt auch in anderen
Bereich eingesetzt werden. Die Herausforderung ist hier, dass der
Einsatz in vielen Fällen nicht sinnvoll, in einigen Fällen sogar
unmöglich ist. Für diese Fälle wurden alternative Lösungen
konzipiert und entwickelt, sodass auch hier die gewünschten
Möglichkeiten bereitgestellt sind.
CM Synergy
Projekt: FIS-OptimoInformations- und Steuerungssystem, Bereich Lageroptimierung).
Neben Umsetzung neuer Anforderungen und Fehlerbehebung auch
signifikante Steigerung der Performance in den Bereichen GUI
und Datenbankzugriffe; Zusammenführung der unterschiedlichen
Softwareversionen für die verschiedenen Werke in einen gemeinsamen
Stand. In einigen Fällen Neuml;llen Neudesign des GUIs zur Steigergung der
Anwenderfreundlichkeit (auch in Hinblick auf Reduzierung von
Fehlern bei der Bedienung).
internet-basierten Systems mit weltweiter Zugriffsmöglichkeit
über Webbrowser. Entwicklung in PHP4 mit mySQL unter Windows und
Linux. Auswahl, Bereitstellung und Konfiguration der Server.
Besondere Berücksichtigung der Aspekte Sicherheit,
Fehlertoleranz (schon mit Berücksichtigung im Datenmodell),
Akzeptanz (unter Anderem durch Anwenderfreundlichkeit,
Antwortzeitverhalten und praxisgerechte Umsetzungen),
Wartbarkeit, Wirtschaftlichkeit und Erweiterbarkeit.
Ton- und Pyrotechnik, sowohl in Hard- wie auch Software. Der
Bereich der Zielplattformen reicht dabei von Microcontrollern
bis hin zu vernetzen heterogenen Systemen. Produktion und
Entwicklung für internen Bedarf und Kunden weltweit, wie z.B.
Toshiba, Yamaha, Microsoft, Danone usw.
Rahmen von Ausschreibungen sowie Aufwandsschätzungen. Die
Projekte waren überwiegend im Bereich Java und
Internettechnologien angesiedelt.
Windows, Linux, Apache, BEA Weblogic, WebDAV
Beschreibung: Im Rahmen der Konzeption und Realisierung einerAusschreibungsplattform im Auftrage des Beschaffungsamts des
Bundes hatte ich folgende Aufgaben: Konzeption, Dokumentation
und Verifikation einer geeigneten Systemarchitektur
(Client/Server-System über Internet mit hohen Anforderungen an
Vertraulichkeit, Rechtskräftigkeit und Zuverlässigkeit,
Sicherheitskonzeption, Design von Komponenten, Bedarfsanalyse,
Auswahl, Konzeption, Design, Machbarkeitsuntersuchungen,
Dokumentation, Programmierung (in C++ und Java), Implementierung
kryptographischer Komponenten und Protokolle (für die Bereiche
Verschlüsselung, rechtskräftige digitale Signaturen gemäß
SigG/SigV und kryptographische Zeitstempel), Programmierung
eines entsprechenden Adobe Acrobat-Plugins. Zusätzlich erhielt
ich eine Ausbildung zum BEA WebLogic Administrator.
MS Project, Groupwise
Beschreibung: Nach meinem Firmenwechsel unterstützte ich weiterhin das Projektdes Zollkriminalsamts (in geringerem zeitlichen Umfang, parallel
zu anderen Tätigkeiten), siehe auch nachfolgende Beschreibung.
Senior Consultat
Projekt: INZOLL-NEU (nicht INPOL-NEU!)MS Project, Groupwise
Beschreibung: Bei diesem Projekt arbeitete ich als Qualitätssicherungsverant-wortlicher (QSV) in der Analysephase des IT-Großprojektes. Dies
beinhaltete auch Umsetzung und Anpassen der Vorgaben des
V-Modells 97 (Tailoring). Coaching, konstruktive und analytische
QS-Maßnahmen, Erstellung von Richtlinien und Teamleitung. In
2001 (mit dem Beginn der Designphase) übernahm ich zusätzlich
die Rolle des Architekturspezialisten.
Senior Consultat
Projekt: Webauftritt des WWF anläßlich der Expo in HannoverHierbei übernahm ich die komplette HTML-Kodierung (zu diesem
Zeitpunkt erfüllte noch keine HTML-Authoring-Software die
gestellten Anforderungen, daher musste direkt handkodiert
werden) und war ebenfalls an der Planung beteiligt. Um
Flexibilität bei Änderungen in Inhalt oder Form zu gewährleisten
sowie zur Unterstützung bei der Erstellung (andernfalls wäre der
Zeitplan nicht zu halten gewesen), entwickelte ich ein einfaches
Content-Management-System. Die Teamleitung des HTML-
Kodierungsteams oblag mir.
Senior Consultat
Projekt: PROSADB/2, CICS, DMS
Beschreibung: Erstellung eines Workflowsystem und Dokumentenmanagementsystems.Verwendung von Enfin Smalltalk, DB/2, Hostanbindung über CICS
(APPC), Zielplattformen OS/2 und Windows NT. Ich war hierbei
primär in den Bereichen Programmierung, Analyse, Design, GUI-
Konzeption, GUI-Design, Test (hinsichtlich der Aspekte
Anwendungsfehler und Performanz; Tätigkeiten umfassten
Konzeption, Durchführung und Auswertung, einschließlich der
Programmierung entsprechender Mess-, Protokollierungs- und
Auswertungssoftware), Dokumentation, Akzeptanzanalyse und
Anwenderbetreuung tätig.
Senior Consultat
Projekt: StundenbogensystemMS Project
Beschreibung: Entwicklung eines Stundenbogensystems, unter Verwendung vonJava-Clients zur Bereitstellung einer Serververbindung über das
Internet (Ziele: möglichst globale Erreichbarkeit des Systems,
vollständige Gewährleistung der Vertraulichkeit der Daten).
Meine hauptsächlichen Aufgaben umfassten eine Erprobung der
Verwendung von CORBA und die Erstellung eines geeigneten
Frameworks sowie Anleitung, Unterstützung und Coaching der
anderen Projektmitarbeiter in den Bereichen Analyse, Design,
Projektplanung, Test und Programmierung.
Select OMT
Beschreibung: Dieses Projekt wurde in Kooperation mit Lufthansa Systems inBerlin ausgeführt wurde. Meine Aufgaben beinhalteten
objektorientierte Analyse, Programmierung, Coaching und
Qualitätssicherung. Im Projekt wurde VisualAge/IBM Smalltalk mit
Oracle verwendet, um Kompatibilität zu Windows 3.1, Windows NT
und OS/2 zu sicherzustellen.
Telekommunikation, Flugsicherung
Anstellung: Angestellt bei Rösch ConsultingUnified Method (UML) sowie die entsprechenden Werkzeuge,
C/C++/Objective C, Smalltalk (diverse Systeme), Informix,
Oracle, ObjecStore, Microfocus COBOL Workbench, Apple Macintosh,
NeXT, PC (DOS, Windows, OS/2, Unix- Derivate), IBM Mainframe
Beschreibung: Die Arbeit für Rösch Consulting umfasste den kompletten Zyklusder objektorientierten Anwendungsentwicklung, beginnend mit der
Aufnahme der Anforderungen, der Ausführung der OOA und des OOD
bei Verwendung diverser Methoden und Werkzeuge, Programmierung,
und Qualitätssicherung (inklusive Dokumentation während aller
Stufen). Die meisten Projekte schlossen mich in einem
Teilbereich des kompletten Zyklus ein. Als Trainer hielt und
verfasste ich Trainings in OOA/OOD und "Programmierung in
Smalltalk". Ich verfasste ebenfalls Lehrmaterial für die
Deutsche Telekom, welches den kompletten Zyklus der
objektorientierten Anwendungsentwicklung vermittelte,
einschließlich einiger Beispielanwendungen in Smalltalk und C++,
sowohl als Einplatz- als auch als Client/Server-Versionen und
jeweils mit relationalen und objektorientierten Datenbanken. Ich
nahm an vielen verschiedenen Projekten teil, die unter anderem
die Bereiche Banken, Versicherungen, Telekommunikation und
Flugsicherung umfassten. Ich untersuchte auch die Anwendung von
Qualitätssicherung während früher Projektphasen, insbesondere
während der Analysephase. Dies führte zu einer effizienten
Methode zur Lieferung fehlerfreier Objektorientierter Analysen
gemäß der DIN/ISO 9000 Teil 3, wodurch viele teure Fehler in
einer frühen und "billigen" Projektphase entdeckt und beseitigt
werden. Die Aufgaben beinhalteten auch die Vertretung der Firma
Rösch Consulting als Aussteller auf Messen.
CLIST, Embedded SQL
Beschreibung: Ich arbeitete für Rösch Consulting im Projekt LVR-CM; diesumfasste den Aufbau eines Configuration-Management-Systems für
den Landschaftsverband Rheinland in Köln auf einem IBM 3090
Mainframe unter Verwendung objektorientierter Techniken,
einschließlich eines CORBA-ähnlichen Object Request Brokers
(CORBA existierte zu dieser Zeit noch nicht). Außerdem wurde ein
entsprechendes Framework entwickelt, wobei ein Schwerpunkt auf
Wartbarkeit gelegt wurde. Die Programmierung wurde überwiegend
durch mich ausgeführt, hauptsächlich in C/370 mit Embedded SQL
und COBOL, Assembler, JCL und CLIST wo dies notwendig war. Das
CM-System erhielt den "Computerworld"s Object Application Award"
als "Best object based application developed using NON object-
oriented tools". Eine detailliertere Beschreibung des CM-System
findet sich im Buch "Objects in Action" von Paul Harmon und
David A. Taylor (1993). Nach dem erfolgreichen Abschluss dieses
Projekts stellte mich Rösch Consulting als festen Mitarbeiten
an.
Studiengesellschaft Nahverkehr (entwickelte sich zu einer
Vollzeitanstellung als Programmierer)
Projekte: GIPAS, CROSSWorkstations, Cadre Teamwork, Ingres, Embedded SQL, C, Pascal
Beschreibung: Das Haupttätigkeitsfeld war des Projekt GIPAS, welches unterUNIX System/V in C mit Embedded SQL entwickelt wurde. Meine
Verantwortlichkeiten umfassten hauptsächlich das
Anwendungsdesign und Programmierung, außerdem
Systemadministration, die Evaluation von Werkzeugen und
Bewerbern, die Installation neuer Hardware, den Bau neuer
Hardware und die Reparatur alter Hardware. Gleichzeitig wartete
ich das Produkt CROSS, geschrieben in Pascal für MS-DOS. Später
wurde ich als Designer und Teamleiter für die Portierung
(Analyse des Altsystems, gefolgt von Design und
Neuprogrammierung) von CROSS auf UNIX ausgewählt. Kurz vor dem
erfolgreichen Abschluss dieses Projekts stellte mich Rösch
Consulting als freien Mitarbeiter an (ich führte das Projekt
parallel dazu noch zum Abschluss).
Die Arbeiten bei der Studiengesellschaft Nahverkehr und als
freier Mitarbeiter für die Firma Rösch Consulting geschahen
parallel zu einem Informatikstudium.
Entwicklung einer Python-Webanwendung zur Erstellung und Einsicht von Prüfprotokollen und Dokumentation im Kontext der DGUV V3 (einschließlich Analyse fachlicher und rechtlicher Anforderungen). Extraktion von Daten aus einer (undokumentierten) SQLite-Datenbank einer proprietären Windows/Windows CE-Anwendung, Verknüpfung mit Daten aus einer an anderen (undokumentierten) MS SQL einer anderen proprietären Windows-Anwendung, Korrektur der fehlerhaften Datenanzeige der ersten proprietären Anwendung. Aufbereitung für den PDF-Export rein über HTML/CSS3. Beratung bezüglich notwendiger Anpassungen interner Geschäftsprozesse. Technisches Umfeld: Linux-Container (Debian) unter Proxmox, Windows Server (KVM unter Proxmox), Python 3, SQLite, MS SQL Server Express, Ansible. Fachlich relevante rechtliche Vorgaben: DGUV Vorschrift 3, DIN EN 50678 VDE 0701:2021-02, DIN EN 50699 VDE 0702:2021-06.
Erweiterung, Refactoring und Implementierung von Unit Tests eines BAV-Produkts (In|sure Collphir) unter VisualWorks Smalltalk, Datenbanken MS SQL Server und Postgres. Dokumentation in Confluence/Jira.
Versionshub im Bereich der Microsoft-Serverkomponenten inklusive MS SQL Server, Versionshub von Clientanwendungen im Bereich Logistik/Vertrieb (Parallelinstallation mit Fallbackoption), Datenmigration, MS SQL Server-Administration einschließlich Planung und Umsetzung eines aktualisierten Datensicherungskonzepts, Abnahmetests, Integrationstests, Penetration Tests, Erweiterung des Monitoring und Alerting. Einsatz von Python mit Selenium für Monitoring und Tests. Informelle Schulung der Auszubildenden im Bereich IT-Infrastruktur und Netzwerke.
Unterstützung der Application Owner und Projektteams bei der Durchführung von Risk Assessments,
Planung von Risk Mitigations und der notwendigen Dokumentation
Planung und Aufbau einer hochverfügbaren Netzwerkinfrastruktur und Internetanbindung auf Basis von
pfSense.
Wartung und Weiterentwicklung eines internen Systems zur Unterstützung der Analyse und Identifikation
von Malware, sowie Real-Time-Monitoring (Visualisierung u.A. mit Gephi). Automatisierte Analyse von
Malware-Samples mittels Produkten wie Lastline, Fireeye, Titaniumcore, YARA, Virustotal, PEExtract;
Erfassung und Aufbereitung der Ergebnisse in sinnvoller Form (ETL, Normierung sowie Entwicklung
geeigneter und performanter Datenmodelle). Besondere Anforderungen werden an Stabilität, Performance
(speziell auch bei Verarbeitung und Analyse großer Datenmengen), Datenschutz/Geheimhaltung und
Sicherheit gestellt (sowohl auf Anwendungs- wie auch auf Infrastrukturebene; ein separater Serverraum,
separate Netzwerke und Firewalls zwischen allen Maschinen). Zugriff auf die Anwendung geschieht über
eine Web-GUI, eine REST-API, Kommandozeilenwerkzeuge und spezialisierte Produkte (z.B. Maltego).
Weiterhin kommuniziert die Anwendung über eine Vielzahl unterschiedlichster Schnittstellen mit internen
und externer Datenquellen bzw. -senken (TCP sockets, rsync, SFTP, FTPS, HTTP, HTTPS, REST APIs,
STIX/TAXII. data diodes, etc). Experimenteller Einsatz von Machine Learning (Klassifizierung und Feature
Extraction).
Application Management für Anwendungen in den Bereichen Material Planning, Inbound und Outbound
Logistics an Standorten in UK/Niederlande, Frankreich, Thailand, Indien, Spanien, USA, Australien, China,
Südafrika, Kanada, Argentinien, Neuseeland, Tschechien und Deutschland. Die Aufgaben umfassten
Anwenderunterstützung (global, teilweise vor Ort), Steuerung/Koordination internationaler
teamübergreifender Supportaktivitäten, Problem Management, Fehlersuche und –korrektur (sowohl
eigenständig wie auch als Unterstützung der Anwendungsentwicklung), Disaster Recovery (Planung,
Dokumentation, Test, Durchführung/Koordination), Security & Controls (Definition, Dokumentation,
Reviews und Audits), Monitoring, Reporting/Business Intelligence (Business Objects, Pentaho, ad-hoc-
Reporting per SQL), Datenpflege, Datenkonsistenzsicherung und Datenkorrektur, Performanceanalyse und -
optimierung (primär Datenbanken), Datenabgleich mit internen und externen System und Entwicklung zur
Automatisierung oder Teilautomatisierung wiederkehrenden Aufgaben. Das technische Umfeld umschloss
WebSphere, Oracle, MS SQL Server, PL/SQL, Java, TSO, Windows, Linux, Cisco Request Center, BMC
Remedy Action Request System, SyncroTESS, MS Office (Access, Excel, Word, PowerPoint, Outlook) und
MS SharePoint.
Neuentwicklung eines webbasierten Planungssystems in Smalltalk (Pharo, Seaside, Zinc). Datenhaltung per In-
Memory-Database mit redundantem Logging, Datenabgleich mit einer MS SQL Server-Datenbank.
Erweiterung der Paketfilterkomponente des Kernels (pf) um DiffServ (Differentiated Services, DSCP).
Anpassung der WebGUI und Dokumentation. Aufbau einer Testumgebung, Definition und Durchführung von
Tests.
Zeitraum: 03/2006 – 06/2012
Position: Entwickler
Branche: Telekommunikation
Technologie: PHP4, PHP5, JavaScript (JScript), Windows, Linux, IIS, Apache, MQSeries, MS SQL Server, Oracle 10g/11g, SVN, Eclipse, Trac
Projekt: "Exception Handling" (Incident Management)
Beschreibung: Anforderungsanalyse, Design, Entwicklung und Last Level Support
Anforderungsanalyse, Design, Entwicklung und Last Level Support.
Eingesetzt werden PHP5, JavaScript, Oracle (bis 2009 MS SQL),
Apache (bis 2009 IIS), Windows Server und Linux (RHEL). Die
Software dient der SOX-, ITIL-, BDSG- und GoB-konformen
automatischen und manuellen Verarbeitung von Exceptions im Rahmen
der Geschäftsprozesse. Schwerpunkte meiner Aufgaben liegen in
Konzeption und Entwicklung des Datenbankabstraktionslayers,
Systemkerns, der Benutzeroberfläche, des Berechtigungskonzepts,
Monitoringkomponenten, Datenbankperformanceoptimierung sowie
statistischer Auswertungen auf dem Datenbestand. Schnittstellen zu
anderen Prozessen über Web Services, MQSeries (WebSphere MQ), XML
(FTP, SFTP, HTTP), UDP.
Projektabschnitt „Datenbankabstraktionslayer MS SQL Server/DB2“
(03/2006 – 06/2006)
Konzeption und Entwicklung eines Datenbankabstraktionslayers für
MS SQL Server und DB2. Die Abstraktionsschicht ermöglicht nicht
nur den einfachen Austausch des verwendeten RDBMS (daten-
bankspezifische SQL-Statements werden während der Laufzeit
automatisch umgeschrieben), sondern bildet auch eine SOX-konforme
Historisierung transparent ab. Durch eine „Zeitmaschine“ kann ein
Anwender in seiner aktuellen Sitzung die Anwendung auf Knopfdruck
auf einen früheren Datenbestand versetzen; dazu ändert die
Abstraktionsschicht alle abgesetzten SQL-Statement, um den
historischen Stand wiederzugeben.
Eingesetzt wird MS SQL Server 2000; die vom Kunden geplante
spätere Migration auf DB2 findet nicht statt.
Projektabschnitt „Statistiksystem“ (06/2006 – 08/2006)
Konzeption und Entwicklung der Statistikkomponenten
Statistikdefinition, Statistikberechnung und Ergebnisdarstellung.
Die Statistiken verwenden bei der Berechnung die in der Datenbank
vorhandenen Historisierungsdaten; daher können jederzeit auch
Auswertungen für vergangene Zeiträume erfolgen.
Die Statistikdefinition erfolgt über eine GUI, welche neben
einfachen KPI-Statistiken („Key Performance Indicators“) auch
deutlich komplexere Auswertungen per „Point-&-Klick“ zulässt.
Das Berechnungsmodul ermittelt ausstehende Berechnungen, steuert
die Ausführung und sorgt für die revisionssichere Ablage der
Ergebnisse. Anhand prognostizierter und bei vorherigen Läufen
aufgezeichneter Ausführungspläne (diese werden vom
Datenbankabstraktionslayer in einem in datenbankunabhängiger Form
geliefert) können temporäre Indizes zwecks Laufzeitoptimierung
automatisch ermittelt und erstellt werden.
Die Ergebnisse können tabellarisch dargestellt (mit speicherbaren
Such- und Filterfunktionen), nach Excel oder anderen Anwendungen
exportiert oder per Web Service bereitgestellt werden.
Projektabschnitt „vereinheitlichte Gesamtsicht“
(08/2006 – 09/2006)
Darstellung aller Incidents in einer Gesamtsicht unter
Berücksichtigung der Berechtigungen. Ein hierarchisches
Berechtigungskonzept (Umfang: über 25.000 Rollen) trifft auf
mehrere Millionen Incidents, für die pro Klassifizierung feldweise
Berechtigungen vergeben sind. Da sich die Datenstrukturen einer
Klassifizierung ändern kann, müssen auch historische Strukturen
und deren Berechtigungssätze berücksichtigt werden. Darüber hinaus
erfolgen auch Berechtigungsprüfungen auf Dateninhalte (einige
100.000 Kriterien).
Da die Fälle nicht einfach abgearbeitet werden, sondern auch
laufend die jeweiligen verfügbaren Volumina für Planung und
Steuerung bekannt sein müssen, muss die Gesamtsicht tatsächlich
die (durch Berechtigungen eingeschränkte) individuelle Sicht auf
den aktuellen Datenbestand widerspiegeln. Die Herausforderung war
hier, eine Antwortzeit von deutlich unter einer Sekunde zu
erreichen, auch bei zusätzlicher weiterer Filterung durch den
Anwender. Zur Wirkbetriebseinführung sind etwa 5.000 Anwender re-
gistriert, mehrere 100 sind gleichzeitig aktiv.
Projektabschnitt „Beginn Wirkbetrieb“ (09/2006 – 03/2007)
Beginn des Last Level Supports (anfangs auch First und Second
Level Support). Da das Datenvolumen deutlich schneller steigt als
geplant, zeichnet sich dieser Projektabschnitt durch intensive
Performanceoptimierungsmaßnahmen aus. Weiterhin entsteht eine
Vielzahl von Routinen zur maschinellen Verarbeitung von Incidents
(einschließlich GUI zur zentralen Konfiguration und Einbindung in
den Workflow).
Projektabschnitt „Datenbankabstraktionslayer PostgreSQL“
(03/2007 – 04/2007)
Erweiterung der Datenbankabstraktionsschicht um Kompatibilität zu
PostgreSQL. Entwicklung eines inkrementellen
Migrationsverfahrens. Bedingt durch die vorhandenen
Historisierungsdaten ist eine sukzessive Migration im laufenden
Betrieb möglich.
Projektabschnitt „Priorisierte Datenanlieferung/Real Time
Monitoring“ (04/2007 – 10/2007)
Erweiterung und Performanceoptimierung des Systemkerns: für einige
100 neu hinzugekommene Incidentklassen wird eine
schnellstmögliche Bearbeitung gefordert. Vorverarbeitung und
Bereitstellung der angelieferten Incidents (Umfang der
Anlieferungen: einige 100.000 Datensätze täglich) müssen also
zeitnah geschehen, ohne dass dabei der laufende Onlinebetrieb
beeinträchtigt wird.
Konzeption und Entwicklung eines Real Time Monitorings zur
Echtzeitanalyse von Antwortzeiten und Erkennung von
Fehlersituationen (sowohl für den Onlinebetrieb wie auch für die
Hintergrundprozesse). Der Großteil der Entwicklungsarbeit betrifft
die graphische (sinnvoll verdichtete) Darstellung der Messwerte.
Schon leichte Tendenzen können hier erkannt werden, sodass
Maßnahmen ergriffen werden können, bevor Beeinträchtigungen durch
den Anwender erkennbar werden.
Projektabschnitt „Erweiterung Automatische Incidentverarbeitung“
(10/2007 – 05/2008)
Entwicklung weiterer Routinen für die maschinelle Verarbeitung von
Incidents. Hierzu gehört auch die Anbindung eines externen Systems
(ARS) zum automatisiertem Datenaustausch und -abgleich.
Projektabschnitt „Datenbankabstraktionslayer Oracle“
(06/2008 – 12/2008)
Erweiterung der Datenbankabstraktionsschicht um Kompatibilität zu
Oracle. Hier liegt die Herausforderung in speziellen
Beschränkungen (beispielsweise 30-Zeichen-Beschränkung bei Namen,
Längenbeschränkung bei Literalen), Absonderlichkeiten
(beispielweise betrachtet Oracle leere Zeichenketten als NULL)
sowie einer deutlich schlechteren Performance bei einigen
Statements. Auch hier erreicht die Abstraktionsschicht, dass keine
der vorhandenen SQL-Statements angepasst werden müssen. Bestimmte
Konstrukte, die unter Oracle zu Performanceeinbußen führen, werden
erkannt und automatisch optimiert.
Projektabschnitt „Restelisten“ (12/2008 – 01/2009)
Redesign eines bestehenden Prozesses. Die alte Anwendung benötigte
für die Vorverarbeitung (Datenanreicherung, Klassifizierung,
Abgleich mit vorhandenem Bestand, Bewertung, Bereitstellung) der
„Restelisten“ (Umfang: mehrere 100.000 Datensätze) ein komplettes
Wochenende. Statistische Auswertungen waren nur sehr eingeschränkt
möglich; Planung und Steuerung litten entsprechend. Die
Komplexität der Anwendung war hoch, Anpassungen an geänderte
Anforderungen kaum möglich. Zudem war die Datenbanklast extrem
hoch, wodurch der Onlinebetrieb am Wochenende stark beeinträchtigt
wurde.
Die neue Anwendung behebt die genannten Probleme. Die die
komplette Vorverarbeitung wird jetzt in wenigen Minuten erledigt.
Der komplette (aktuelle und historische) Bestand liegt in einer
Form vor, die Auswertungen und Statistiken unkompliziert und
online und zulässt. Änderungen an Bewertungs- und Auswahlkriterien
sind live möglich; durch eine Simulationskomponente können die
Auswirkungen dieser Änderungen direkt dargestellt werden.
Der Prozess wird auch in den nächsten Jahren noch kontinuierlich
optimiert und an neue Anforderungen angepasst.
Projektabschnitt „Step 1“ (01/2009 – 11/2009)
Massive Erhöhung der Komplexität des Workflows. Besonderes
Augenmerk liegt hier auf Statistiken: neben täglichen
Auswertungen, die detaillierte Informationen zu hunderten von
Einzelaspekten liefern, werden auch Echtzeitanalysen benötigt.
Neben Erfolgskontrollen diesen diese Daten auch der Steuerung des
Personaleinsatzes. Aufgrund der Komplexität der Abläufe ergibt
sich hier die Herausforderung, sinnvolle und nachvollziehbare
Ergebnisse bereitzustellen. In Zusammenarbeit mit der Fachseite
werden die Statistiken in einem Zeitraum von mehr als sechs
Monaten immer wieder angepasst und verfeinert.
Projektabschnitt „Datenverfolgung/Frühwarnsystem“
(11/2009 – 04/2010)
Die Anwendung verfügt über ein „Messpunktverfahren“, welches
(redundant) quantitative und qualitative Messwerte in allen
Bereichen von Anlieferung über Vorverarbeitung bis hin zur
Bereitstellung ermittelt und revisionssicher (und wiederum
redundant) ablegt. Dadurch wird dokumentiert, dass im Verlauf der
(teilweise sehr komplexen) maschinellen Verarbeitungsschritte
weder Daten „verlorengehen“ noch „erfunden“ werden.
Schon aufgrund des hohen Datenvolumens ist eine Interpretation der
Daten sehr aufwendig. Durch eine neu konzipierte und entwickelte
GUI-Komponente wurde ein praxisgerechter und anwenderfreundlicher
Zugang geschaffen, der die kompletten Lebenszyklen aller
aufgezeichneten Datenelemente detailliert und nachvollziehbar
darstellt.
Da das „Messpunktverfahren“ qualitative und quantitative Daten
bereits zum frühestmöglichen Zeitpunkt ermittelt, wird auf dieser
Datenbasis ein Frühwarnsystem entwickelt. Erkannt werden unter
anderem fehlerhafte oder ausbeliebende Datenlieferungen, Fehler im
Verarbeitungsprozess oder unerwartete Mengenanstiege. Es dient
somit nicht nur der analytischen Qualitätssicherung, sondern auch
der Personalplanung.
Projektabschnitt „Step 1 plus“ (04/2010 – 06/2011)
An Hand der im Pilotprojekt „Step 1“ gewonnen Erkenntnisse werden
die Geschäftsprozesse verbessert; teilweise wird die Komplexität
reduziert, teilweise wird aber auch die Anwenderunterstützung
durch das System verbessert, sodass die Komplexität der Software
steigt. Auch die Statistiken profitieren von der teilweise
reduzierten Komplexität, werden dafür aber umfangreich erweitert.
Projektabschnitt „Benutzeradministration“ (06/2011 – 10/2011)
Die bisherigen komplexen papierbasierten Prozesse für die
Anwenderregistrierungen und Berechtigungsänderungen sollen durch
noch komplexere papierlose Prozesse abgelöst bzw. ergänzt werden.
Hier ist die Herausforderung, dass auch ungeschulte Vorgesetzte
(selbst ohne Grundkenntnisse bezüglich der Anwendung) die
entsprechenden Vorgänge in Bereich der Benutzeradministration auf
Anhieb fehlerfrei durchführen könne müssen.
Projektabschnitt „Step 1 reloaded“ (11/2011 – 03/2012)
Weitere Verbesserung der Geschäftsprozesse. Die Statistiken werden
massiv erweitert; sie ermöglichen jetzt auch detaillierte
analytische Qualitätssicherung und dienen als Grundlage für
konstruktive Qualitätssicherungsmaßnahmen.
Projektabschnitt „Restelistenvcrfahren erweitern“
(04/2012 – 06/2012)
Aufgrund der besonderen positiven Anwenderresonanz bezüglich der
redesignten „Restelisten“ soll das Verfahren jetzt auch in anderen
Bereich eingesetzt werden. Die Herausforderung ist hier, dass der
Einsatz in vielen Fällen nicht sinnvoll, in einigen Fällen sogar
unmöglich ist. Für diese Fälle wurden alternative Lösungen
konzipiert und entwickelt, sodass auch hier die gewünschten
Möglichkeiten bereitgestellt sind.
CM Synergy
Projekt: FIS-OptimoInformations- und Steuerungssystem, Bereich Lageroptimierung).
Neben Umsetzung neuer Anforderungen und Fehlerbehebung auch
signifikante Steigerung der Performance in den Bereichen GUI
und Datenbankzugriffe; Zusammenführung der unterschiedlichen
Softwareversionen für die verschiedenen Werke in einen gemeinsamen
Stand. In einigen Fällen Neuml;llen Neudesign des GUIs zur Steigergung der
Anwenderfreundlichkeit (auch in Hinblick auf Reduzierung von
Fehlern bei der Bedienung).
internet-basierten Systems mit weltweiter Zugriffsmöglichkeit
über Webbrowser. Entwicklung in PHP4 mit mySQL unter Windows und
Linux. Auswahl, Bereitstellung und Konfiguration der Server.
Besondere Berücksichtigung der Aspekte Sicherheit,
Fehlertoleranz (schon mit Berücksichtigung im Datenmodell),
Akzeptanz (unter Anderem durch Anwenderfreundlichkeit,
Antwortzeitverhalten und praxisgerechte Umsetzungen),
Wartbarkeit, Wirtschaftlichkeit und Erweiterbarkeit.
Ton- und Pyrotechnik, sowohl in Hard- wie auch Software. Der
Bereich der Zielplattformen reicht dabei von Microcontrollern
bis hin zu vernetzen heterogenen Systemen. Produktion und
Entwicklung für internen Bedarf und Kunden weltweit, wie z.B.
Toshiba, Yamaha, Microsoft, Danone usw.
Rahmen von Ausschreibungen sowie Aufwandsschätzungen. Die
Projekte waren überwiegend im Bereich Java und
Internettechnologien angesiedelt.
Windows, Linux, Apache, BEA Weblogic, WebDAV
Beschreibung: Im Rahmen der Konzeption und Realisierung einerAusschreibungsplattform im Auftrage des Beschaffungsamts des
Bundes hatte ich folgende Aufgaben: Konzeption, Dokumentation
und Verifikation einer geeigneten Systemarchitektur
(Client/Server-System über Internet mit hohen Anforderungen an
Vertraulichkeit, Rechtskräftigkeit und Zuverlässigkeit,
Sicherheitskonzeption, Design von Komponenten, Bedarfsanalyse,
Auswahl, Konzeption, Design, Machbarkeitsuntersuchungen,
Dokumentation, Programmierung (in C++ und Java), Implementierung
kryptographischer Komponenten und Protokolle (für die Bereiche
Verschlüsselung, rechtskräftige digitale Signaturen gemäß
SigG/SigV und kryptographische Zeitstempel), Programmierung
eines entsprechenden Adobe Acrobat-Plugins. Zusätzlich erhielt
ich eine Ausbildung zum BEA WebLogic Administrator.
MS Project, Groupwise
Beschreibung: Nach meinem Firmenwechsel unterstützte ich weiterhin das Projektdes Zollkriminalsamts (in geringerem zeitlichen Umfang, parallel
zu anderen Tätigkeiten), siehe auch nachfolgende Beschreibung.
Senior Consultat
Projekt: INZOLL-NEU (nicht INPOL-NEU!)MS Project, Groupwise
Beschreibung: Bei diesem Projekt arbeitete ich als Qualitätssicherungsverant-wortlicher (QSV) in der Analysephase des IT-Großprojektes. Dies
beinhaltete auch Umsetzung und Anpassen der Vorgaben des
V-Modells 97 (Tailoring). Coaching, konstruktive und analytische
QS-Maßnahmen, Erstellung von Richtlinien und Teamleitung. In
2001 (mit dem Beginn der Designphase) übernahm ich zusätzlich
die Rolle des Architekturspezialisten.
Senior Consultat
Projekt: Webauftritt des WWF anläßlich der Expo in HannoverHierbei übernahm ich die komplette HTML-Kodierung (zu diesem
Zeitpunkt erfüllte noch keine HTML-Authoring-Software die
gestellten Anforderungen, daher musste direkt handkodiert
werden) und war ebenfalls an der Planung beteiligt. Um
Flexibilität bei Änderungen in Inhalt oder Form zu gewährleisten
sowie zur Unterstützung bei der Erstellung (andernfalls wäre der
Zeitplan nicht zu halten gewesen), entwickelte ich ein einfaches
Content-Management-System. Die Teamleitung des HTML-
Kodierungsteams oblag mir.
Senior Consultat
Projekt: PROSADB/2, CICS, DMS
Beschreibung: Erstellung eines Workflowsystem und Dokumentenmanagementsystems.Verwendung von Enfin Smalltalk, DB/2, Hostanbindung über CICS
(APPC), Zielplattformen OS/2 und Windows NT. Ich war hierbei
primär in den Bereichen Programmierung, Analyse, Design, GUI-
Konzeption, GUI-Design, Test (hinsichtlich der Aspekte
Anwendungsfehler und Performanz; Tätigkeiten umfassten
Konzeption, Durchführung und Auswertung, einschließlich der
Programmierung entsprechender Mess-, Protokollierungs- und
Auswertungssoftware), Dokumentation, Akzeptanzanalyse und
Anwenderbetreuung tätig.
Senior Consultat
Projekt: StundenbogensystemMS Project
Beschreibung: Entwicklung eines Stundenbogensystems, unter Verwendung vonJava-Clients zur Bereitstellung einer Serververbindung über das
Internet (Ziele: möglichst globale Erreichbarkeit des Systems,
vollständige Gewährleistung der Vertraulichkeit der Daten).
Meine hauptsächlichen Aufgaben umfassten eine Erprobung der
Verwendung von CORBA und die Erstellung eines geeigneten
Frameworks sowie Anleitung, Unterstützung und Coaching der
anderen Projektmitarbeiter in den Bereichen Analyse, Design,
Projektplanung, Test und Programmierung.
Select OMT
Beschreibung: Dieses Projekt wurde in Kooperation mit Lufthansa Systems inBerlin ausgeführt wurde. Meine Aufgaben beinhalteten
objektorientierte Analyse, Programmierung, Coaching und
Qualitätssicherung. Im Projekt wurde VisualAge/IBM Smalltalk mit
Oracle verwendet, um Kompatibilität zu Windows 3.1, Windows NT
und OS/2 zu sicherzustellen.
Telekommunikation, Flugsicherung
Anstellung: Angestellt bei Rösch ConsultingUnified Method (UML) sowie die entsprechenden Werkzeuge,
C/C++/Objective C, Smalltalk (diverse Systeme), Informix,
Oracle, ObjecStore, Microfocus COBOL Workbench, Apple Macintosh,
NeXT, PC (DOS, Windows, OS/2, Unix- Derivate), IBM Mainframe
Beschreibung: Die Arbeit für Rösch Consulting umfasste den kompletten Zyklusder objektorientierten Anwendungsentwicklung, beginnend mit der
Aufnahme der Anforderungen, der Ausführung der OOA und des OOD
bei Verwendung diverser Methoden und Werkzeuge, Programmierung,
und Qualitätssicherung (inklusive Dokumentation während aller
Stufen). Die meisten Projekte schlossen mich in einem
Teilbereich des kompletten Zyklus ein. Als Trainer hielt und
verfasste ich Trainings in OOA/OOD und "Programmierung in
Smalltalk". Ich verfasste ebenfalls Lehrmaterial für die
Deutsche Telekom, welches den kompletten Zyklus der
objektorientierten Anwendungsentwicklung vermittelte,
einschließlich einiger Beispielanwendungen in Smalltalk und C++,
sowohl als Einplatz- als auch als Client/Server-Versionen und
jeweils mit relationalen und objektorientierten Datenbanken. Ich
nahm an vielen verschiedenen Projekten teil, die unter anderem
die Bereiche Banken, Versicherungen, Telekommunikation und
Flugsicherung umfassten. Ich untersuchte auch die Anwendung von
Qualitätssicherung während früher Projektphasen, insbesondere
während der Analysephase. Dies führte zu einer effizienten
Methode zur Lieferung fehlerfreier Objektorientierter Analysen
gemäß der DIN/ISO 9000 Teil 3, wodurch viele teure Fehler in
einer frühen und "billigen" Projektphase entdeckt und beseitigt
werden. Die Aufgaben beinhalteten auch die Vertretung der Firma
Rösch Consulting als Aussteller auf Messen.
CLIST, Embedded SQL
Beschreibung: Ich arbeitete für Rösch Consulting im Projekt LVR-CM; diesumfasste den Aufbau eines Configuration-Management-Systems für
den Landschaftsverband Rheinland in Köln auf einem IBM 3090
Mainframe unter Verwendung objektorientierter Techniken,
einschließlich eines CORBA-ähnlichen Object Request Brokers
(CORBA existierte zu dieser Zeit noch nicht). Außerdem wurde ein
entsprechendes Framework entwickelt, wobei ein Schwerpunkt auf
Wartbarkeit gelegt wurde. Die Programmierung wurde überwiegend
durch mich ausgeführt, hauptsächlich in C/370 mit Embedded SQL
und COBOL, Assembler, JCL und CLIST wo dies notwendig war. Das
CM-System erhielt den "Computerworld"s Object Application Award"
als "Best object based application developed using NON object-
oriented tools". Eine detailliertere Beschreibung des CM-System
findet sich im Buch "Objects in Action" von Paul Harmon und
David A. Taylor (1993). Nach dem erfolgreichen Abschluss dieses
Projekts stellte mich Rösch Consulting als festen Mitarbeiten
an.
Studiengesellschaft Nahverkehr (entwickelte sich zu einer
Vollzeitanstellung als Programmierer)
Projekte: GIPAS, CROSSWorkstations, Cadre Teamwork, Ingres, Embedded SQL, C, Pascal
Beschreibung: Das Haupttätigkeitsfeld war des Projekt GIPAS, welches unterUNIX System/V in C mit Embedded SQL entwickelt wurde. Meine
Verantwortlichkeiten umfassten hauptsächlich das
Anwendungsdesign und Programmierung, außerdem
Systemadministration, die Evaluation von Werkzeugen und
Bewerbern, die Installation neuer Hardware, den Bau neuer
Hardware und die Reparatur alter Hardware. Gleichzeitig wartete
ich das Produkt CROSS, geschrieben in Pascal für MS-DOS. Später
wurde ich als Designer und Teamleiter für die Portierung
(Analyse des Altsystems, gefolgt von Design und
Neuprogrammierung) von CROSS auf UNIX ausgewählt. Kurz vor dem
erfolgreichen Abschluss dieses Projekts stellte mich Rösch
Consulting als freien Mitarbeiter an (ich führte das Projekt
parallel dazu noch zum Abschluss).
Die Arbeiten bei der Studiengesellschaft Nahverkehr und als
freier Mitarbeiter für die Firma Rösch Consulting geschahen
parallel zu einem Informatikstudium.