Software Architekt, Berater und Senior Programmierer
Aktualisiert am 15.11.2024
Profil
Referenzen (2)
Freiberufler / Selbstständiger
Verfügbar ab: 01.01.2025
Verfügbar zu: 100%
davon vor Ort: 90%
Deutsch
Englisch
fließend in Sprache und Schrift

Einsatzorte

Einsatzorte

Deutschland, Österreich, Schweiz
nicht möglich

Projekte

Projekte

4 Jahre 9 Monate
2020-03 - 2024-11

Abschließen des Umbaus von zPDV auf STEP

Lead Programmierer, Architekt und stellvertretender Product Owner
Lead Programmierer, Architekt und stellvertretender Product Owner
  • Abschließen des Umbaus von zPDV auf STEP
  • Qualitätssicherung der C++ und perl Quellen (automatisiert und manuell)
  • Unterstützung bei der Lösung von Incidents / Fehlern im Test
  • Implementation des Nachversorgungsbatches zur Ergänzung der Zahlweglaufnummern
  • Implementation des Batches zur Verteilung der SGB 2 Informationen an die zKT
  • Unterstützung bei der Ersetzung von Solaris durch Linux
  • Upgrade des gcc 7.4 auf den gcc 9.3
  • Programmatische Erzeugung der für den Build benötigten Makefiles aus den Borland Projekten
  • Ergänzung der Förderung um das neue Attribut ?Kennzeichen Fahrtkosten Praktikum?
  • Programmatische Erzeugung der für den Build notwendigen xsd und wsdl Dateien aus den IDL Dateien
  • Vertretung des Product Owners
  • Implementation des Batches zur Durchführung der Einmalzahlung
  • Implementation eines Generators für Liquibase Dateien
  • Implementation und Betreuung der regelmäßig durchzuführenden Anonymisierung des Produktionsdaten Abzuges
  • Unterstützung bei der Migration von SLES 12 auf SLES 15
  • Unterstützung bei der Einführung von mTLS
  • Implementation des Batches zur Übermittlung des Löschimpuls an EDA BE
  • Strukturierung des Skripts Verzeichnisses
  • Untersuchung der Möglichkeiten der Einführung von String-Latin
  • Untersuchung und ggf. Beseitigung der von CheckMarx ermittelten Findings
  • Unterstützung bei den PAP-Rückrechnungen sowie den allgemeinen Änderungsbescheiden
  • Implementation der sog. ?Minimallösung? für String-Latin
  • Umstellung der ERP Schnittstellen von SOAP auf Rest
  • Unterstützung bei der Planung der Umsetzung diverser technischer und fachlicher Themen (Registermodernisierungsgesetzt, Kassensicherheit, Weiterbildungskosten, 2/4-Augen-Prinzip, ?)
Bundesagentur für Arbeit
Fürth
1 Monat
2019-02 - 2019-02

Erstellung eines Softwaregutachtens

  • Erstellung eines Softwaregutachtens (C++, ca. 800k LOC)
TÜV Rheinland
Köln
2 Jahre 8 Monate
2016-05 - 2018-12

Selektion der Kunden und Verarbeitung der Daten

Senior Analyst, Programmierer und Coach Windows Linux Informix ...
Senior Analyst, Programmierer und Coach

Es bestand beim Kunden schon lange der Wunsch, die Abrechnung der Kontingente von Roaming SMS zu optimieren. Da in diesen Fällen kein einzelner Datensatz alleine Grundlage der Abrechnung sein kann und eine fehlerfreie Zuordnung und Anreicherung der entsprechenden Datensätze nicht möglich schien, wurde ?im Zweifel? zu Gunsten des Kunden abgerechnet, mit teils signifikanten entgangenen Umsätzen.

Für die Zuordnung lassen sich im Wesentlichen nur der Sender sowie die Zeitstempel in den Datensätzen heranziehen. Da diese Datensätze von verschiedenen Quellen mit ggf. nicht synchronen Uhren sowie in der Regel aus unterschiedlichen Zeitzonen stammen, treten hier Differenzen in den Stunden und den Sekunden auf, die eine Zuordnung erschweren. 

Mit Hilfe eines hoch agilen iterativen ?rapid prototyping? wurden in enger Abstimmung mit dem Fachbereich die Anforderungen ermittelt und anhand der Ergebnisse der Implementierung immer weiter verfeinert. Final wurde ein geeigneter Algorithmus implementiert, der für fast alle Datensätze die Abrechnung ermöglicht und durch die vorgenommene Prüfung der Daten Unstimmigkeiten entdeckte, die bereinigt werden konnten. 

Der Kunde bat um Hilfe bei einer unternehmenskritischen Anwendung, bei der nach Vorgaben der Bundesnetzagentur bereits mit einem Preis versehene, aber noch nicht abgerechnete Services zu bestimmten Rufnummern nicht auf der Rechnung erscheinen dürfen. Diese Vorgaben erfolgen regelmäßig mehrmals in der Woche und gelten mit Zustellung. Die vorhandene Lösung war dem wachsenden Umfang dieser Listen nicht mehr gewachsen, da der Aufwand linear mit der Anzahl der Rufnummern anstieg und die Datenbank beim Untersuchen der ca. fünf Milliarden Datensätze umfassenden Tabelle ?am Anschlag? war. 

Hier wurde zunächst in einer Vor-Analyse die zu untersuchende Datenmenge innerhalb der Datenbank auf ca. eins von Hundert reduziert und diese sodann mit Hilfe eines Skriptes auf die vorgegebenen Rufnummern untersucht. Dabei kam ein sog. ?digitaler Baum? zum Einsatz, welcher eine ?longest matching prefix? Suche effizient und unabhängig von der Anzahl der zu suchenden Nummern ermöglicht. Durch diese Massnahmen wurde die Datenbank massiv entlastet sowie die Laufzeit der Verarbeitung deutlich reduziert.

  • Migration der E-Plus Kunden der Mobilcom-Debitel zu O2
  • Selektion der Kunden und Verarbeitung der Daten an und von E-Plus und O2
  • Testdatenmanagement für die O2 Migration
  • Identifikation der erneut abzurechnenden Services nach den Vorgaben der BNetzA
  • Matching und Merging der Roaming SMS Partials für Abrechnungszwecke
  • Pseudonymisierung von Kundendaten für Testzwecke entsprechend EU-DSGVO
  • Zusammenfassung von Einzel-Briefen zu Sendungen für den Postdienstleister
  • Abgleich der Systeme DECOS und TCS gegen SAP (Händlerprovisionen)
  • Migration der klarmobil Kunden von MySQL in den ApiOmat
  • Performancetests mit Gatling
  • API Management mit Apigee
  • Coaching der Kundendatenbereinigung
  • Produktionsunterstützung
  • Visualisierung der ApiOmat Daten
  • Performance Tuning diverser Verarbeitungen
  • Qualitätssicherung durch Code-Review gemäß der Clean Code Prinzipien
  • Coaching zu gängigen Verfahren des Data Mining und der Data Science
Windows Linux Informix Oracle MySQL Perl C Java XML PHP ksh JIRA Scala ApiOmat Apigee Scrum
Mobilcom-Debitel
Büdelsdorf
1 Jahr 2 Monate
2017-02 - 2018-03

Implementierung der neuen Queues für die Dienstleister

Windows Linux Oracle ...
  • Anbindung der Sky Schnittstelle an die Systeme der Tele Columbus
  • Implementierung der neuen Queues für die Dienstleister
  • Produktionsunterstützung, insbesondere bzgl. Unterschieden zwischen Oracle 11 und 12
Windows Linux Oracle SQL PL/SQL
Tele Columbus / Primacom
Leipzig
6 Monate
2017-07 - 2017-12

Beratung zu den Themen blockchain und bitcoin

  • Beratung zu den Themen blockchain und bitcoin
Kunde wünscht Anonymität
München
1 Jahr 1 Monat
2015-02 - 2016-02

Weiterbildung

  • Weiterbildung im Selbststudium
HTML5, CSS, Scala, Clojure, MongoDB, Neo4j, Orient DB, Blockchain
1 Jahr 8 Monate
2013-04 - 2014-11

Beratung in technischen Fragen und bei der Steuerung der Weiterentwicklung

Senior Application Analyst und Application Manager Windows Solaris Linux ...
Senior Application Analyst und Application Manager

Der Kunde wünschte sich unter anderem die Betreuung einer unternehmenskritischen Schnittstelle, die durch häufig auftretende Fehlerfälle eine intensive manuelle Pflege erforderte. Die bei diesen Fehlerfällen durchgeführten Analysen und Maßnahmen erfolgten im agilen Sinne in enger Abstimmung mit dem Fachbereich sowie den Entwicklern und erlaubten es, die offenbar vorhandenen ?Unschärfen? bei der Abbildung der Geschäftslogik durch ein vollständiges Re-Design der Schnittstelle zu beseitigen. Dieses wurde innerhalb der Projektlaufzeit umgesetzt und eliminierte die vorherigen Aufwände fast vollständig.

  • Beratung in technischen Fragen und bei der Steuerung der Weiterentwicklung
  • Re-Design der Schnittstellen und Verarbeitungen des Aussendienstes sowie Unterstützung bei der Implementierung
  • Konzeption und Mitwirkung bei der Dokumentation der Rückmeldungen
  • 2nd und 3rd Level Support der Inkasso Software, insbesondere der Aufträge an und Meldungen des Außendienstes
  • Durchführung qualitätssichernder Maßnahmen bei Inbetriebnahmen neuer Versionen
  • Fehler-Beschreibung und Analyse, Unterstützung bei der Behebung, Test
  • Erstellung von Ad-Hoc Reports für den Fachbereich

Windows Solaris Linux Perl C/C++ SQL ksh JIRA Confluence
EOS IT Services
Hamburg
11 Monate
2012-02 - 2012-12

Entwurf der Algorithmen des ?Performance Layers?

Senior Data Scientist, Programmierer und agiler Coach Windows Perl C/C++ ...
Senior Data Scientist, Programmierer und agiler Coach

  • Entwurf der Algorithmen des ?Performance Layers? und Unterstützung bei der Implementierung
  • Optimierung Performance kritischer Stellen (sog. ?hot spots?)
  • Schulungen (praktische Anwendung statistischer Verfahren im Rahmen der Business Intelligence, Datenstrukturen, Algorithmen, Perl)
  • Bearbeitung von kritischen Debug-Tickets
  • Software Test und Review

Windows Perl C/C++ Visual Studio SQL TFS
Gesellschaft für Konsumforschung GfK
Nürnberg
2 Jahre 5 Monate
2009-03 - 2011-07

Qualitätssicherung (bill-to-bill) der Migration des Billing Systems

Senior Data Scientist und Programmierer Windows Solaris Linux ...
Senior Data Scientist und Programmierer

Ein wichtiger Grundsatz aus dem Qualitätsmanagement lautet: "Ein Fehler kommt umso teurer zu stehen, je später er bemerkt wird". Daher wurde bei der Migration eines Abrechnungssystems beschlossen, die Bereinigung der ca. 100 Millionen Datensätze mit Kundendaten so gut wie möglich im Altsystem vorzunehmen und im besten Fall nur vollständige und korrekte Angaben in das neue System zu übernehmen. 

Die Bereinigung der Daten stand unter Anderem vor der Herausforderung, mit der Vielzahl von unterschiedlichen Namen aus diversen Sprachen und Kulturen umzugehen. Es ist das eine, aus "Mueller" ein "Müller" zu machen, bei "Meier" und "Maier" ist es dann schon schwieriger, und ausländische Namen erschweren die Aufgabe zusätzlich.

Durch  den Einsatz und die Modifikation der Algorithmen von Jaro und Winkler zur Abstandsmessung und Daitch-Mokotoff zur phonetischen Suche sowie einer Nachbarschaftssuche innerhalb der Damerau-Levenshtein Distanz sowie weiteren Techniken konnten die Daten automatisch mit mehreren weicher werdenden Kriterien überprüft und ggf. sogar automatisiert bereinigt werden. Die danach immer noch fraglichen Daten hatten einen so kleinen Umfang, dass sie dem Fachbereich zur Prüfung und Klärung vorgelegt werden konnten. So wurden im Ergebnis nur geprüfte und für gut befundene Daten in das neue System übernommen. 

Der Kunde stand sehr kurzfristig vor der Aufgabenstellung, die Rechnungen aus dem Altsystem auch für das neue System zur Verfügung zu stellen, da sich das ursprünglich geplante Vorgehen aus lizenzrechtlichen Gründen als nicht umsetzbar erwies. Die Lösung ergab sich durch ein in wenigen Wochen durchgeführtes umfangreiches Reverse- und Re-Engineering des alten Abrechnungssystems, wodurch es gelang, ohne Verletzung von Lizenzen die gewünschten Rechnungen auch im Neusystem zur Verfügung zu stellen

  • Qualitätssicherung (bill-to-bill) der Migration des Billing Systems der debitel auf das der Talkline
  • Automation des Data Cleansing von ca. 100 Millionen Namens- und Adressdaten
  • Migration des Rechnungsarchives und der ?unbilled usage? der talkline
  • Vorbereitung der Migration des Billingsystems der Talkline auf das der Mobilcom
  • Implementierung der EU Richtlinien für Roaming und SMS
  • Erstellung mehrerer CGIs zur Automation typischer Geschäftsvorfälle
  • Performancetuning diverser Reports und Verarbeitungen
Windows Solaris Linux Perl C/C++ SQL ksh
Talkline / debitel / Mobilcom
Elmshorn
8 Monate
2008-01 - 2008-08

Reverse Engineering des IBM IMS Dateiformates

Senior Architekt und Programmierer Windows Linux IMS ...
Senior Architekt und Programmierer
  • Reverse Engineering des IBM IMS Dateiformates
  • Entwurf eines generischen Werkzeuges zur Messung und Verbesserung der Datenqualität über alle Systeme der Deutschen Telekom
  • Beschreibung eines adaptiven Prozesses zur Verbesserung der Datenqualität
  • Maschinelle Qualitätssicherung der Spezifikation der zu berechnenden KPIs
  • Berechnung mehrerer KPIs aus bis zu 100 Millionen Datensätzen mittels agiler Methoden
Windows Linux IMS Java Perl Python C/C++ SQL Scrum
Deutsche Telekom
Darmstadt
4 Monate
2007-09 - 2007-12

Vorbereitung der Migration des Cable Master

  • Konzeption der Migrationsstrategie
  • Design und Aufbau einer Meta-Datenbank zur Beschreibung des Geschäftsmodelles sowie seiner technischen Ausprägung
  • Technische Beschreibung der Systemarchitektur und der Schnittstellen des Cable Master
  • Unterstützung bei der Ermittlung des Geschäftsmodelles
Kabel BW
Heidelberg
4 Jahre
2003-07 - 2007-06

Durchführung von Entwicklungsprojekten

Perl C/C++ sqlplus ...
  • Konzeption und Implementation von "proASN1", eines Werkzeuges zur effizienten Implementierung ASN.1 kodierte Daten verarbeitender Filter für diverse Anwendungen (Mediation)
  • Konzeption und Implementation von "proICS", eines Werkzeuges zur Prüfung der Implementation der Business Rules für Inter Carrier Billing
  • Konzeption und Implementation von "proGap", eines Werkzeuges zur near real-time Visualisierung und Überwachung von Datenströmen und Zeitreihen, insb. für die ein Abrechnungssystem erreichenden und durchlaufenden Daten
  • Integration der durch proGap bereit gestellten Funktionalität in eine durch den Kunden vorgegebene Infrastruktur (multi-threaded Client-Server, Oracle)
Perl C/C++ sqlplus ksh
Telekommunikation und Revenue Assurance
6 Jahre 4 Monate
2001-03 - 2007-06

Qualitätssicherung (QS) der Abrechnung Leistungen

Senior Data Scientist, Architect und Programmierer Windows Solaris Linux ...
Senior Data Scientist, Architect und Programmierer

Zu Testzwecken bei der Einführung neuer Produkte stellte sich die Aufgabe, aus allen Datensätzen, die von der produktiven Hardware eines Netzbetreibers geliefert werden, genau diejenigen zu finden, in denen eine von ca. zwei Tausend vorgegebenen Telefonnummern vorkommt. Dabei werden pro Tag mehrere Dutzend Millionen Datensätze geliefert, welche binär kodiert sind, verschiedene Arten und Längen besitzen und Telefonnummern an verschiedenen Stellen enthalten. Eine vollständige De-Kodierung und Prüfung jedes einzelnen Datensatzes wäre viel zu aufwändig gewesen, daher wurde ein zweistufiges Verfahren implementiert: erst wurde entschieden, ob ein Datensatz überhaupt eine der fraglichen Nummern enthalten kann, danach die in Frage kommenden exakt geprüft.

Für den ersten Schritt wurde eine Variante eines Bloom-Filters implementiert. Bloom-Filter sind eine probabilistische Datenstruktur, welche zu einer Menge von Werten und einer Anfrage entweder sagt "Kann in der Menge vorkommen" oder "Kommt definitiv nicht in der Menge vor". Dies wurde kombiniert mit einer Modifikation des Horspool Algorithmus, um die notwendigen Rechnungen für das Durchsuchen grosser Datenmengen zu optimieren. Dabei wurde ausgenutzt, dass Telefonnummern - und damit die zu suchenden Muster - eine maximale Länge haben und somit die erzeugte Datenstruktur im First Level Cache Platz fand. Im zweiten Schritte wurden die in Frage kommenden Datensätzen exakt dekodiert und einzeln überprüft.

Durch dieses Vorgehen wurde eine "quasi"-lineare Laufzeit - also eine unabhängig von der Anzahl der zu suchenden Telefonnummern - auf der Menge der zu durchsuchenden Daten erreicht und die Laufzeit im Vergleich zum "naiven" Vorgehen um einen Faktor - je nach Art der Daten - von vier bis fünf Größenordnungen reduziert.

  • Qualitätssicherung (QS) der Abrechnung Leistungen an und für Dritte (Inter Carrier)
  • QS des Rechnungswesens (Billing)
  • Konzeption der Logik des "GPRS Merge"
  • QS der Umwandlung der Telefoniedaten (Converted Usage)
  • Entwicklung von Tools zur Untersuchung ASN.1 kodierter Daten für den 2nd und 3rd level Support
  • Entwicklung diverser Werkzeuge zur QS, etwa 
  • zur Verfolgung automatisch generierter Test Gespräche von der Annahme (Collection) bis zur Rechnung (Data Ware House)
  • zur effizienten Implementierung von Filtern für ASN.1 kodierte Daten
  • zur Prüfung der Implementierung der Business Rules für Inter Carrier Billing
  • zur near real-time Visualisierung und Überwachung von Datenströmen
  • Integration der bereit gestellten Funktionalität in eine durch den Kunden vorgegebene Infrastruktur (multithreaded Client-Server, Oracle)
Windows Solaris Linux Perl Python ksh SQL*Plus C/C++ Scrum
Vodafone D2
Düsseldorf
2 Jahre 4 Monate
2001-03 - 2003-06

Einführung des Abrechnungssystems

Perl C/C++ sqlplus
Einführung des Abrechnungssystems Amdocs MAF/MPS bei Vodafone D2, Düsseldorf, im Teilprojekt Parallellauf (Test und Qualitätssicherung) sowie in den Prozessen "Rating" und "Revenue Assurance":
  • QS der Umwandlung der Telefoniedaten (Converted Usage)
  • QS des Rechnungswesens (Billing)
  • QS der Abrechnung Leistungen an und für Dritte (Inter Carrier)
  • Entwicklung von Tools für den 2nd und 3rd level Support und die Qualitätssicherung von MAF/MPS
  • Konzeption der Logik des "GPRS Merge"
  • Entwicklung diverser Programme zur Verarbeitung ASN.1 kodierter Daten für unterschiedliche Anwendungen
  • Konzeption und Implementation des "Call Finders", eines Werkzeuges zur Verfolgung automatisch generierter Test Gespräche von der Annahme (Collection) bis zur Rechnung (Data Ware House)
  • Pflege und Wartung, insbesondere die Anpassung an neue Datenformate, für obige Werkzeuge
Perl C/C++ sqlplus
Vodafone D2
Düsseldorf
7 Monate
2000-04 - 2000-10

Einführung des Wertpapier Backoffice ?as a service?

Senior Architekt, Programmierer und Coach Windows Solaris Linux ...
Senior Architekt, Programmierer und Coach

Aufgrund der Erfahrungen im vorausgehenden Projekt beauftragte der Hersteller der Wertpapier-Backoffice Lösung BSP Trade die Automation der Abläufe innerhalb seines Rechenzentrums. Dabei wünschte er sich das Anlegen neuer Mandanten ?auf Knopfdruck?, um seinen Kunden das Produkt ?as-a service? anbieten zu können. Die bereitgestellte Lösung implementierte einen eigenen Job Control Server als Ersatz für ControlM und wurde erfolgreich mit zwei Kunden gestartet. Die Software war länger als zehn Jahre im Einsatz.

  • Einführung des Wertpapier Backoffice ?as a service?
  • Konzeption und Implementierung eines Job Control Servers (JCS)
  • Konzeption der Abläufe um BSP Trade (ca. 15 Schnittstellen und EOD Verarbeitung, mehrere Mandanten)
  • Implementierung dieser Abläufe in der Sprache des JCS
  • Implementierung von ca. 80 Solaris Skripten pro Instanz
  • Dokumentation, Training
Windows Solaris Linux Perl C SQL ksh
Actis.BSP
Frankfurt
1 Jahr 3 Monate
1999-01 - 2000-03

Konzeption der Automation der Abläufe um BSP Trade mittels Control-M

Senior Architekt, Programmierer und Coach Windows Solaris MVS ...
Senior Architekt, Programmierer und Coach

Bei der Einführung des Wertpapier-Backoffice BSP Trade stand der Kunde vor der Herausforderung, die zentrale und hoch-automatisierte Ablaufsteuerung zwischen dem neuen Backoffice und den bestehenden Umgebungen neu zu gestalten. Die aus der Implementierung in Control-M sowie ca. 300 Shell und einem Dutzend Host Skripten bestehende Lösung stellte die gewünschten Abläufe fehlerfrei dar und half wesentlich, die reibungslose Einführung von BSP Trade mit zu gewährleisten.

  • Konzeption der Automation der Abläufe um BSP Trade mittels Control-M (ca. 30 Schnittstellen, teilweise mehrmals täglich zu bedienen, sowie diverse Batch Verarbeitungen wie EOD etc.)
  • Implementierung von ca. 300 Unix und einem Dutzend Host Skripten
  • Administration der Microfocus COBOL Workbench 4.x
  • Integration des SQL Precompilers Oracle ProCOB 1.x
  • Konzeption der Anbindung externer Teilnehmer am Wertpapierhandel
  • Dokumentation, Schulungen, Training

Windows Solaris MVS ksh JCL Perl
WestLB
Düsseldorf
4 Monate
1999-01 - 1999-04

Programmierung von REXX Skripten

  • Programmierung von REXX Skripten zur Auswertung von ADSM-Logfiles unter MVS
Volkswagen AG
Wolfsburg
1 Jahr 10 Monate
1997-03 - 1998-12

Entwicklung von Werkzeugen zur Jahr-2000-Umstellung von ca. acht Millionen Zeilen Host Assembler

Senior Architekt und Programmierer Windows AIX MVS ...
Senior Architekt und Programmierer

Der Kunde stand vor einem Jahr 2000 Problem in seinen Assembler Programmen für den Host. Die Besonderheit dieser Sprache ist, daß ausschließlich indirekte Sprünge Anwendung finden, so daß traditionelle Methoden der Datenflußanalyse versagen. Daher wurde zuerst mit Hilfe einer innovativen Heuristik die sog. ?dynamische Blockzerlegung? berechnet, in der die indirekten Sprünge soweit möglich automatisiert aufgelöst wurden. Die wenigen nicht automatisiert auflösbaren Sprünge wurden manuell untersucht.

Kombiniert wurde dies mit damals neuen Verfahren der (dynamischen) abstrakten Interpretation, welche im Ergebnis alle Stellen in den Programmen ermittelten, die tatsächlich oder auch nur möglicherweise einen zweistelligen Datumswert verarbeiten. Diese wurden dann automatisiert korrigiert, so daß im Ergebnis die Programme nicht nur Jahr 2000 fähig gemacht wurden, es wurden im Verlauf der Analysen auch zahlreiche weitere Fehler gefunden und bereinigt, so dass die Häufigkeit des Auftretens von Fehlern im Betrieb - ohne die schon vorhandenen Jahr 2000 Fehler - um drei Viertel reduziert wurde

  • Entwicklung von Werkzeugen zur Jahr-2000-Umstellung von ca. acht Millionen Zeilen Host Assembler

Windows AIX MVS OS/390 C C++ perl
Barmer Ersatzkasse
Wuppertal

Aus- und Weiterbildung

Aus- und Weiterbildung

2 Jahre 8 Monate
1993-11 - 1996-06

Promotion im Fachbereich "Praktische Informatik"

  • Promotion im Fachbereich "Praktische Informatik", Arbeit im Bereich der validierten Numerik elliptischer Funktionen
1 Jahr
1994-10 - 1995-09

Graduiertenstipendium

Universität Duisburg
Universität Duisburg
4 Jahre 7 Monate
1988-10 - 1993-04

Studium der Mathematik, Informatik, Philosophie und Wirtschaft

Universität Duisburg
Universität Duisburg
  • Diplomarbeit im Bereich der Funktionalanalysis

Kompetenzen

Kompetenzen

Schwerpunkte

Projektschwerpunkte

  • Datenanalyse, -bereinigung und -visualisierung, Data Matching, Data Science
  • Migrationen, Qualitätssicherung und Performance-Tuning
  • Re-Mastering von Legacy-Software (vom Reverse-Engineering zum Re-Design und Re-Engineering)
  • Innovative und maßgeschneiderte Algorithmen für anspruchsvolle Problemstellungen der Kunden
  • Code-Review, Schulungen, Training

Produkte / Standards / Erfahrungen / Methoden

Produkte:

  • Amdocs MAF/MPS
  • BSP Trade
  • confluence
  • Control M
  • Connect:direct
  • JIRA

Standards:

  • ITU-T X.680ff (Abstract Syntax Notation One, ASN.1)

Spezialkenntnisse:

  • Ablaufsteuerung
  • Algorithmen und Datenstrukturen
  • ASN.1 codierte Daten
  • Compilerbau und Domain spezifische Sprachen
  • Data Mining und Knowledge Engineering
  • Data Visualization
  • Mathematische Verfahren
  • Performancetuning
  • Reverse Engineering
  • Reengineering
  • Refactoring
  • Verarbeitung "massiver", komprimierter Daten
  • Data Cleaning (Namen und Adressen)
  • bill-to-bill (B2B) Tests
  • Qualitätssicherung
  • Migration von Anwendungen


Stärken:

  • hohes Abstraktionsvermögen
  • schnelle Auffassungsgabe
  • Lösungsorientierung im Sinne des Kunden
  • Clean Coder in agilen Projekten
  • jahrzehntelange Erfahrung


Standard-Software

IDE

  • Visual Studio
  • Vim
  • RAD Studio
  • LLVM 
  • Eclipse
  • Anaconda Emacs


Datenbankzugriff

  • TOAD
  • DB Visualizer
  • SQL
  • Developer
  • SQL*Plus
  • DB-Access


Versionsverwaltung

  • Git
  • CVS
  • SVN TFS Darcs


Collaboration

  • JIRA
  • Confluence
  • OTRS


Dateitransfer

  • ftp
  • sftp
  • connect:direct


Billingsysteme

  • MAF 
  • MPS


Office

  • MS Office
  • OmniGraffle
  • NovaMind
  • TeX (div.)


Andere

  • GraphViz ApiOmat
  • Gatling
  • Apigee


Spezialwissen

Systemnahe Programmierung

  • Compilerbau
  • ASN.1
  • Systemprogrammierung
  • Ablaufsteuerung


Programmierung

  • Algorithmen und Datenstrukturen
  • Meta-Programmierung
  • domain specific languages
  • Performance- und Ressourcen-Optimierung
  • Reverse Engineering
  • Re-Engineering
  • Re-Factoring (auch automatisiert)


Datenverarbeitung

  • Datenanalyse
  • Datenbereinigung
  • Datenvisualisierung
  • Data Matching
  • Verarbeitung ?massiver? (ggf. komprimierter) Daten


Vorgehensmodelle

  • Scrum
  • Kanban
  • ITIL
  • Wasserfall


sonstige

  • Requirements Engineering
  • Knowledge Engineering
  • 10 Finger Schreiber

Betriebssysteme

IRIX
Mac OS
MS-DOS
MVS, OS/390
SUN OS, Solaris
UNIX (div.)
Windows (div.)
OS/400
Linux
  • Sehr gute theoretische und praktische Kenntnisse im Entwurf und der Implementierung von System (naher) oder spezieller (Mathematik) Software unter Berücksichtigung weicher Echtzeitanforderungen. 
  • Sehr gute Kenntnisse in DOS, Linux und SUN Solaris, gute Kenntnisse in AIX, IRIX, OS/2 und MVS bzw. OS/390. Anwenderkenntnisse in Novell und Windows (div.).

Programmiersprachen

Algol
ASN.1
Assembler (div.)
Basic
C
C++
Cobol
ESQL/C
Forth
Fortran
Java
JCL
Lisp
Maschinensprachen
6502, IBM 370/390, Intel 80x86, SPARC
Pascal
Perl
PHP
PL/SQL
Prolog
Python
Rexx
Ruby
Scriptsprachen
selbst geschriebene Programmierwerkzeuge
Shell (div.)
Tcl/Tk
TeX, LaTeX
yacc/lex
Rust
PL/I
scala
kotlin
SQL (div.)
HTML 5
CSS
Javascript
Factor
Clojure

  • Sehr gute theoretische und praktische Kenntnisse im Entwurf und der Implementation von Programmiersprachen und Programmgeneratoren. 
  • Grosse Erfahrung in der Systemprogrammierung unter UNIX mit den üblichen Werkzeugen (wie C/C++, ksh/bash, lex, yacc etc.) bzw. Skriptsprachen (Perl, ObjectRexx). 
  • Sehr gute Kenntnisse in COBOL und SQL sowie Erfahrung mit diversen Maschinensprachen, Grundkenntnisse in "exotischen" Sprachen wie Forth, Prolog oder Lisp. 
  • Gute Kenntnisse und Erfahrungen in der Programmierung von Oberflächen mit Adobe Flex / Flash / ActionScript. Sehr gute Kenntnisse in ASN.1/BER. Praktische Erfahrung mit Java.

Datenbanken

MySQL
Oracle
SQL
COBOL Embedded SQL, PL/SQL
MariaDB
Informix
SQLite
MongoDB
DB2
Neo4j
Orient DB
  • Sehr gute theoretische Kenntnisse und grosse praktische Erfahrung in der Verarbeitung "massiver" Daten (aus Datenbanken). Sehr gute Kenntnisse von (Oracle) SQL, SQL*plus und PL/SQL, Erfahrung in der Programmierung von Datenbankanwendungen mittels Perl (DBI) und C.

Datenkommunikation

Ethernet
Internet, Intranet
Novell
TCP/IP
ASN.1
Sehr gute Kenntnisse

Hardware

AS/400
IBM Großrechner
IBM RS6000
Macintosh
PC
SUN

Branchen

Branchen

langjährige Erfahrung:

  • Telekommunikation
  • Banken und Versicherungen
  • Finanzdienstleister
  • Öffentliche Hand


weitere:

  • Marktforschung
  • Automobilindustrie
  • Wissenschaft
  • Entsorgungsindustrie

Einsatzorte

Einsatzorte

Deutschland, Österreich, Schweiz
nicht möglich

Projekte

Projekte

4 Jahre 9 Monate
2020-03 - 2024-11

Abschließen des Umbaus von zPDV auf STEP

Lead Programmierer, Architekt und stellvertretender Product Owner
Lead Programmierer, Architekt und stellvertretender Product Owner
  • Abschließen des Umbaus von zPDV auf STEP
  • Qualitätssicherung der C++ und perl Quellen (automatisiert und manuell)
  • Unterstützung bei der Lösung von Incidents / Fehlern im Test
  • Implementation des Nachversorgungsbatches zur Ergänzung der Zahlweglaufnummern
  • Implementation des Batches zur Verteilung der SGB 2 Informationen an die zKT
  • Unterstützung bei der Ersetzung von Solaris durch Linux
  • Upgrade des gcc 7.4 auf den gcc 9.3
  • Programmatische Erzeugung der für den Build benötigten Makefiles aus den Borland Projekten
  • Ergänzung der Förderung um das neue Attribut ?Kennzeichen Fahrtkosten Praktikum?
  • Programmatische Erzeugung der für den Build notwendigen xsd und wsdl Dateien aus den IDL Dateien
  • Vertretung des Product Owners
  • Implementation des Batches zur Durchführung der Einmalzahlung
  • Implementation eines Generators für Liquibase Dateien
  • Implementation und Betreuung der regelmäßig durchzuführenden Anonymisierung des Produktionsdaten Abzuges
  • Unterstützung bei der Migration von SLES 12 auf SLES 15
  • Unterstützung bei der Einführung von mTLS
  • Implementation des Batches zur Übermittlung des Löschimpuls an EDA BE
  • Strukturierung des Skripts Verzeichnisses
  • Untersuchung der Möglichkeiten der Einführung von String-Latin
  • Untersuchung und ggf. Beseitigung der von CheckMarx ermittelten Findings
  • Unterstützung bei den PAP-Rückrechnungen sowie den allgemeinen Änderungsbescheiden
  • Implementation der sog. ?Minimallösung? für String-Latin
  • Umstellung der ERP Schnittstellen von SOAP auf Rest
  • Unterstützung bei der Planung der Umsetzung diverser technischer und fachlicher Themen (Registermodernisierungsgesetzt, Kassensicherheit, Weiterbildungskosten, 2/4-Augen-Prinzip, ?)
Bundesagentur für Arbeit
Fürth
1 Monat
2019-02 - 2019-02

Erstellung eines Softwaregutachtens

  • Erstellung eines Softwaregutachtens (C++, ca. 800k LOC)
TÜV Rheinland
Köln
2 Jahre 8 Monate
2016-05 - 2018-12

Selektion der Kunden und Verarbeitung der Daten

Senior Analyst, Programmierer und Coach Windows Linux Informix ...
Senior Analyst, Programmierer und Coach

Es bestand beim Kunden schon lange der Wunsch, die Abrechnung der Kontingente von Roaming SMS zu optimieren. Da in diesen Fällen kein einzelner Datensatz alleine Grundlage der Abrechnung sein kann und eine fehlerfreie Zuordnung und Anreicherung der entsprechenden Datensätze nicht möglich schien, wurde ?im Zweifel? zu Gunsten des Kunden abgerechnet, mit teils signifikanten entgangenen Umsätzen.

Für die Zuordnung lassen sich im Wesentlichen nur der Sender sowie die Zeitstempel in den Datensätzen heranziehen. Da diese Datensätze von verschiedenen Quellen mit ggf. nicht synchronen Uhren sowie in der Regel aus unterschiedlichen Zeitzonen stammen, treten hier Differenzen in den Stunden und den Sekunden auf, die eine Zuordnung erschweren. 

Mit Hilfe eines hoch agilen iterativen ?rapid prototyping? wurden in enger Abstimmung mit dem Fachbereich die Anforderungen ermittelt und anhand der Ergebnisse der Implementierung immer weiter verfeinert. Final wurde ein geeigneter Algorithmus implementiert, der für fast alle Datensätze die Abrechnung ermöglicht und durch die vorgenommene Prüfung der Daten Unstimmigkeiten entdeckte, die bereinigt werden konnten. 

Der Kunde bat um Hilfe bei einer unternehmenskritischen Anwendung, bei der nach Vorgaben der Bundesnetzagentur bereits mit einem Preis versehene, aber noch nicht abgerechnete Services zu bestimmten Rufnummern nicht auf der Rechnung erscheinen dürfen. Diese Vorgaben erfolgen regelmäßig mehrmals in der Woche und gelten mit Zustellung. Die vorhandene Lösung war dem wachsenden Umfang dieser Listen nicht mehr gewachsen, da der Aufwand linear mit der Anzahl der Rufnummern anstieg und die Datenbank beim Untersuchen der ca. fünf Milliarden Datensätze umfassenden Tabelle ?am Anschlag? war. 

Hier wurde zunächst in einer Vor-Analyse die zu untersuchende Datenmenge innerhalb der Datenbank auf ca. eins von Hundert reduziert und diese sodann mit Hilfe eines Skriptes auf die vorgegebenen Rufnummern untersucht. Dabei kam ein sog. ?digitaler Baum? zum Einsatz, welcher eine ?longest matching prefix? Suche effizient und unabhängig von der Anzahl der zu suchenden Nummern ermöglicht. Durch diese Massnahmen wurde die Datenbank massiv entlastet sowie die Laufzeit der Verarbeitung deutlich reduziert.

  • Migration der E-Plus Kunden der Mobilcom-Debitel zu O2
  • Selektion der Kunden und Verarbeitung der Daten an und von E-Plus und O2
  • Testdatenmanagement für die O2 Migration
  • Identifikation der erneut abzurechnenden Services nach den Vorgaben der BNetzA
  • Matching und Merging der Roaming SMS Partials für Abrechnungszwecke
  • Pseudonymisierung von Kundendaten für Testzwecke entsprechend EU-DSGVO
  • Zusammenfassung von Einzel-Briefen zu Sendungen für den Postdienstleister
  • Abgleich der Systeme DECOS und TCS gegen SAP (Händlerprovisionen)
  • Migration der klarmobil Kunden von MySQL in den ApiOmat
  • Performancetests mit Gatling
  • API Management mit Apigee
  • Coaching der Kundendatenbereinigung
  • Produktionsunterstützung
  • Visualisierung der ApiOmat Daten
  • Performance Tuning diverser Verarbeitungen
  • Qualitätssicherung durch Code-Review gemäß der Clean Code Prinzipien
  • Coaching zu gängigen Verfahren des Data Mining und der Data Science
Windows Linux Informix Oracle MySQL Perl C Java XML PHP ksh JIRA Scala ApiOmat Apigee Scrum
Mobilcom-Debitel
Büdelsdorf
1 Jahr 2 Monate
2017-02 - 2018-03

Implementierung der neuen Queues für die Dienstleister

Windows Linux Oracle ...
  • Anbindung der Sky Schnittstelle an die Systeme der Tele Columbus
  • Implementierung der neuen Queues für die Dienstleister
  • Produktionsunterstützung, insbesondere bzgl. Unterschieden zwischen Oracle 11 und 12
Windows Linux Oracle SQL PL/SQL
Tele Columbus / Primacom
Leipzig
6 Monate
2017-07 - 2017-12

Beratung zu den Themen blockchain und bitcoin

  • Beratung zu den Themen blockchain und bitcoin
Kunde wünscht Anonymität
München
1 Jahr 1 Monat
2015-02 - 2016-02

Weiterbildung

  • Weiterbildung im Selbststudium
HTML5, CSS, Scala, Clojure, MongoDB, Neo4j, Orient DB, Blockchain
1 Jahr 8 Monate
2013-04 - 2014-11

Beratung in technischen Fragen und bei der Steuerung der Weiterentwicklung

Senior Application Analyst und Application Manager Windows Solaris Linux ...
Senior Application Analyst und Application Manager

Der Kunde wünschte sich unter anderem die Betreuung einer unternehmenskritischen Schnittstelle, die durch häufig auftretende Fehlerfälle eine intensive manuelle Pflege erforderte. Die bei diesen Fehlerfällen durchgeführten Analysen und Maßnahmen erfolgten im agilen Sinne in enger Abstimmung mit dem Fachbereich sowie den Entwicklern und erlaubten es, die offenbar vorhandenen ?Unschärfen? bei der Abbildung der Geschäftslogik durch ein vollständiges Re-Design der Schnittstelle zu beseitigen. Dieses wurde innerhalb der Projektlaufzeit umgesetzt und eliminierte die vorherigen Aufwände fast vollständig.

  • Beratung in technischen Fragen und bei der Steuerung der Weiterentwicklung
  • Re-Design der Schnittstellen und Verarbeitungen des Aussendienstes sowie Unterstützung bei der Implementierung
  • Konzeption und Mitwirkung bei der Dokumentation der Rückmeldungen
  • 2nd und 3rd Level Support der Inkasso Software, insbesondere der Aufträge an und Meldungen des Außendienstes
  • Durchführung qualitätssichernder Maßnahmen bei Inbetriebnahmen neuer Versionen
  • Fehler-Beschreibung und Analyse, Unterstützung bei der Behebung, Test
  • Erstellung von Ad-Hoc Reports für den Fachbereich

Windows Solaris Linux Perl C/C++ SQL ksh JIRA Confluence
EOS IT Services
Hamburg
11 Monate
2012-02 - 2012-12

Entwurf der Algorithmen des ?Performance Layers?

Senior Data Scientist, Programmierer und agiler Coach Windows Perl C/C++ ...
Senior Data Scientist, Programmierer und agiler Coach

  • Entwurf der Algorithmen des ?Performance Layers? und Unterstützung bei der Implementierung
  • Optimierung Performance kritischer Stellen (sog. ?hot spots?)
  • Schulungen (praktische Anwendung statistischer Verfahren im Rahmen der Business Intelligence, Datenstrukturen, Algorithmen, Perl)
  • Bearbeitung von kritischen Debug-Tickets
  • Software Test und Review

Windows Perl C/C++ Visual Studio SQL TFS
Gesellschaft für Konsumforschung GfK
Nürnberg
2 Jahre 5 Monate
2009-03 - 2011-07

Qualitätssicherung (bill-to-bill) der Migration des Billing Systems

Senior Data Scientist und Programmierer Windows Solaris Linux ...
Senior Data Scientist und Programmierer

Ein wichtiger Grundsatz aus dem Qualitätsmanagement lautet: "Ein Fehler kommt umso teurer zu stehen, je später er bemerkt wird". Daher wurde bei der Migration eines Abrechnungssystems beschlossen, die Bereinigung der ca. 100 Millionen Datensätze mit Kundendaten so gut wie möglich im Altsystem vorzunehmen und im besten Fall nur vollständige und korrekte Angaben in das neue System zu übernehmen. 

Die Bereinigung der Daten stand unter Anderem vor der Herausforderung, mit der Vielzahl von unterschiedlichen Namen aus diversen Sprachen und Kulturen umzugehen. Es ist das eine, aus "Mueller" ein "Müller" zu machen, bei "Meier" und "Maier" ist es dann schon schwieriger, und ausländische Namen erschweren die Aufgabe zusätzlich.

Durch  den Einsatz und die Modifikation der Algorithmen von Jaro und Winkler zur Abstandsmessung und Daitch-Mokotoff zur phonetischen Suche sowie einer Nachbarschaftssuche innerhalb der Damerau-Levenshtein Distanz sowie weiteren Techniken konnten die Daten automatisch mit mehreren weicher werdenden Kriterien überprüft und ggf. sogar automatisiert bereinigt werden. Die danach immer noch fraglichen Daten hatten einen so kleinen Umfang, dass sie dem Fachbereich zur Prüfung und Klärung vorgelegt werden konnten. So wurden im Ergebnis nur geprüfte und für gut befundene Daten in das neue System übernommen. 

Der Kunde stand sehr kurzfristig vor der Aufgabenstellung, die Rechnungen aus dem Altsystem auch für das neue System zur Verfügung zu stellen, da sich das ursprünglich geplante Vorgehen aus lizenzrechtlichen Gründen als nicht umsetzbar erwies. Die Lösung ergab sich durch ein in wenigen Wochen durchgeführtes umfangreiches Reverse- und Re-Engineering des alten Abrechnungssystems, wodurch es gelang, ohne Verletzung von Lizenzen die gewünschten Rechnungen auch im Neusystem zur Verfügung zu stellen

  • Qualitätssicherung (bill-to-bill) der Migration des Billing Systems der debitel auf das der Talkline
  • Automation des Data Cleansing von ca. 100 Millionen Namens- und Adressdaten
  • Migration des Rechnungsarchives und der ?unbilled usage? der talkline
  • Vorbereitung der Migration des Billingsystems der Talkline auf das der Mobilcom
  • Implementierung der EU Richtlinien für Roaming und SMS
  • Erstellung mehrerer CGIs zur Automation typischer Geschäftsvorfälle
  • Performancetuning diverser Reports und Verarbeitungen
Windows Solaris Linux Perl C/C++ SQL ksh
Talkline / debitel / Mobilcom
Elmshorn
8 Monate
2008-01 - 2008-08

Reverse Engineering des IBM IMS Dateiformates

Senior Architekt und Programmierer Windows Linux IMS ...
Senior Architekt und Programmierer
  • Reverse Engineering des IBM IMS Dateiformates
  • Entwurf eines generischen Werkzeuges zur Messung und Verbesserung der Datenqualität über alle Systeme der Deutschen Telekom
  • Beschreibung eines adaptiven Prozesses zur Verbesserung der Datenqualität
  • Maschinelle Qualitätssicherung der Spezifikation der zu berechnenden KPIs
  • Berechnung mehrerer KPIs aus bis zu 100 Millionen Datensätzen mittels agiler Methoden
Windows Linux IMS Java Perl Python C/C++ SQL Scrum
Deutsche Telekom
Darmstadt
4 Monate
2007-09 - 2007-12

Vorbereitung der Migration des Cable Master

  • Konzeption der Migrationsstrategie
  • Design und Aufbau einer Meta-Datenbank zur Beschreibung des Geschäftsmodelles sowie seiner technischen Ausprägung
  • Technische Beschreibung der Systemarchitektur und der Schnittstellen des Cable Master
  • Unterstützung bei der Ermittlung des Geschäftsmodelles
Kabel BW
Heidelberg
4 Jahre
2003-07 - 2007-06

Durchführung von Entwicklungsprojekten

Perl C/C++ sqlplus ...
  • Konzeption und Implementation von "proASN1", eines Werkzeuges zur effizienten Implementierung ASN.1 kodierte Daten verarbeitender Filter für diverse Anwendungen (Mediation)
  • Konzeption und Implementation von "proICS", eines Werkzeuges zur Prüfung der Implementation der Business Rules für Inter Carrier Billing
  • Konzeption und Implementation von "proGap", eines Werkzeuges zur near real-time Visualisierung und Überwachung von Datenströmen und Zeitreihen, insb. für die ein Abrechnungssystem erreichenden und durchlaufenden Daten
  • Integration der durch proGap bereit gestellten Funktionalität in eine durch den Kunden vorgegebene Infrastruktur (multi-threaded Client-Server, Oracle)
Perl C/C++ sqlplus ksh
Telekommunikation und Revenue Assurance
6 Jahre 4 Monate
2001-03 - 2007-06

Qualitätssicherung (QS) der Abrechnung Leistungen

Senior Data Scientist, Architect und Programmierer Windows Solaris Linux ...
Senior Data Scientist, Architect und Programmierer

Zu Testzwecken bei der Einführung neuer Produkte stellte sich die Aufgabe, aus allen Datensätzen, die von der produktiven Hardware eines Netzbetreibers geliefert werden, genau diejenigen zu finden, in denen eine von ca. zwei Tausend vorgegebenen Telefonnummern vorkommt. Dabei werden pro Tag mehrere Dutzend Millionen Datensätze geliefert, welche binär kodiert sind, verschiedene Arten und Längen besitzen und Telefonnummern an verschiedenen Stellen enthalten. Eine vollständige De-Kodierung und Prüfung jedes einzelnen Datensatzes wäre viel zu aufwändig gewesen, daher wurde ein zweistufiges Verfahren implementiert: erst wurde entschieden, ob ein Datensatz überhaupt eine der fraglichen Nummern enthalten kann, danach die in Frage kommenden exakt geprüft.

Für den ersten Schritt wurde eine Variante eines Bloom-Filters implementiert. Bloom-Filter sind eine probabilistische Datenstruktur, welche zu einer Menge von Werten und einer Anfrage entweder sagt "Kann in der Menge vorkommen" oder "Kommt definitiv nicht in der Menge vor". Dies wurde kombiniert mit einer Modifikation des Horspool Algorithmus, um die notwendigen Rechnungen für das Durchsuchen grosser Datenmengen zu optimieren. Dabei wurde ausgenutzt, dass Telefonnummern - und damit die zu suchenden Muster - eine maximale Länge haben und somit die erzeugte Datenstruktur im First Level Cache Platz fand. Im zweiten Schritte wurden die in Frage kommenden Datensätzen exakt dekodiert und einzeln überprüft.

Durch dieses Vorgehen wurde eine "quasi"-lineare Laufzeit - also eine unabhängig von der Anzahl der zu suchenden Telefonnummern - auf der Menge der zu durchsuchenden Daten erreicht und die Laufzeit im Vergleich zum "naiven" Vorgehen um einen Faktor - je nach Art der Daten - von vier bis fünf Größenordnungen reduziert.

  • Qualitätssicherung (QS) der Abrechnung Leistungen an und für Dritte (Inter Carrier)
  • QS des Rechnungswesens (Billing)
  • Konzeption der Logik des "GPRS Merge"
  • QS der Umwandlung der Telefoniedaten (Converted Usage)
  • Entwicklung von Tools zur Untersuchung ASN.1 kodierter Daten für den 2nd und 3rd level Support
  • Entwicklung diverser Werkzeuge zur QS, etwa 
  • zur Verfolgung automatisch generierter Test Gespräche von der Annahme (Collection) bis zur Rechnung (Data Ware House)
  • zur effizienten Implementierung von Filtern für ASN.1 kodierte Daten
  • zur Prüfung der Implementierung der Business Rules für Inter Carrier Billing
  • zur near real-time Visualisierung und Überwachung von Datenströmen
  • Integration der bereit gestellten Funktionalität in eine durch den Kunden vorgegebene Infrastruktur (multithreaded Client-Server, Oracle)
Windows Solaris Linux Perl Python ksh SQL*Plus C/C++ Scrum
Vodafone D2
Düsseldorf
2 Jahre 4 Monate
2001-03 - 2003-06

Einführung des Abrechnungssystems

Perl C/C++ sqlplus
Einführung des Abrechnungssystems Amdocs MAF/MPS bei Vodafone D2, Düsseldorf, im Teilprojekt Parallellauf (Test und Qualitätssicherung) sowie in den Prozessen "Rating" und "Revenue Assurance":
  • QS der Umwandlung der Telefoniedaten (Converted Usage)
  • QS des Rechnungswesens (Billing)
  • QS der Abrechnung Leistungen an und für Dritte (Inter Carrier)
  • Entwicklung von Tools für den 2nd und 3rd level Support und die Qualitätssicherung von MAF/MPS
  • Konzeption der Logik des "GPRS Merge"
  • Entwicklung diverser Programme zur Verarbeitung ASN.1 kodierter Daten für unterschiedliche Anwendungen
  • Konzeption und Implementation des "Call Finders", eines Werkzeuges zur Verfolgung automatisch generierter Test Gespräche von der Annahme (Collection) bis zur Rechnung (Data Ware House)
  • Pflege und Wartung, insbesondere die Anpassung an neue Datenformate, für obige Werkzeuge
Perl C/C++ sqlplus
Vodafone D2
Düsseldorf
7 Monate
2000-04 - 2000-10

Einführung des Wertpapier Backoffice ?as a service?

Senior Architekt, Programmierer und Coach Windows Solaris Linux ...
Senior Architekt, Programmierer und Coach

Aufgrund der Erfahrungen im vorausgehenden Projekt beauftragte der Hersteller der Wertpapier-Backoffice Lösung BSP Trade die Automation der Abläufe innerhalb seines Rechenzentrums. Dabei wünschte er sich das Anlegen neuer Mandanten ?auf Knopfdruck?, um seinen Kunden das Produkt ?as-a service? anbieten zu können. Die bereitgestellte Lösung implementierte einen eigenen Job Control Server als Ersatz für ControlM und wurde erfolgreich mit zwei Kunden gestartet. Die Software war länger als zehn Jahre im Einsatz.

  • Einführung des Wertpapier Backoffice ?as a service?
  • Konzeption und Implementierung eines Job Control Servers (JCS)
  • Konzeption der Abläufe um BSP Trade (ca. 15 Schnittstellen und EOD Verarbeitung, mehrere Mandanten)
  • Implementierung dieser Abläufe in der Sprache des JCS
  • Implementierung von ca. 80 Solaris Skripten pro Instanz
  • Dokumentation, Training
Windows Solaris Linux Perl C SQL ksh
Actis.BSP
Frankfurt
1 Jahr 3 Monate
1999-01 - 2000-03

Konzeption der Automation der Abläufe um BSP Trade mittels Control-M

Senior Architekt, Programmierer und Coach Windows Solaris MVS ...
Senior Architekt, Programmierer und Coach

Bei der Einführung des Wertpapier-Backoffice BSP Trade stand der Kunde vor der Herausforderung, die zentrale und hoch-automatisierte Ablaufsteuerung zwischen dem neuen Backoffice und den bestehenden Umgebungen neu zu gestalten. Die aus der Implementierung in Control-M sowie ca. 300 Shell und einem Dutzend Host Skripten bestehende Lösung stellte die gewünschten Abläufe fehlerfrei dar und half wesentlich, die reibungslose Einführung von BSP Trade mit zu gewährleisten.

  • Konzeption der Automation der Abläufe um BSP Trade mittels Control-M (ca. 30 Schnittstellen, teilweise mehrmals täglich zu bedienen, sowie diverse Batch Verarbeitungen wie EOD etc.)
  • Implementierung von ca. 300 Unix und einem Dutzend Host Skripten
  • Administration der Microfocus COBOL Workbench 4.x
  • Integration des SQL Precompilers Oracle ProCOB 1.x
  • Konzeption der Anbindung externer Teilnehmer am Wertpapierhandel
  • Dokumentation, Schulungen, Training

Windows Solaris MVS ksh JCL Perl
WestLB
Düsseldorf
4 Monate
1999-01 - 1999-04

Programmierung von REXX Skripten

  • Programmierung von REXX Skripten zur Auswertung von ADSM-Logfiles unter MVS
Volkswagen AG
Wolfsburg
1 Jahr 10 Monate
1997-03 - 1998-12

Entwicklung von Werkzeugen zur Jahr-2000-Umstellung von ca. acht Millionen Zeilen Host Assembler

Senior Architekt und Programmierer Windows AIX MVS ...
Senior Architekt und Programmierer

Der Kunde stand vor einem Jahr 2000 Problem in seinen Assembler Programmen für den Host. Die Besonderheit dieser Sprache ist, daß ausschließlich indirekte Sprünge Anwendung finden, so daß traditionelle Methoden der Datenflußanalyse versagen. Daher wurde zuerst mit Hilfe einer innovativen Heuristik die sog. ?dynamische Blockzerlegung? berechnet, in der die indirekten Sprünge soweit möglich automatisiert aufgelöst wurden. Die wenigen nicht automatisiert auflösbaren Sprünge wurden manuell untersucht.

Kombiniert wurde dies mit damals neuen Verfahren der (dynamischen) abstrakten Interpretation, welche im Ergebnis alle Stellen in den Programmen ermittelten, die tatsächlich oder auch nur möglicherweise einen zweistelligen Datumswert verarbeiten. Diese wurden dann automatisiert korrigiert, so daß im Ergebnis die Programme nicht nur Jahr 2000 fähig gemacht wurden, es wurden im Verlauf der Analysen auch zahlreiche weitere Fehler gefunden und bereinigt, so dass die Häufigkeit des Auftretens von Fehlern im Betrieb - ohne die schon vorhandenen Jahr 2000 Fehler - um drei Viertel reduziert wurde

  • Entwicklung von Werkzeugen zur Jahr-2000-Umstellung von ca. acht Millionen Zeilen Host Assembler

Windows AIX MVS OS/390 C C++ perl
Barmer Ersatzkasse
Wuppertal

Aus- und Weiterbildung

Aus- und Weiterbildung

2 Jahre 8 Monate
1993-11 - 1996-06

Promotion im Fachbereich "Praktische Informatik"

  • Promotion im Fachbereich "Praktische Informatik", Arbeit im Bereich der validierten Numerik elliptischer Funktionen
1 Jahr
1994-10 - 1995-09

Graduiertenstipendium

Universität Duisburg
Universität Duisburg
4 Jahre 7 Monate
1988-10 - 1993-04

Studium der Mathematik, Informatik, Philosophie und Wirtschaft

Universität Duisburg
Universität Duisburg
  • Diplomarbeit im Bereich der Funktionalanalysis

Kompetenzen

Kompetenzen

Schwerpunkte

Projektschwerpunkte

  • Datenanalyse, -bereinigung und -visualisierung, Data Matching, Data Science
  • Migrationen, Qualitätssicherung und Performance-Tuning
  • Re-Mastering von Legacy-Software (vom Reverse-Engineering zum Re-Design und Re-Engineering)
  • Innovative und maßgeschneiderte Algorithmen für anspruchsvolle Problemstellungen der Kunden
  • Code-Review, Schulungen, Training

Produkte / Standards / Erfahrungen / Methoden

Produkte:

  • Amdocs MAF/MPS
  • BSP Trade
  • confluence
  • Control M
  • Connect:direct
  • JIRA

Standards:

  • ITU-T X.680ff (Abstract Syntax Notation One, ASN.1)

Spezialkenntnisse:

  • Ablaufsteuerung
  • Algorithmen und Datenstrukturen
  • ASN.1 codierte Daten
  • Compilerbau und Domain spezifische Sprachen
  • Data Mining und Knowledge Engineering
  • Data Visualization
  • Mathematische Verfahren
  • Performancetuning
  • Reverse Engineering
  • Reengineering
  • Refactoring
  • Verarbeitung "massiver", komprimierter Daten
  • Data Cleaning (Namen und Adressen)
  • bill-to-bill (B2B) Tests
  • Qualitätssicherung
  • Migration von Anwendungen


Stärken:

  • hohes Abstraktionsvermögen
  • schnelle Auffassungsgabe
  • Lösungsorientierung im Sinne des Kunden
  • Clean Coder in agilen Projekten
  • jahrzehntelange Erfahrung


Standard-Software

IDE

  • Visual Studio
  • Vim
  • RAD Studio
  • LLVM 
  • Eclipse
  • Anaconda Emacs


Datenbankzugriff

  • TOAD
  • DB Visualizer
  • SQL
  • Developer
  • SQL*Plus
  • DB-Access


Versionsverwaltung

  • Git
  • CVS
  • SVN TFS Darcs


Collaboration

  • JIRA
  • Confluence
  • OTRS


Dateitransfer

  • ftp
  • sftp
  • connect:direct


Billingsysteme

  • MAF 
  • MPS


Office

  • MS Office
  • OmniGraffle
  • NovaMind
  • TeX (div.)


Andere

  • GraphViz ApiOmat
  • Gatling
  • Apigee


Spezialwissen

Systemnahe Programmierung

  • Compilerbau
  • ASN.1
  • Systemprogrammierung
  • Ablaufsteuerung


Programmierung

  • Algorithmen und Datenstrukturen
  • Meta-Programmierung
  • domain specific languages
  • Performance- und Ressourcen-Optimierung
  • Reverse Engineering
  • Re-Engineering
  • Re-Factoring (auch automatisiert)


Datenverarbeitung

  • Datenanalyse
  • Datenbereinigung
  • Datenvisualisierung
  • Data Matching
  • Verarbeitung ?massiver? (ggf. komprimierter) Daten


Vorgehensmodelle

  • Scrum
  • Kanban
  • ITIL
  • Wasserfall


sonstige

  • Requirements Engineering
  • Knowledge Engineering
  • 10 Finger Schreiber

Betriebssysteme

IRIX
Mac OS
MS-DOS
MVS, OS/390
SUN OS, Solaris
UNIX (div.)
Windows (div.)
OS/400
Linux
  • Sehr gute theoretische und praktische Kenntnisse im Entwurf und der Implementierung von System (naher) oder spezieller (Mathematik) Software unter Berücksichtigung weicher Echtzeitanforderungen. 
  • Sehr gute Kenntnisse in DOS, Linux und SUN Solaris, gute Kenntnisse in AIX, IRIX, OS/2 und MVS bzw. OS/390. Anwenderkenntnisse in Novell und Windows (div.).

Programmiersprachen

Algol
ASN.1
Assembler (div.)
Basic
C
C++
Cobol
ESQL/C
Forth
Fortran
Java
JCL
Lisp
Maschinensprachen
6502, IBM 370/390, Intel 80x86, SPARC
Pascal
Perl
PHP
PL/SQL
Prolog
Python
Rexx
Ruby
Scriptsprachen
selbst geschriebene Programmierwerkzeuge
Shell (div.)
Tcl/Tk
TeX, LaTeX
yacc/lex
Rust
PL/I
scala
kotlin
SQL (div.)
HTML 5
CSS
Javascript
Factor
Clojure

  • Sehr gute theoretische und praktische Kenntnisse im Entwurf und der Implementation von Programmiersprachen und Programmgeneratoren. 
  • Grosse Erfahrung in der Systemprogrammierung unter UNIX mit den üblichen Werkzeugen (wie C/C++, ksh/bash, lex, yacc etc.) bzw. Skriptsprachen (Perl, ObjectRexx). 
  • Sehr gute Kenntnisse in COBOL und SQL sowie Erfahrung mit diversen Maschinensprachen, Grundkenntnisse in "exotischen" Sprachen wie Forth, Prolog oder Lisp. 
  • Gute Kenntnisse und Erfahrungen in der Programmierung von Oberflächen mit Adobe Flex / Flash / ActionScript. Sehr gute Kenntnisse in ASN.1/BER. Praktische Erfahrung mit Java.

Datenbanken

MySQL
Oracle
SQL
COBOL Embedded SQL, PL/SQL
MariaDB
Informix
SQLite
MongoDB
DB2
Neo4j
Orient DB
  • Sehr gute theoretische Kenntnisse und grosse praktische Erfahrung in der Verarbeitung "massiver" Daten (aus Datenbanken). Sehr gute Kenntnisse von (Oracle) SQL, SQL*plus und PL/SQL, Erfahrung in der Programmierung von Datenbankanwendungen mittels Perl (DBI) und C.

Datenkommunikation

Ethernet
Internet, Intranet
Novell
TCP/IP
ASN.1
Sehr gute Kenntnisse

Hardware

AS/400
IBM Großrechner
IBM RS6000
Macintosh
PC
SUN

Branchen

Branchen

langjährige Erfahrung:

  • Telekommunikation
  • Banken und Versicherungen
  • Finanzdienstleister
  • Öffentliche Hand


weitere:

  • Marktforschung
  • Automobilindustrie
  • Wissenschaft
  • Entsorgungsindustrie

Vertrauen Sie auf Randstad

Im Bereich Freelancing
Im Bereich Arbeitnehmerüberlassung / Personalvermittlung

Fragen?

Rufen Sie uns an +49 89 500316-300 oder schreiben Sie uns:

Das Freelancer-Portal

Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.