Die Marktdaten einer internationalen Energiebörse sollen über eine neu zu erstellende, Cloud-native Plattform verteilt werden.
Als Leitlinie sollten ausschließlich Cloud- und Serverless-Produkte verwendet werden. Darüber hinaus waren entsprechende Regulierungen der BaFin u.a. zu erfüllen.
Die KfW betreibt für einige Anwendungen eine fortgeschrittene Infrastruktur in der Azure Cloud. Diese Infrastruktur sollte weiter konsolidiert und automatisiert werden. Hierzu gehören die Einführung und Verbesserung der Infrastructure-as-Code und DevOps Methodik sowie die Anpassung spezifischer Dienste im Bereich Kubernetes, Big-Data und Artificial Intelligence.
Verschiedene Projekte verlangen Zugang zu Cloud-Technologie oder setzen Teilaufgaben bereits (in Eigenverantwortung) mit dieser um. Die technische Entwicklung sollte nun konsolidiert- und ein gemeinsamer Ansatz entworfen werden, der sowohl die Bedürfnisse der Entwicklung als auch die des Managements erfüllt.
Im Zuge der Digitalisierung und Cloud-ifizierung der (IT-)Organisation wurden Fragestellungen zu zentralen technischen und organisatorischen Themen bearbeitet. Hierzu zählten die verschiedenen Rollen innerhalb und ausserhalb der jeweiligen Abteilungen, die technische Grundlage der Projekte, Sicherheit und Datenschutz sowie die Etablierung der neuen technischen Plattformen und Methoden.
Mehrere heterogene Entwicklungslandschaften sollten hinsichtlich der verwendeten Entwicklungs-, Versionierungs- und Test-Methoden konsolidiert werden. Im darauf folgenden Schritt wurden diese Methoden auf eine gemeinsamen Integrations- und Deployment-Plattform portiert. Diese CI/CD Plattform wurde im Anschluss verwendet um die Release-Artefakte in mehreren Lokationen auzurollen. Die Größe der jeweiligen Lokation umfasste i.d.R. mehrere hundert Systeme.
Ein Problem auf der Anwendungsseite musste Datenbankseitig kompensiert werden, um Verarbeitungsabbrüche zu verhindern.
Hierzu war eine tiefgreifende Analyse der verschiedenen Workloads notwendig, sowie teilweise automatische Tests zur Performance-Ermittlung.
Eine Anwendung mit verteilten Komponenten sowohl im on-prem RZ sowie zukünftig in verschiedenen Public-Clouds benötigte die entsprechende technische Infrastruktur sowie zeitgemäße Schnittstellen.
Im Rahmen eines CI/CD-Prozess wurde die entsprechenden Änderungen an Anwendung- sowe Infrastruktur implementiert.
Um zukünftig Projekte mit Cloud-Technologie umsetzen zu können wurden Konzepte und Werkzeuge benötigt. Diese Konzepte wurden als Beratungsleistung geschaffen und angewendet. Im weiteren Verlauf sollten passende Werkzeuge und Prozesse zur Realisierung der Konzepte gefunden oder gebaut werden. Hierbei war der architektonische Ansatz die Stakeholder und ihre Anforderungen abzustimmen und gegen Richtlinien zu prüfen. Dieser Vorgang wurde dann automatisiert.
Ein fortgeschrittenes Projekt zur Neu-Implementierung der Unternehmenssoftware benötigte Unterstützung bei der Anwendung von DevOps Methodiken und der Autmatisierung von Cloud-/Kubernetes Komponenten. Zusätzlich war Expertise in Kafka und Jenkins gefragt.
Nach einer weiteren Verdopplung der Datenraten sowie neuen Anforderungen zusätzlicher Anwendungen wurden verschiedene Maßnahmen getroffen, um diese Anforderungen zu erfüllen.
Außerdem waren verschiedene Themen rund um die Auditierung von Datenbankzufriffen Bestandteil des Auftrags.
Zur Unterstützung der automatischen Tests im CI/CD/TDD Prozess wurde eine Überprüfung der Leistungsmetriken benötigt. Diese Metrik wird mit Hilfe generischer- oder selbsterstellter Agenten in Timeseries-Datenbanken gespeichert. Zur Erreichung höchstmöglicher Flexibilität - auch im Hinblick auf die Versionierung der Schnittstellen - wurde Apache Kafka zur Realisierung der Streaming-Infrastruktur genutzt.
Die Metriken sollten anschließend sowohl zur Visualisierung (durch z.B. Grafana) als auch für Alarmierungszwecke genutzt werden.
Zur Erweiterung der Webapplikation um neue Funktionen und weitere Nutzerattribute sollte Galera-Cluster in einem Multi-RZ Betrieb konfiguriert und optimiert werden. Hierzu kam außerdem ein Loadbalancer in Form von ha_proxy zum Einsatz.
Die entsprechenden Aufgaben wurden nebst einer Implementierung zum Sichern- und Wiederherstellen des Systems erledigt.
Konzepterstellung und Implementierung einer CI/CD Lösung auf Basis von GitHub, Jenkins, Artifactory und Ansible für eine verteilte low-latency C/C++ Anwendung in mehreren Umgebungen.
DevOps Methodiken und Tools sollten im Betrieb des Kunden etabliert werden. Hierzu wurden verschiedene Tools evaluiert und eingesetzt. Die Umsetzung geschah dann vollumfänglich in einem großen Web-Projekt.
Angesichts erheblich gestiegener Datenraten sowie HA-Anforderungen wurden verschiedene Maßnahmen getroffen, um Point-in-time recovery sowie Cluster-Schwenks zu realisieren.
Sicherstellung der Verfügbarkeit einer Entwicklungs- sowie Delivery-Plattform in der Amazon Cloud während eines Personal-Engpass.
Die bestehende Serverfarm wurde parallel zum Hardware-Refresh auf Red Hat Enterprise Linux 7 aktualisiert.
Hierbei wurden ebenfalls diverse Anpassungen an Systemkomponenten wie System-Bibliotheken, Datenbanken und Skriptsprachen vorgenommen deren Kompatibilität sichergestellt werden musste. Weiterhin mussten Last- Und Perforamncetests durchgeführt werden um einen reibungslosen Betrieb zu gewährleisten.
Als automatisches Konfigurations- und Installationstool wurde Ansible in Kombination mit einem Enterprise-GitHub verwendet.
Mehrere Datenbankserver sollten hinsichtlich Performance- sowie Robustheit optimiert werden.
Der besondere Anspruch war es diese 24/7 Systeme mit Datenmengen im >>100GB in kurzer Zeit anzupassen ohne den laufenden Betrieb zu beeinflussen.
Im Rahmen eines MiFID2 Reporting Engine Konzepts sollten Handels- und Referenzdaten verarbeitet und ausgewertet werden. Hierzu wurde ein Basissystem sowie eine Datenversorgung dieses Systems erstellt.
Für die sehr umfangreiche Dokumenten-Datenbank des Deutschen Instituts für Medizinische Dokumentation und Information (Behörde des Bundesministeriums für Gesundheit) sollte eine Lösung zum Online-Backup der Datenbanken erarbeitet werden.
Auf Basis von OTRS wurde ein Servicedesksystem für ein Softwareprojekt implementiert.
Datenbank Migrations-Support
Technische Grundlagen: RHEL6, MySQL 5.6, MySQL Cluster 7.3, Puppet, WSO2
Anforderung: Eine Applikation mit MySQL 5.6 DB sollte auf MySQL Cluster (NDB) portiert werden.
Auftraggeber: T-Systems GmbH, Frankfurt
Laufzeit: April 2015 - Juni 2015
Review und Support für Datenbank-Cluster
Technische Grundlagen: RHEL6, MySQL Cluster 7.3, Puppet, WSO2
Anforderung: Eine bestehende MySQL Cluster Installation sollte optimiert sowie Installations- und Wartungstätigkeiten automatisiert werden.
Auftraggeber: T-Systems GmbH, Frankfurt
Laufzeit: März 2015 - Mai 2015
Implementierung eines Webservices für Handelsdaten
Technische Grundlagen: Tomcat, Java, Eclipse, Linux, CEF
Anforderung: Das Kursverteilsystem CEF der Deutschen Börse AG benötigte eine einfach anzusprechende Web-Schnittstelle zu dessen Marktdaten-Feeds.
Auftraggeber: Deutsche Börse AG, Eschborn
Laufzeit: September 2014-März 2015
Entwurf und Umsetzung eines Continous Deployment bzw. Delivery Konzepts
Technische Grundlagen: GIT, SVN, Jenkins, Eclipse, GNU make, Perl
Anforderung: Das vorhandene Entwicklungssystem, einschließlich SCM und Ticketsystem, soll für die Erfordernisse mehrerer paralleler Entwicklungszweige angepasst werden.
Im Rahmen dieser Aufgabenstellung wurde ein flexibler Ersatz für das bis dato genutzte System entworfen, getestet und zeitnah umgesetzt.
Auftraggeber: Deutsche Börse AG, Eschborn
Laufzeit: Februar 2014-August 2014
Automatisierung von Modul-Tests
Technische Grundlagen: C++, Perl
Als Erweiterung statischer Modul-Tests einer Realtime Online-Statistik Applikation wurde ein automatischer Modultest-Generator geplant und entwickelt. Die Tests wuden hierbei, anhand manuell bestimmbarer Metriken, per Perl-Framework erzeugt und anschließend online- oder offline an die Berechnungsapplikation bzw. deren Modulinstanzen übertragen. Mit Hilfe eines automatischen Ergebnisabgleichs konnte die Funktionsweise der Module überprüft werden.
Auftraggeber: Deutsche Börse AG, Eschborn
Laufzeit: August 2013-Dezember 2013
Desktop Applikation zur Auswertung von Securityaudit-Reports
Technische Grundlagen: Java 6, RESTful services, Eclipse, GIT
Beschreibung: Konfiguration und Aufbereitung von Securityaudit-Reports in KPIs
Laufzeit: Juni 2013 ? Juli 2013
Auftraggeber: PricewaterhouseCoopers AG, Frankfurt Main
Verbesserung einer Messaging Middleware
Technische Grundlagen: Red Hat Enterprise Linux 6, C++, Assembler
Zur Verbesserung der Latenzen bei der Nachrichtenübertragung wurden Verbesserungen an der Messaging Middleware vorgenommen, die sich u.a. aus der Umgehung von Betriebssystem-Funktionen und dem Einsatz von Linux spezifischen Mechanismen zusammensetzten. Des weiteren wurde eine Portierung von 32 auf 64 Bit durchgeführt.
Auftraggeber: Deutsche Börse AG, Eschborn
Laufzeit: Juni 2012-Mai 2013
Migration eines Oracle 10g Clusters auf MySQL.
Technische Grundlagen: Red Hat Enterprise Linux 6, Solaris 10, Oracle 10g, MySQL 5.1, C++, Java, Perl, Python, HP DL580, SSD Storage
Erstellung eines Konzepts zur Migration und Durchführung selbiger. Im Rahmen der Migration mussten diverse Hilfsprogramme entwickelt oder migriert werden um eine temporäre Koexistenz der beiden Datenbanken (Oracle/MySQL) zu ermöglichen. Zusätzlich wurde eine optimale Konfiguration des Betriebssystems und der Datenbank erarbeitet um eine maximale Abfrage-Performance zu gewährleisten.
Im Anschluss wurden diverse Schulungen für Programmierer und Administratoren konzipiert und durchgeführt.
Auftraggeber: Deutsche Börse AG, Eschborn
Laufzeit: Mai 2011-Juni 2012
Review und Beratung bzgl. eines Replikations-Konzeptes auf Basis von MySQL
Technische Grundlagen: Windows Server 2003, MySQL 5.5, C++
Die bereits durchgeführte Installation eines MySQL Replikationsclusters wurde auf ihre Tauglichkeit und mögliche Sicherheits- und Performance-Verbesserungen untersucht.
Auftraggeber: Siemens IT-Solutions, Zürich
Laufzeit: April 2011
Konzepterstellung für einen hochverfügbaren Datenbankcluster auf Basis von MySQL-Cluster 7.10
Technische Grundlagen: SLES 10, MySQL 5.1 (NDB-Cluster 7.10), CISCO Loadbalancer
Zur Speicherung der Session-Daten einer komplexen Customer-Self-Care und Vertriebsplattform sollte eine hochverfügbare, skalierbare und performante Datenbanklösung konzipiert werden, die den vorhandenen Hot-Standby MySQL-Verbund ablöst. Es wurden 2 Konzepte erstellt, die sowohl die Implementierung eines Clusters auf Basis von MySQL-Cluster als auch die Implementierung einer Multi-Master Replikation mit InnoDB Engine vorsehen.
Auftraggeber: Kabel Deutschland GmbH, München
Laufzeit: März 2011 - April 2011
Planung und Implementierung einer eCommerce B2B Plattform
Technische Grundlagen: PHP, XML, SOAP, XML-RPC, Apache, Linux, MySQL, Eclipse+Subversion
Beschreibung: Distribution von Produktdaten in einem Affiliate Netz
Laufzeit: Juli 2010 ? Dezember 2010
Firewall-Regel Management Web-Applikation
Technische Grundlagen: Perl, MySQL, Eclipse, Microsoft SQL Server, Internet Information Server, Windows Server 2003, Subversion
Beschreibung: Abschluss eines zuvor von einem anderen Mitarbeiter gestarteten Projekts zur Verwaltung von Firewall-Regeln. Erstellung eines Testsystems auf XAMP Basis und darauffolgende Portierung des Systems auf IIS und MSSQL.
Anschließend Support/Maintenance für das Projekt.
Laufzeit: September 2009 ? Juni 2010
Auftraggeber: PricewaterhouseCoopers AG, Frankfurt Main
Stress-Test Desktop-Tool zum Testen von Web-Applikationen auf "Robustheit"
Technische Grundlagen: Java J2SE, NetBeans
Beschreibung: Konzeptionierung und Implementierung einer Desktop-Anwendung zur Simulation von User-Peaks auf Web-Applikationen.
Laufzeit: 1 Woche, 2009
Auftraggeber: Diverse
Konzeptionierung und Implementierung einer massiv-parallelen Suchmaschine zum firmeninternen Gebrauch
Technische Grundlagen: Perl & MySQL, Eclipse
Beschreibung: Suchmaschine zur Erfassung und Filterung bestimmter Daten aus Web-Content (15000 Pages/Minute)
Auftraggeber: Diverse
Laufzeit: 3 Wochen, 2009
Konzeptionierung und Implementierung eines Kennzahlensystems auf Basis eines bestehenden Frameworks
Technische Grundlagen: Microsoft Developer Studio, VB.Net, MS SQL Server, Access
Beschreibung: Neuentwicklung zur Erweiterung des Produktportfolios
Referenz: http://www.caq.de/de/products/product.asp?product=03
Auftraggeber: CAQ AG Factory Systems
Laufzeit, Jahr: 10 Monate, 2008-2009
Konzeptionierung und Implementierung eines Firewall-Systems mit integriertem Spam-Filter und Load-Balancer
Technische Grundlagen: RedHat-Linux Grundsystem mit Postfix, iptables, etc.
Beschreibung: Schutz der Infrastruktur vor Sicherheitsrisiken und Spam. Zusätzlich Lastverteilung für die bestehenden Standleitungen und Webserver.
Auftraggeber: CAQ AG Factory Systems
Laufzeit, Jahr: 2 Wochen, 2008
Betreuung und Erweiterung einer eCommerce-Anwendung
Technische Grundlagen: Linux Grundsystem mit PHP, Perl und MySQL. IDE: Eclipse+Subversion (SVN)
Beschreibung: Anbindung an verschiedene externe Portale (eBay, Amazon) mittels SOAP, XML und CSV Tools zu 90% auf Perl Basis.
Laufzeit: 2008-2011
Auftraggeber: Metasport GmbH
Konzeptionierung und Implementierung einer Java-Anwendung zur Auswertung von Aktien-Geschäften
Grundlage: Kundensystem der Volksbank Mittelhessen (Fiducia AG).
Technische Grundlagen: Java, Hybernate, Log4j, HSQL, Eclipse, Subversion
Auftraggeber: Keller-Grunert-Nebeling Gesellschaft für Vermögensverwaltung mbH & Volksbank Mittelhessen eG
Laufzeit, Jahr: 1 Monat mit anschließendem Support, 2007
Konzeptionierung und Durchführung eines eCommerce Projekts mit Hochverfügbarkeits-Komponenten
Linux Grundsystem mit MySQL Datenbank-Cluster auf einer Xen-Plattform mit DRBD verteiltem Filesystem und Heartbeat Monitor.
Zusätzlich Anbindung an die Warenwirtschaft und das Firmennetzwerk mit IPSec und Schutz der Infrastruktur mittels Proxy-Firewall auf Linux Basis.
Anbindung an verschiedene externe Portale mittels SOAP, XML und CSV Tools zu 60% auf Perl Basis.
Zusätzlich im Rahmen des Supports ab 2008: Migration aller Shop-Daten von MyISAM auf InnoDB unter Verwendung des alternativen InnoDB-Plugins für MySQL.
Hardware Basis: Mehre HP DL380G5 mit Remote Mgmt. ILo
Durchschnittliches Kundenvolumen (Visitors/Month) ca. 300000, 1000000 Page-Views/Month.
Kontakt: Geschäftsführer [Name und Kontaktdaten auf Anfrage]
Laufzeit, Jahr: 3 Monate mit anschließendem Support, 2007. Migration auf InnoDB ab 2008
Weitere Tätigkeit waren verschiedene eigenverantwortlich durchgeführte Projekte auf Basis von Perl, Java, C++, Python, JDBC, EJB, Swing, JPA und anderen Technologien größtenteils auf Linux/Unix Basis und Eclipse oder Netbeans als Entwicklungsumgebung.
1.
2.
3.
? Design and plan a cloud solution architecture
? Manage and provision the cloud solution infrastructure
? Design for security and compliance
? Analyze and optimize technical and business processes
? Manage implementations of cloud architecture
? Ensure solution and operations reliability
Earners of the Security, Compliance, and Identity Fundamentals demonstrate a functional understanding of security, compliance, and identity (SCI) across cloud-based and related Microsoft services.
Bevorzugt einsetzbar als technischer Architekt und Projektmanager im Bereich von Cloud-, Infrastruktur- und Software-Automatisierung.
Außerdem:
- Linux System-Engineering
- Software-Entwicklung
- Datenbank-Administration & Programmierung
Die Marktdaten einer internationalen Energiebörse sollen über eine neu zu erstellende, Cloud-native Plattform verteilt werden.
Als Leitlinie sollten ausschließlich Cloud- und Serverless-Produkte verwendet werden. Darüber hinaus waren entsprechende Regulierungen der BaFin u.a. zu erfüllen.
Die KfW betreibt für einige Anwendungen eine fortgeschrittene Infrastruktur in der Azure Cloud. Diese Infrastruktur sollte weiter konsolidiert und automatisiert werden. Hierzu gehören die Einführung und Verbesserung der Infrastructure-as-Code und DevOps Methodik sowie die Anpassung spezifischer Dienste im Bereich Kubernetes, Big-Data und Artificial Intelligence.
Verschiedene Projekte verlangen Zugang zu Cloud-Technologie oder setzen Teilaufgaben bereits (in Eigenverantwortung) mit dieser um. Die technische Entwicklung sollte nun konsolidiert- und ein gemeinsamer Ansatz entworfen werden, der sowohl die Bedürfnisse der Entwicklung als auch die des Managements erfüllt.
Im Zuge der Digitalisierung und Cloud-ifizierung der (IT-)Organisation wurden Fragestellungen zu zentralen technischen und organisatorischen Themen bearbeitet. Hierzu zählten die verschiedenen Rollen innerhalb und ausserhalb der jeweiligen Abteilungen, die technische Grundlage der Projekte, Sicherheit und Datenschutz sowie die Etablierung der neuen technischen Plattformen und Methoden.
Mehrere heterogene Entwicklungslandschaften sollten hinsichtlich der verwendeten Entwicklungs-, Versionierungs- und Test-Methoden konsolidiert werden. Im darauf folgenden Schritt wurden diese Methoden auf eine gemeinsamen Integrations- und Deployment-Plattform portiert. Diese CI/CD Plattform wurde im Anschluss verwendet um die Release-Artefakte in mehreren Lokationen auzurollen. Die Größe der jeweiligen Lokation umfasste i.d.R. mehrere hundert Systeme.
Ein Problem auf der Anwendungsseite musste Datenbankseitig kompensiert werden, um Verarbeitungsabbrüche zu verhindern.
Hierzu war eine tiefgreifende Analyse der verschiedenen Workloads notwendig, sowie teilweise automatische Tests zur Performance-Ermittlung.
Eine Anwendung mit verteilten Komponenten sowohl im on-prem RZ sowie zukünftig in verschiedenen Public-Clouds benötigte die entsprechende technische Infrastruktur sowie zeitgemäße Schnittstellen.
Im Rahmen eines CI/CD-Prozess wurde die entsprechenden Änderungen an Anwendung- sowe Infrastruktur implementiert.
Um zukünftig Projekte mit Cloud-Technologie umsetzen zu können wurden Konzepte und Werkzeuge benötigt. Diese Konzepte wurden als Beratungsleistung geschaffen und angewendet. Im weiteren Verlauf sollten passende Werkzeuge und Prozesse zur Realisierung der Konzepte gefunden oder gebaut werden. Hierbei war der architektonische Ansatz die Stakeholder und ihre Anforderungen abzustimmen und gegen Richtlinien zu prüfen. Dieser Vorgang wurde dann automatisiert.
Ein fortgeschrittenes Projekt zur Neu-Implementierung der Unternehmenssoftware benötigte Unterstützung bei der Anwendung von DevOps Methodiken und der Autmatisierung von Cloud-/Kubernetes Komponenten. Zusätzlich war Expertise in Kafka und Jenkins gefragt.
Nach einer weiteren Verdopplung der Datenraten sowie neuen Anforderungen zusätzlicher Anwendungen wurden verschiedene Maßnahmen getroffen, um diese Anforderungen zu erfüllen.
Außerdem waren verschiedene Themen rund um die Auditierung von Datenbankzufriffen Bestandteil des Auftrags.
Zur Unterstützung der automatischen Tests im CI/CD/TDD Prozess wurde eine Überprüfung der Leistungsmetriken benötigt. Diese Metrik wird mit Hilfe generischer- oder selbsterstellter Agenten in Timeseries-Datenbanken gespeichert. Zur Erreichung höchstmöglicher Flexibilität - auch im Hinblick auf die Versionierung der Schnittstellen - wurde Apache Kafka zur Realisierung der Streaming-Infrastruktur genutzt.
Die Metriken sollten anschließend sowohl zur Visualisierung (durch z.B. Grafana) als auch für Alarmierungszwecke genutzt werden.
Zur Erweiterung der Webapplikation um neue Funktionen und weitere Nutzerattribute sollte Galera-Cluster in einem Multi-RZ Betrieb konfiguriert und optimiert werden. Hierzu kam außerdem ein Loadbalancer in Form von ha_proxy zum Einsatz.
Die entsprechenden Aufgaben wurden nebst einer Implementierung zum Sichern- und Wiederherstellen des Systems erledigt.
Konzepterstellung und Implementierung einer CI/CD Lösung auf Basis von GitHub, Jenkins, Artifactory und Ansible für eine verteilte low-latency C/C++ Anwendung in mehreren Umgebungen.
DevOps Methodiken und Tools sollten im Betrieb des Kunden etabliert werden. Hierzu wurden verschiedene Tools evaluiert und eingesetzt. Die Umsetzung geschah dann vollumfänglich in einem großen Web-Projekt.
Angesichts erheblich gestiegener Datenraten sowie HA-Anforderungen wurden verschiedene Maßnahmen getroffen, um Point-in-time recovery sowie Cluster-Schwenks zu realisieren.
Sicherstellung der Verfügbarkeit einer Entwicklungs- sowie Delivery-Plattform in der Amazon Cloud während eines Personal-Engpass.
Die bestehende Serverfarm wurde parallel zum Hardware-Refresh auf Red Hat Enterprise Linux 7 aktualisiert.
Hierbei wurden ebenfalls diverse Anpassungen an Systemkomponenten wie System-Bibliotheken, Datenbanken und Skriptsprachen vorgenommen deren Kompatibilität sichergestellt werden musste. Weiterhin mussten Last- Und Perforamncetests durchgeführt werden um einen reibungslosen Betrieb zu gewährleisten.
Als automatisches Konfigurations- und Installationstool wurde Ansible in Kombination mit einem Enterprise-GitHub verwendet.
Mehrere Datenbankserver sollten hinsichtlich Performance- sowie Robustheit optimiert werden.
Der besondere Anspruch war es diese 24/7 Systeme mit Datenmengen im >>100GB in kurzer Zeit anzupassen ohne den laufenden Betrieb zu beeinflussen.
Im Rahmen eines MiFID2 Reporting Engine Konzepts sollten Handels- und Referenzdaten verarbeitet und ausgewertet werden. Hierzu wurde ein Basissystem sowie eine Datenversorgung dieses Systems erstellt.
Für die sehr umfangreiche Dokumenten-Datenbank des Deutschen Instituts für Medizinische Dokumentation und Information (Behörde des Bundesministeriums für Gesundheit) sollte eine Lösung zum Online-Backup der Datenbanken erarbeitet werden.
Auf Basis von OTRS wurde ein Servicedesksystem für ein Softwareprojekt implementiert.
Datenbank Migrations-Support
Technische Grundlagen: RHEL6, MySQL 5.6, MySQL Cluster 7.3, Puppet, WSO2
Anforderung: Eine Applikation mit MySQL 5.6 DB sollte auf MySQL Cluster (NDB) portiert werden.
Auftraggeber: T-Systems GmbH, Frankfurt
Laufzeit: April 2015 - Juni 2015
Review und Support für Datenbank-Cluster
Technische Grundlagen: RHEL6, MySQL Cluster 7.3, Puppet, WSO2
Anforderung: Eine bestehende MySQL Cluster Installation sollte optimiert sowie Installations- und Wartungstätigkeiten automatisiert werden.
Auftraggeber: T-Systems GmbH, Frankfurt
Laufzeit: März 2015 - Mai 2015
Implementierung eines Webservices für Handelsdaten
Technische Grundlagen: Tomcat, Java, Eclipse, Linux, CEF
Anforderung: Das Kursverteilsystem CEF der Deutschen Börse AG benötigte eine einfach anzusprechende Web-Schnittstelle zu dessen Marktdaten-Feeds.
Auftraggeber: Deutsche Börse AG, Eschborn
Laufzeit: September 2014-März 2015
Entwurf und Umsetzung eines Continous Deployment bzw. Delivery Konzepts
Technische Grundlagen: GIT, SVN, Jenkins, Eclipse, GNU make, Perl
Anforderung: Das vorhandene Entwicklungssystem, einschließlich SCM und Ticketsystem, soll für die Erfordernisse mehrerer paralleler Entwicklungszweige angepasst werden.
Im Rahmen dieser Aufgabenstellung wurde ein flexibler Ersatz für das bis dato genutzte System entworfen, getestet und zeitnah umgesetzt.
Auftraggeber: Deutsche Börse AG, Eschborn
Laufzeit: Februar 2014-August 2014
Automatisierung von Modul-Tests
Technische Grundlagen: C++, Perl
Als Erweiterung statischer Modul-Tests einer Realtime Online-Statistik Applikation wurde ein automatischer Modultest-Generator geplant und entwickelt. Die Tests wuden hierbei, anhand manuell bestimmbarer Metriken, per Perl-Framework erzeugt und anschließend online- oder offline an die Berechnungsapplikation bzw. deren Modulinstanzen übertragen. Mit Hilfe eines automatischen Ergebnisabgleichs konnte die Funktionsweise der Module überprüft werden.
Auftraggeber: Deutsche Börse AG, Eschborn
Laufzeit: August 2013-Dezember 2013
Desktop Applikation zur Auswertung von Securityaudit-Reports
Technische Grundlagen: Java 6, RESTful services, Eclipse, GIT
Beschreibung: Konfiguration und Aufbereitung von Securityaudit-Reports in KPIs
Laufzeit: Juni 2013 ? Juli 2013
Auftraggeber: PricewaterhouseCoopers AG, Frankfurt Main
Verbesserung einer Messaging Middleware
Technische Grundlagen: Red Hat Enterprise Linux 6, C++, Assembler
Zur Verbesserung der Latenzen bei der Nachrichtenübertragung wurden Verbesserungen an der Messaging Middleware vorgenommen, die sich u.a. aus der Umgehung von Betriebssystem-Funktionen und dem Einsatz von Linux spezifischen Mechanismen zusammensetzten. Des weiteren wurde eine Portierung von 32 auf 64 Bit durchgeführt.
Auftraggeber: Deutsche Börse AG, Eschborn
Laufzeit: Juni 2012-Mai 2013
Migration eines Oracle 10g Clusters auf MySQL.
Technische Grundlagen: Red Hat Enterprise Linux 6, Solaris 10, Oracle 10g, MySQL 5.1, C++, Java, Perl, Python, HP DL580, SSD Storage
Erstellung eines Konzepts zur Migration und Durchführung selbiger. Im Rahmen der Migration mussten diverse Hilfsprogramme entwickelt oder migriert werden um eine temporäre Koexistenz der beiden Datenbanken (Oracle/MySQL) zu ermöglichen. Zusätzlich wurde eine optimale Konfiguration des Betriebssystems und der Datenbank erarbeitet um eine maximale Abfrage-Performance zu gewährleisten.
Im Anschluss wurden diverse Schulungen für Programmierer und Administratoren konzipiert und durchgeführt.
Auftraggeber: Deutsche Börse AG, Eschborn
Laufzeit: Mai 2011-Juni 2012
Review und Beratung bzgl. eines Replikations-Konzeptes auf Basis von MySQL
Technische Grundlagen: Windows Server 2003, MySQL 5.5, C++
Die bereits durchgeführte Installation eines MySQL Replikationsclusters wurde auf ihre Tauglichkeit und mögliche Sicherheits- und Performance-Verbesserungen untersucht.
Auftraggeber: Siemens IT-Solutions, Zürich
Laufzeit: April 2011
Konzepterstellung für einen hochverfügbaren Datenbankcluster auf Basis von MySQL-Cluster 7.10
Technische Grundlagen: SLES 10, MySQL 5.1 (NDB-Cluster 7.10), CISCO Loadbalancer
Zur Speicherung der Session-Daten einer komplexen Customer-Self-Care und Vertriebsplattform sollte eine hochverfügbare, skalierbare und performante Datenbanklösung konzipiert werden, die den vorhandenen Hot-Standby MySQL-Verbund ablöst. Es wurden 2 Konzepte erstellt, die sowohl die Implementierung eines Clusters auf Basis von MySQL-Cluster als auch die Implementierung einer Multi-Master Replikation mit InnoDB Engine vorsehen.
Auftraggeber: Kabel Deutschland GmbH, München
Laufzeit: März 2011 - April 2011
Planung und Implementierung einer eCommerce B2B Plattform
Technische Grundlagen: PHP, XML, SOAP, XML-RPC, Apache, Linux, MySQL, Eclipse+Subversion
Beschreibung: Distribution von Produktdaten in einem Affiliate Netz
Laufzeit: Juli 2010 ? Dezember 2010
Firewall-Regel Management Web-Applikation
Technische Grundlagen: Perl, MySQL, Eclipse, Microsoft SQL Server, Internet Information Server, Windows Server 2003, Subversion
Beschreibung: Abschluss eines zuvor von einem anderen Mitarbeiter gestarteten Projekts zur Verwaltung von Firewall-Regeln. Erstellung eines Testsystems auf XAMP Basis und darauffolgende Portierung des Systems auf IIS und MSSQL.
Anschließend Support/Maintenance für das Projekt.
Laufzeit: September 2009 ? Juni 2010
Auftraggeber: PricewaterhouseCoopers AG, Frankfurt Main
Stress-Test Desktop-Tool zum Testen von Web-Applikationen auf "Robustheit"
Technische Grundlagen: Java J2SE, NetBeans
Beschreibung: Konzeptionierung und Implementierung einer Desktop-Anwendung zur Simulation von User-Peaks auf Web-Applikationen.
Laufzeit: 1 Woche, 2009
Auftraggeber: Diverse
Konzeptionierung und Implementierung einer massiv-parallelen Suchmaschine zum firmeninternen Gebrauch
Technische Grundlagen: Perl & MySQL, Eclipse
Beschreibung: Suchmaschine zur Erfassung und Filterung bestimmter Daten aus Web-Content (15000 Pages/Minute)
Auftraggeber: Diverse
Laufzeit: 3 Wochen, 2009
Konzeptionierung und Implementierung eines Kennzahlensystems auf Basis eines bestehenden Frameworks
Technische Grundlagen: Microsoft Developer Studio, VB.Net, MS SQL Server, Access
Beschreibung: Neuentwicklung zur Erweiterung des Produktportfolios
Referenz: http://www.caq.de/de/products/product.asp?product=03
Auftraggeber: CAQ AG Factory Systems
Laufzeit, Jahr: 10 Monate, 2008-2009
Konzeptionierung und Implementierung eines Firewall-Systems mit integriertem Spam-Filter und Load-Balancer
Technische Grundlagen: RedHat-Linux Grundsystem mit Postfix, iptables, etc.
Beschreibung: Schutz der Infrastruktur vor Sicherheitsrisiken und Spam. Zusätzlich Lastverteilung für die bestehenden Standleitungen und Webserver.
Auftraggeber: CAQ AG Factory Systems
Laufzeit, Jahr: 2 Wochen, 2008
Betreuung und Erweiterung einer eCommerce-Anwendung
Technische Grundlagen: Linux Grundsystem mit PHP, Perl und MySQL. IDE: Eclipse+Subversion (SVN)
Beschreibung: Anbindung an verschiedene externe Portale (eBay, Amazon) mittels SOAP, XML und CSV Tools zu 90% auf Perl Basis.
Laufzeit: 2008-2011
Auftraggeber: Metasport GmbH
Konzeptionierung und Implementierung einer Java-Anwendung zur Auswertung von Aktien-Geschäften
Grundlage: Kundensystem der Volksbank Mittelhessen (Fiducia AG).
Technische Grundlagen: Java, Hybernate, Log4j, HSQL, Eclipse, Subversion
Auftraggeber: Keller-Grunert-Nebeling Gesellschaft für Vermögensverwaltung mbH & Volksbank Mittelhessen eG
Laufzeit, Jahr: 1 Monat mit anschließendem Support, 2007
Konzeptionierung und Durchführung eines eCommerce Projekts mit Hochverfügbarkeits-Komponenten
Linux Grundsystem mit MySQL Datenbank-Cluster auf einer Xen-Plattform mit DRBD verteiltem Filesystem und Heartbeat Monitor.
Zusätzlich Anbindung an die Warenwirtschaft und das Firmennetzwerk mit IPSec und Schutz der Infrastruktur mittels Proxy-Firewall auf Linux Basis.
Anbindung an verschiedene externe Portale mittels SOAP, XML und CSV Tools zu 60% auf Perl Basis.
Zusätzlich im Rahmen des Supports ab 2008: Migration aller Shop-Daten von MyISAM auf InnoDB unter Verwendung des alternativen InnoDB-Plugins für MySQL.
Hardware Basis: Mehre HP DL380G5 mit Remote Mgmt. ILo
Durchschnittliches Kundenvolumen (Visitors/Month) ca. 300000, 1000000 Page-Views/Month.
Kontakt: Geschäftsführer [Name und Kontaktdaten auf Anfrage]
Laufzeit, Jahr: 3 Monate mit anschließendem Support, 2007. Migration auf InnoDB ab 2008
Weitere Tätigkeit waren verschiedene eigenverantwortlich durchgeführte Projekte auf Basis von Perl, Java, C++, Python, JDBC, EJB, Swing, JPA und anderen Technologien größtenteils auf Linux/Unix Basis und Eclipse oder Netbeans als Entwicklungsumgebung.
1.
2.
3.
? Design and plan a cloud solution architecture
? Manage and provision the cloud solution infrastructure
? Design for security and compliance
? Analyze and optimize technical and business processes
? Manage implementations of cloud architecture
? Ensure solution and operations reliability
Earners of the Security, Compliance, and Identity Fundamentals demonstrate a functional understanding of security, compliance, and identity (SCI) across cloud-based and related Microsoft services.
Bevorzugt einsetzbar als technischer Architekt und Projektmanager im Bereich von Cloud-, Infrastruktur- und Software-Automatisierung.
Außerdem:
- Linux System-Engineering
- Software-Entwicklung
- Datenbank-Administration & Programmierung