Der Kunde baut sein Monitoring komplett neu auf. Das Paketieren von RPM-Paketen und das Deployment sollen automatisiert werden. Hier habe ich den Entwicklungs-Prozess gestaltet, mit Jenkins CI/CD-Pipelines konzipiert und die Kollegen geschult.
Der Kunde wollte ein hoch verfügbares Monitoring-System komplett neu aufbauen. Hier habe ich das Monitoring-Konzept entwickelt und die Plattform automatisiert aufgebaut. Die Konfiguration für das Monitoring wird automatisiert aus den Daten der PuppetDB sowie manuell beigesteuerter Daten für Altsysteme ohne Puppet-Anbindung generiert. Schnittstellen zu externen IT-Dienstleistern sowie eine komplexe anwendungsbezogene Alarmierung wurde umgesetzt. Metriken werden in einem InfluxDB-Cluster gespeichert und über Grafana ausgewertet. Für verschiedene Anwendungsfälle wurden einfache und komplexe eigene Checks entwickelt und teilweise als Open Source zur Verfügung gestellt:
https://github.com/joernott/monitoring-check_log_elasticsearch
https://github.com/joernott/monitoring-check_f5_telemetry
https://github.com/joernott/monitoring-check_f5_throughput
https://github.com/joernott/monitoring-check_bigip_pool
https://github.com/joernott/monitoring-check_etcd
Der Kunde entwickelt seine Kernanwendung von Grund auf neu. In diesem Kontext soll die Installation und Konfiguration der diversen Standard-Anwendungen (F5 Loadbalancer, Oracle-Datenbank, DB2, Apache MQ, Weblogic) sowie verschiedener Branchen und selbst entwickelten Softwarekomponenten komplett automatisiert werden.
Hier habe ich die Automatisierung für verschiedene Teilprojekte konzipiert und umgesetzt sowie die Teamkollegen unterstützt. Dabei wurden komplexe Puppet-Module von Grund auf entwickelt.
Der Kunde möchte Elasticsearch zum Konsolidieren und Auswerten von Logfiles einsetzen. Dabei sollen unterschiedliche Umgebungen getrennte Cluster erhalten. Ich habe die Cluster entlang der Kundenanforderungen konzipiert und die Installation und Konfiguration mit Puppet automatisiert.
Der Kunde möchte den Elasticsearch-Cluster nutzen, um komplexe Suchen schneller als in der Datenbank/Anwendung ausführen zu können. Meine Aufgabe war die Entwicklung des Konzepts, Erstellung des Sicherheitskonzepts für sensible Daten und die automatisierte Integration mit Puppet. Dabei war sowohl der ELK-Stack, als auch die abrufende Anwendung zu integrieren
Der Kunde betreibt einen Cluster mit CoreOS, Docker, Fleet und Kubernetes als Plattform für diverse Microservices und Anwendungen. Es werden neue Docker Container gebaut und bestehende Container optimiert. Die Umgebung sowie die klassischen Application Server werden mit Prometheus überwacht
Zur Auswertung von Betriebs-Kennzahlen soll eine eigene Bigdata-Infrastruktur im Unternehmen geschaffen werden. Dazu wurde ein erweiterbarer Hadoop/Spark Cluster konzipiert, installiert und in Betrieb genommen. Es wurde ein automatisches Deployment für Produktion, Testcluster und Vagrant-Boxen der Entwickler erstellt. Dieses System ermöglicht eine komplette Reproduzierbarkeit in verschiedenen Umgebungen. Kundenspezifische Datenimporte von FTP-Servern wurden mit Bash/PHP und Oozie realisiert. Zusätzliche Komponenten (z.B. Zeppelin)
Definition von Abläufen für Change Requests
Planung und Monitoring sowie Koordinierung der verschiedenen Teams bei der Implementierung von Change Requests
Planung von Teilprojekten im Rahmen unternehmensweiter IT-Projekte
Analyse und Optimierung bestehender Workflows
Der Kunde wurde verkauft und muss in diesem Kontext seine Server-Infrastruktur (rd. 250 physikalische sowie 50 virtuelle Server) in ein neues Rechnenzentrum auf andere Hardware portieren. In dem Rahmen ist auch das automatische Deployment und Konfigurationsmanagement zu überprüfen und optimieren. Auch soll die Hardware konsolidiert werden und OVirt als Virtualisierungs-Lösung genutzt werden.
Für die Live-Migration und zur Unterstützung der Entwickler soll ein Testlab aufgebaut werden, das im kleinen die Infrastruktur des Rechenzentrums nachbildet.
Im Testlab und im neuen Data center müssen Server automatisch installiert und konfiguriert werden. Dazu soll ein redundanter management host zentrale Dienste konsolidieren. Der Host soll von CD oder USB stick installiert werden und dann in der Lage sein, das gesamte Rechenzentrum (Linux) zu installieren und konfigurieren.
Für einen Kunden sollen sowohl interne Server (LDAP, Mail, Wiki, Web-Konferenz, DNS, MySQL), als auch Entwicklungs- und Produktivserver als virtuelle Server bereitgestellt werden. Die Virtualisierung erfolgt auf der Basis von OpenVZ und KVM. Ab Dezember 2011 wird Proxmox eingesetzt.
Die bestehende Infrastruktur aus zwei SuSE Linux-Servern und einem auf Basis von VMWare Server virtualisierten Windows-Server des Kunden soll modernisiert und zu Installation einer neuen Handelsplattform ergänzt werden. Hierzu wurde ein Cluster aus zwei identischen DELL-Servern auf der Basis von Proxmox installiert. Ein virtueller Debian-Server ersetzt die vorhandenen SuSE-Server, die virtuelle Plattform wurde nach KVM migriert sowie ein weiterer virtueller Server auf Basis von Windows 2008 R2 bereitgestellt
Der Kunde ist ein Startup im Cloud Service Bereich. Für die IT-Operations und Support Abteilung sollen Support Prozesse (Kunden-Support, Incident Management, Desaster Recovery, Hardware-Austausch und Beschaffung) definiert und eingeführt werden.
Analyse der Sales-Prozesse vom Pre Sales-Prozess über Vertrags- und Projektanlage bis zur Fakturierung. Dabei sollen die vorhandenen Daten analysiert werden und in einer Access-Datenbank zur Aufbereitung der Daten zusammengeführt werden. Die Daten stammen aus verschiedenen Quellen (CRM, SAP, Oracle-Datenbank) und sollen zunächst manuell und nach Finalisierung der Anforderungen automatisiert aufbereitet werden. Die Ausgabe erfolgt als Excel-Mappen mit Pivottabellen und Diagrammen.
Der Kunde baut sein Monitoring komplett neu auf. Das Paketieren von RPM-Paketen und das Deployment sollen automatisiert werden. Hier habe ich den Entwicklungs-Prozess gestaltet, mit Jenkins CI/CD-Pipelines konzipiert und die Kollegen geschult.
Der Kunde wollte ein hoch verfügbares Monitoring-System komplett neu aufbauen. Hier habe ich das Monitoring-Konzept entwickelt und die Plattform automatisiert aufgebaut. Die Konfiguration für das Monitoring wird automatisiert aus den Daten der PuppetDB sowie manuell beigesteuerter Daten für Altsysteme ohne Puppet-Anbindung generiert. Schnittstellen zu externen IT-Dienstleistern sowie eine komplexe anwendungsbezogene Alarmierung wurde umgesetzt. Metriken werden in einem InfluxDB-Cluster gespeichert und über Grafana ausgewertet. Für verschiedene Anwendungsfälle wurden einfache und komplexe eigene Checks entwickelt und teilweise als Open Source zur Verfügung gestellt:
https://github.com/joernott/monitoring-check_log_elasticsearch
https://github.com/joernott/monitoring-check_f5_telemetry
https://github.com/joernott/monitoring-check_f5_throughput
https://github.com/joernott/monitoring-check_bigip_pool
https://github.com/joernott/monitoring-check_etcd
Der Kunde entwickelt seine Kernanwendung von Grund auf neu. In diesem Kontext soll die Installation und Konfiguration der diversen Standard-Anwendungen (F5 Loadbalancer, Oracle-Datenbank, DB2, Apache MQ, Weblogic) sowie verschiedener Branchen und selbst entwickelten Softwarekomponenten komplett automatisiert werden.
Hier habe ich die Automatisierung für verschiedene Teilprojekte konzipiert und umgesetzt sowie die Teamkollegen unterstützt. Dabei wurden komplexe Puppet-Module von Grund auf entwickelt.
Der Kunde möchte Elasticsearch zum Konsolidieren und Auswerten von Logfiles einsetzen. Dabei sollen unterschiedliche Umgebungen getrennte Cluster erhalten. Ich habe die Cluster entlang der Kundenanforderungen konzipiert und die Installation und Konfiguration mit Puppet automatisiert.
Der Kunde möchte den Elasticsearch-Cluster nutzen, um komplexe Suchen schneller als in der Datenbank/Anwendung ausführen zu können. Meine Aufgabe war die Entwicklung des Konzepts, Erstellung des Sicherheitskonzepts für sensible Daten und die automatisierte Integration mit Puppet. Dabei war sowohl der ELK-Stack, als auch die abrufende Anwendung zu integrieren
Der Kunde betreibt einen Cluster mit CoreOS, Docker, Fleet und Kubernetes als Plattform für diverse Microservices und Anwendungen. Es werden neue Docker Container gebaut und bestehende Container optimiert. Die Umgebung sowie die klassischen Application Server werden mit Prometheus überwacht
Zur Auswertung von Betriebs-Kennzahlen soll eine eigene Bigdata-Infrastruktur im Unternehmen geschaffen werden. Dazu wurde ein erweiterbarer Hadoop/Spark Cluster konzipiert, installiert und in Betrieb genommen. Es wurde ein automatisches Deployment für Produktion, Testcluster und Vagrant-Boxen der Entwickler erstellt. Dieses System ermöglicht eine komplette Reproduzierbarkeit in verschiedenen Umgebungen. Kundenspezifische Datenimporte von FTP-Servern wurden mit Bash/PHP und Oozie realisiert. Zusätzliche Komponenten (z.B. Zeppelin)
Definition von Abläufen für Change Requests
Planung und Monitoring sowie Koordinierung der verschiedenen Teams bei der Implementierung von Change Requests
Planung von Teilprojekten im Rahmen unternehmensweiter IT-Projekte
Analyse und Optimierung bestehender Workflows
Der Kunde wurde verkauft und muss in diesem Kontext seine Server-Infrastruktur (rd. 250 physikalische sowie 50 virtuelle Server) in ein neues Rechnenzentrum auf andere Hardware portieren. In dem Rahmen ist auch das automatische Deployment und Konfigurationsmanagement zu überprüfen und optimieren. Auch soll die Hardware konsolidiert werden und OVirt als Virtualisierungs-Lösung genutzt werden.
Für die Live-Migration und zur Unterstützung der Entwickler soll ein Testlab aufgebaut werden, das im kleinen die Infrastruktur des Rechenzentrums nachbildet.
Im Testlab und im neuen Data center müssen Server automatisch installiert und konfiguriert werden. Dazu soll ein redundanter management host zentrale Dienste konsolidieren. Der Host soll von CD oder USB stick installiert werden und dann in der Lage sein, das gesamte Rechenzentrum (Linux) zu installieren und konfigurieren.
Für einen Kunden sollen sowohl interne Server (LDAP, Mail, Wiki, Web-Konferenz, DNS, MySQL), als auch Entwicklungs- und Produktivserver als virtuelle Server bereitgestellt werden. Die Virtualisierung erfolgt auf der Basis von OpenVZ und KVM. Ab Dezember 2011 wird Proxmox eingesetzt.
Die bestehende Infrastruktur aus zwei SuSE Linux-Servern und einem auf Basis von VMWare Server virtualisierten Windows-Server des Kunden soll modernisiert und zu Installation einer neuen Handelsplattform ergänzt werden. Hierzu wurde ein Cluster aus zwei identischen DELL-Servern auf der Basis von Proxmox installiert. Ein virtueller Debian-Server ersetzt die vorhandenen SuSE-Server, die virtuelle Plattform wurde nach KVM migriert sowie ein weiterer virtueller Server auf Basis von Windows 2008 R2 bereitgestellt
Der Kunde ist ein Startup im Cloud Service Bereich. Für die IT-Operations und Support Abteilung sollen Support Prozesse (Kunden-Support, Incident Management, Desaster Recovery, Hardware-Austausch und Beschaffung) definiert und eingeführt werden.
Analyse der Sales-Prozesse vom Pre Sales-Prozess über Vertrags- und Projektanlage bis zur Fakturierung. Dabei sollen die vorhandenen Daten analysiert werden und in einer Access-Datenbank zur Aufbereitung der Daten zusammengeführt werden. Die Daten stammen aus verschiedenen Quellen (CRM, SAP, Oracle-Datenbank) und sollen zunächst manuell und nach Finalisierung der Anforderungen automatisiert aufbereitet werden. Die Ausgabe erfolgt als Excel-Mappen mit Pivottabellen und Diagrammen.