Unser Kunde hatte den Bedarf seine in Kubernetes Betriebene Shopping-Plattform im Bereich der Compliance weiter zu entwickeln.
Durch erhöhte Anforderungen wurden Teile der Infrastruktur ersetzt oder ergänzt um technisch diesen gerecht zu werden.
Dazu wurde die CI/CD Pipeline erweitert um die verwendeten Komponenten automatisiert zu erstellen und im Betrieb zu warten.
Neben der Erweiterung der Loadbalancer Infrastruktur um den TLS Sicherheitsanforderungen nachzukommen wurde die Infrastruktur für die Anbinung an ein externes vom Endkunden gestelltes Authentifizierungssystem geschaffen.
Alle neuen Komponenten wurden durch den Betrieb als Container ebenfalls im Kubernetes Cluster ausgerollt.
Für regulierte Märkt der Pharma Branche wie Optik und Produktion wird eine alte monolithische Anwendung in eine Microservice Architektur überführt.
Für den Einsatz in Produktionsstandorten Weltweit soll als Basis Kubernetes dienen.
Der Kunde, dessen Softwareentwickler, DevOps Engineers und Architekten wurden im Bereich des On-Premises Deployment Beraten.
PoCs und MVPs im Bereich Infrastructure as Code (IaC) mittels Terraform zum Deployment in der Azure Cloud wurden beratend begleitet.
On-Premises Strategien wurden erarbeitet.
Auf Kubernetes Basis wurden Deployment und Delivery Strategien evaluiert und getestet.
Die Infrastrukturen der Endkunden werden in Azure, AWS, On-Premises oder Hybrid aufgebaut.
Weiterentwicklung einer auf AWS basierender Platform für ca. 20 Produkte und Entwicklungsteams.
Infrastructure as Code mittels Terraform. GitHub Action CI/CD Pipelines. Kubernetes
Ein über Jahre gewachsener Terraform IaC soll durch ein Überarbeiten die Team-Autonomie und Wiederverwendbarkeit steigern.
Der Code befindet sich aktuell in einer Iteration der Verbesserung welche noch nicht abgeschlossen wurde.
Da diese Iteration auch schon vor über einem Jahr begonnen wurde entschlossen zu analysieren ob es nicht einen größeren Mehrwert böte sofort auf einen neuen Zielstand zu gehen um mehrfaches Refactoring zu vermeiden.
Der Terraform Code über 40.000 Zeilen verwaltet die gesamte Infrastruktur in AWS, Azure und On-Premises.
Neben Kubernetes Cluster werden Datenbanken, Loadbalancer, VPC, EC2, Security Groups, Zertifikate, Route53 und andere Services im GitOps Stil verwaltet.
Neben der Komplexität ist die laufenden Migration der CI/CD Umgebung mit zu beachten, da die Pipelines des Codes ebenfalls dort hin migriert werden sollen.
Auch der Weg hin zu Zero Trust ist neben der Aufteilung der Bereiche Enterprise IT und DevSecOps zu beachten um die Prozesse der shared responsibility zu unterstützen.
Durch einen modularen Aufbau soll der Code direkt von den Dev-Teams verwendet werden können. Aktuelle Code Duplizierung sind zu beheben und im Self-Service Gedanken als Plattform Basis Code bereitzustellen.
Da der Code aktiv durch den GitOps Ansatz verwendet wird ist ein Weg zu skizzieren wie Resourcen der alten Welt in die neue Welt übertragen werden können ohne die Teams in der täglichen Arbeit zu behindern.
In einen hochregulierten Markt der Pharma Branche wird eine alte monolithische Anwendung in eine Microservice Architektur überführt.
Für den Einsatz in Produktionsstandorten Weltweit soll als Basis Kubernetes dienen.
Der Kunde, dessen Softwareentwickler, DevOps Engineers und Architekten wurden im Bereich des On-Premises Deployment Beraten.
PoCs und MVPs im Bereich Infrastructure as Code (IaC) mittels Terraform zum Deployment in der Azure Cloud oder auf VMware wurden beratend begleitet.
Auf Kubernetes Basis wurden Deployment und Delivery Strategien evaluiert und getestet.
Kollegen aus Indien wurden geschult um technische Aufgaben zu übernehmen.
Beginnend mit einer Ist-Analyse zum Stand der Entwicklung wurde aus diesen Ergebnissen ein Konzpet zum Betrieb erstellt.
In der Analyse wurden die alternativen On-Premises Kubernetes mit Nutanix, AWS Cloud und Open Telekom Cloud (OTC) bewertet.
Auf Grund der DSGVO Anforderungen im Gesundheitsdatenbereich wurde der Betrieb in der Open Telekom Cloud gewählt.
Mittels Terraform für die Infrastructure as Code (Iac) und GitLab für die Continuous Integration und Delivery Pipeline wurde die Umgebung bereitgestellt.
Neben dem Systemintegrations- und User Acceptance Test Umgebung wurde für den Vertrieb eine Möglichkeit geschaffen unabhängig vom DevOps Team Demo-Instanzen in wenigen Minuten selbst zu erstellen.
Da auch der Betrieb von GitLab selbst gestellt werden soll wurde mit GitLab Enterprise ebenfalls in der Open Telekom Cloud die Infrastruktur dazu bereitgestellt.
In der Zusammenarbeit mit den internen Mitarbeitern im Bereich der Entwicklung und Operations konnte der grundlegende Kontext geschult und übertragen werden.
Im Rahmen eines PoC sollte eine Infrastruktur für die Migration On Premises auf AWS aufgebaut werden.
Zu migrieren war eine Oracle 12 auf Oracle 19, die Datenreplikation über Tungsten auf MySQL und die dazu gehörigen Anwendungen auf Java Basis von virtuellen Maschienen in Kubernetes laufende Container.
Bereitgestellt wurden alle notwendigen AWS Dienste mittels Terraform als Infastructure as Code. Für die Migration und anbindung der On Premises Infrastruktur wurden Site-to-Site IPSEC Verbindungen geschaffen sowie Client-VPNs zur Anbindung externen.
Neben VPC, EKS, EC2, S3, RDS Oracle/MySQL wurden weitere notwendige Dienste zu Gesamtlauffähigkeit provisioniert.
In einem Kanban Team wurden die Anwendungen installiert und die Migration erprobt.
Für die Umsetzung auf der Seite der Entwickler waren Unterstützung im Bereich Containerisierung und Deployment im EKS inkl. Wissenstransfer gefragt.
Im Rahmen einer Schulung über 4 Tage wurde einige Wochen zuvor eine Analyse des DevOps Adaptionsstandes durchgeführt.
Aus der Ergebnissen der Analyse und den Antworten der Umfragen wurde der Inhalt der Schulung auf den Stand des Unternehmens aufbereitet.
Beginnend mit eine Einführung in das Thema DevOps wurde anschließend in gemeinsamer Analyse erarbeitet wo im Unternehmen mit den ersten kleinen Schritten sichtbare Ergebnisse erzeugt werden können.
Im Detail wurde eine Roadmap erstellt für die nächsten Aufgaben. Die einzelnen Aufgaben wurden in Stories beschrieben und von den am besten geeigneten Personen Übernommen um die Umsetzung voran zu treiben.
Im Nachgang an die Schulung wurde regelmäßig der Fortschritt begleitet
In einer 5 Tägigen Schulung wurden anhand eines vom Kunden verwendeten Software-Produkts der Aufbau einer CI/CD Pipeline beschult.
Als basis Dienten Infrastructure as Code (IaC) mit Terraform.
Bitbucket Pipeline für die Automatisierung. Docker als Container betrieben in einem Azure Kubernetes Cluster.
Durch den Aufbau der Schulung mit diesen technischen Komponenten war es jedem Teilnehmer möglich alle schritte auf seinem System und in Verbindung mit Bitbucket und Azure Kubernetes selbst durchzuführen.
So konnten im Hands-On Verfahren die Entwickler praktische Erfahrung sammeln um diese in ihren Projekten weiter zu verwenden.
Analyse der bisher verwendeten Prozesse für den Test der Software.
Analyse der Continuous Integration Prozesse.
Analyse der Continuous Deployment Prozesse.
Analyse der Delivery Prozesse.
Unterstützung bei der Integration, der Deployments und Delivery auf Baremetal und Amazon Webservcies.
Beratung und Konzeption zur Verbesserung der CI/CD Pipelines
Dokumentation und Schulung
Aufgabe war eine Java Spring Boot Applikation welche unterschiedliche APIs zur Bereitstellung von digitalen Inhalten verwendet in AWS auszurollen.
Die Applikation sollte von einer Flat VM als PoC in 3 Docker Container überführt und damit der Betrieb in Container bewiesen werden. Dies geland erfolgreich in wenigen Stunden.
Der MVP für den Vertrieb wurde dann mit der Anforderung in wenigen Stunden für Neukundenanfragen eine eigene Testumgebung bereitzustellen in AWS gelöst.
Ziel war die Überprüfung einer SaaS Plattform nach Compliance und GDPR Vorgaben des Kunden.
Bewertung der Prozesse, notwendige Anpassungen und Steuerung der Durchführung von Verbesserungen.
Konzeptionelle Entwicklung für höhere RPO und RTO im Bereich Desaster Recovery.
Administration Linux, Virtualisierungsserver, Baresos Backup Migration und Konfiguration, Netzwerkadministrationssupport
Migriert wird eine Infrastruktur bestehend aus VMs welche bei einem IaaS Anbieter aufgebaut wurde.
Der Kunde stellt ein Portal zu einem Cluster bereit der es ermöglicht statistische Berechnungen auf dem bereitgestellten Datenbestand durchzuführen.
Bisher wurden alle benötigten Dienste in VMs installiert welche nun in eine Microservice Architektur überführt werden sollen.
Ziel ist es die Kernapplikation in einer Container Microservice Infrastruktur in Kubernetes Cloud anbieter übergreifend betreiben zu können.
Weitere Dienste die Cloud Nativ angeboten werden sollen bisherige selbst gepflegte Bereiche ersetzen (Mail, OpenID, RDS)
Für eine API zum rendern von Bildern sollte diese skalierbar in einem Azure Kubernets Cluster betriebn werden.
Dazu wurde über Bitbucket eine Pipeline erstellt die alle relevanten Azure Dienste, AKS, Subscriptions, DNS Zones automatisiert erstellt.
Die Software selbst wurde in Docker image migriert um sie als Microservice in diesem Cluster verteilt und skallierbar zu betreiben.
Evaluiert wurde ebenfalls Apache Kafka und AWS Kinesis welche jedoch nicht zum Einsatz gekommen sind.
Migriert wurde eine in Java geschriebene Applikation welche sich in Backend und Fronted unterteilt. Weiter Dienste und APIs die für den Betrieb notwendig sind wurden ebenfalls transformiert.
In den Bereichen DNS, SSL Zertifiakte, Loadbalancing, API Gateways, SFTP, Kubernetes, Datenbank wurden die Dienste Route53, Certificate Manager, ALB, API Gateway, Transfer SFTP, EKS, RDS verwendet um das Management der Basisinfrastruktur zu minimieren.
Als Projektmanagement Software wurde JIRA verwendet um mit der Integration in Bitbucket die Versionierung des Codes einfach zu gestallten.
Mit Bitbucket Pipelines wurde die gesamte Erstellung der Infrastruktur in AWS mittels Cloudformation Templates realisiert.
Alle Dienste wie ALB Ingress Controller, die Java Microservices, APIs als Microservices etc. wurden ebenfalls über die Pipelens in Bitbucket umgesetzt.
Administration Linux, Virtualisierungsserver, Baresos Backup Migration und Konfiguration, Netzwerkadministrationssupport
Bereitstellung eines auf Docker basierenden Stacks mit Nginx und OpenResty und Lua Erweiterung für OpenIDC als Proxy Lösung für die Authentifizierung unterschiedlicher Appliaktionen.
Im Zuge einer Evaluierung sollte ein Testsystem für die Apache Superset Business Intelligence Web Application geschaffen werden.
Für die Schulung von Studenten wurde eine Infrastruktur in China in der Alibaba Cloud geschaffen um die Inhalte möglichst auf Kurzem Wege übertragen zu können.
Die ausliefernde Infrastruktur wurde in Beijing bereitgestellt.
Da sich die Entwicklung in Europa befindet wurde über einen Continuouse Integration, Deploy und Delivery Prozess immer die aktuellste stabile Version der Applikation und die benötigten Datenbankinhalte bereitgestellt.
Migration eines ESXi Clusters auf Proxmox.
Migriert wird eine in Ruby geschriebene Appliaktion mit Anbindung an das Fiona CMS von Infpoark.
Die zu verwendenden AWS Produkte und deren Integration wurden als Sollzustand konzipiert.
Die transformation wurde über zwei Möglichkeiten Konzipiert.
Einmal in einem BigBang Konzept das vorsah alles in wenigen Stunden zu migrieren.
Einmal als fließender Übergang durch die Einbindung von AWS Diensten schritt für Schritt ohne Beeinträchtigung der Benutzer
Umstellung eines ESXi Cluster mit Sansynphonie auf OpenSource.
Bereitstellung SCSI Target. Proxmox Cluster. ISCSi SAN Setup.
Die bisherige Entwicklung wurde im klassischen Stil auf virtuellen Servern durchgeführt.
Diese wurde auf Docker umgestellt um die Entwicklung auf dem Desktop der Entwickler zu ermöglichen. Auch die Bereitstellung der Integrations- und Testumgebung sowie die Produktion wurde auf Docker umgestellt.
Auf basis von RStudio wurden Shiny Applikationen entwickelt die für Professoren und Studenten den Einstig in die Statistik ermöglicht.
Die Infrastruktur wurde über IaaS bei Profitbricks bereitgestellt.
Einführung der Backup Software Bareos. Analyse der RPO/RTO Anforderungen des Kunden. Analyse der zu sichernden Dienste.
Analyse der verteilten Cloud Infrastruktur. Erstellung eines Datensicherungskonzepts. Umsetzung des Konzeptes.
Datensicherung auf ZFS Basis. Archiv Einführung.
Durch die Migration des Fiona CMS im IT-Umfeld einer Förderbank waren einige an das System Datenliefernde und Datennutzende Prozesse zu beachten.
Die technischen Einzelschritte wurden vorgegeben und die Ausführung durch die Techniker überwacht. Um eine reibungslose Umstellung gewährleisten wurden die Daten vorab in ein neues System Migriert und nach Abschluss der Qualitätssicherung ein Termin zur Migration festgelegt.
Währen der Testphase und der Stichtagesmigration stellte ich den 3rd-Level-Support für die Techniker um Detailprobleme zu klären.
Die Durchführung wurde von den Techniker über einen Remote-Zugriff mittels Citrix bewerkstelligt.
Nach dem Abschluss der Migration wurden alle notwendigen Prozesse ausführlichst getestet. Nach einem gewissen Quarantäne-Zeitraum hat man die alte Infrastruktur (in Form von virtuellen Server) zurück gebaut.
Ausarbeitung des Konzepts für das System welches in einem entfernten Rechenzentrum steht aber dennoch in die lokale beim Kunden vorhandene Infrastruktur integriert,Übergabe und Kontrolle zur Installation an den zuständigen Administrator,
Installiert und Konfiguriert wurden Apache, MySQL, PHP, Samba, AdobeDPS inkl. SSL nach Vorgabe der Projektleitung,
Integration in das LDAP und Backup des Kunden, Dokumentationsprüfung, QS, Übergabe an den Kunden und die Entwicklung.
Ich helfe software-entwickelnden Unternehmen bei der Transformation und Betrieb ihrer Softwarelösungen in der Cloud. Von lift & shift bis Serverless.
Softwareentwicklung, Medien, Industrie u. Wirtschaft, Banken, Öffentlicher Dienst, Handwerk, Computer EDV und Telekommunikation, Gesundheitswesen,
Unser Kunde hatte den Bedarf seine in Kubernetes Betriebene Shopping-Plattform im Bereich der Compliance weiter zu entwickeln.
Durch erhöhte Anforderungen wurden Teile der Infrastruktur ersetzt oder ergänzt um technisch diesen gerecht zu werden.
Dazu wurde die CI/CD Pipeline erweitert um die verwendeten Komponenten automatisiert zu erstellen und im Betrieb zu warten.
Neben der Erweiterung der Loadbalancer Infrastruktur um den TLS Sicherheitsanforderungen nachzukommen wurde die Infrastruktur für die Anbinung an ein externes vom Endkunden gestelltes Authentifizierungssystem geschaffen.
Alle neuen Komponenten wurden durch den Betrieb als Container ebenfalls im Kubernetes Cluster ausgerollt.
Für regulierte Märkt der Pharma Branche wie Optik und Produktion wird eine alte monolithische Anwendung in eine Microservice Architektur überführt.
Für den Einsatz in Produktionsstandorten Weltweit soll als Basis Kubernetes dienen.
Der Kunde, dessen Softwareentwickler, DevOps Engineers und Architekten wurden im Bereich des On-Premises Deployment Beraten.
PoCs und MVPs im Bereich Infrastructure as Code (IaC) mittels Terraform zum Deployment in der Azure Cloud wurden beratend begleitet.
On-Premises Strategien wurden erarbeitet.
Auf Kubernetes Basis wurden Deployment und Delivery Strategien evaluiert und getestet.
Die Infrastrukturen der Endkunden werden in Azure, AWS, On-Premises oder Hybrid aufgebaut.
Weiterentwicklung einer auf AWS basierender Platform für ca. 20 Produkte und Entwicklungsteams.
Infrastructure as Code mittels Terraform. GitHub Action CI/CD Pipelines. Kubernetes
Ein über Jahre gewachsener Terraform IaC soll durch ein Überarbeiten die Team-Autonomie und Wiederverwendbarkeit steigern.
Der Code befindet sich aktuell in einer Iteration der Verbesserung welche noch nicht abgeschlossen wurde.
Da diese Iteration auch schon vor über einem Jahr begonnen wurde entschlossen zu analysieren ob es nicht einen größeren Mehrwert böte sofort auf einen neuen Zielstand zu gehen um mehrfaches Refactoring zu vermeiden.
Der Terraform Code über 40.000 Zeilen verwaltet die gesamte Infrastruktur in AWS, Azure und On-Premises.
Neben Kubernetes Cluster werden Datenbanken, Loadbalancer, VPC, EC2, Security Groups, Zertifikate, Route53 und andere Services im GitOps Stil verwaltet.
Neben der Komplexität ist die laufenden Migration der CI/CD Umgebung mit zu beachten, da die Pipelines des Codes ebenfalls dort hin migriert werden sollen.
Auch der Weg hin zu Zero Trust ist neben der Aufteilung der Bereiche Enterprise IT und DevSecOps zu beachten um die Prozesse der shared responsibility zu unterstützen.
Durch einen modularen Aufbau soll der Code direkt von den Dev-Teams verwendet werden können. Aktuelle Code Duplizierung sind zu beheben und im Self-Service Gedanken als Plattform Basis Code bereitzustellen.
Da der Code aktiv durch den GitOps Ansatz verwendet wird ist ein Weg zu skizzieren wie Resourcen der alten Welt in die neue Welt übertragen werden können ohne die Teams in der täglichen Arbeit zu behindern.
In einen hochregulierten Markt der Pharma Branche wird eine alte monolithische Anwendung in eine Microservice Architektur überführt.
Für den Einsatz in Produktionsstandorten Weltweit soll als Basis Kubernetes dienen.
Der Kunde, dessen Softwareentwickler, DevOps Engineers und Architekten wurden im Bereich des On-Premises Deployment Beraten.
PoCs und MVPs im Bereich Infrastructure as Code (IaC) mittels Terraform zum Deployment in der Azure Cloud oder auf VMware wurden beratend begleitet.
Auf Kubernetes Basis wurden Deployment und Delivery Strategien evaluiert und getestet.
Kollegen aus Indien wurden geschult um technische Aufgaben zu übernehmen.
Beginnend mit einer Ist-Analyse zum Stand der Entwicklung wurde aus diesen Ergebnissen ein Konzpet zum Betrieb erstellt.
In der Analyse wurden die alternativen On-Premises Kubernetes mit Nutanix, AWS Cloud und Open Telekom Cloud (OTC) bewertet.
Auf Grund der DSGVO Anforderungen im Gesundheitsdatenbereich wurde der Betrieb in der Open Telekom Cloud gewählt.
Mittels Terraform für die Infrastructure as Code (Iac) und GitLab für die Continuous Integration und Delivery Pipeline wurde die Umgebung bereitgestellt.
Neben dem Systemintegrations- und User Acceptance Test Umgebung wurde für den Vertrieb eine Möglichkeit geschaffen unabhängig vom DevOps Team Demo-Instanzen in wenigen Minuten selbst zu erstellen.
Da auch der Betrieb von GitLab selbst gestellt werden soll wurde mit GitLab Enterprise ebenfalls in der Open Telekom Cloud die Infrastruktur dazu bereitgestellt.
In der Zusammenarbeit mit den internen Mitarbeitern im Bereich der Entwicklung und Operations konnte der grundlegende Kontext geschult und übertragen werden.
Im Rahmen eines PoC sollte eine Infrastruktur für die Migration On Premises auf AWS aufgebaut werden.
Zu migrieren war eine Oracle 12 auf Oracle 19, die Datenreplikation über Tungsten auf MySQL und die dazu gehörigen Anwendungen auf Java Basis von virtuellen Maschienen in Kubernetes laufende Container.
Bereitgestellt wurden alle notwendigen AWS Dienste mittels Terraform als Infastructure as Code. Für die Migration und anbindung der On Premises Infrastruktur wurden Site-to-Site IPSEC Verbindungen geschaffen sowie Client-VPNs zur Anbindung externen.
Neben VPC, EKS, EC2, S3, RDS Oracle/MySQL wurden weitere notwendige Dienste zu Gesamtlauffähigkeit provisioniert.
In einem Kanban Team wurden die Anwendungen installiert und die Migration erprobt.
Für die Umsetzung auf der Seite der Entwickler waren Unterstützung im Bereich Containerisierung und Deployment im EKS inkl. Wissenstransfer gefragt.
Im Rahmen einer Schulung über 4 Tage wurde einige Wochen zuvor eine Analyse des DevOps Adaptionsstandes durchgeführt.
Aus der Ergebnissen der Analyse und den Antworten der Umfragen wurde der Inhalt der Schulung auf den Stand des Unternehmens aufbereitet.
Beginnend mit eine Einführung in das Thema DevOps wurde anschließend in gemeinsamer Analyse erarbeitet wo im Unternehmen mit den ersten kleinen Schritten sichtbare Ergebnisse erzeugt werden können.
Im Detail wurde eine Roadmap erstellt für die nächsten Aufgaben. Die einzelnen Aufgaben wurden in Stories beschrieben und von den am besten geeigneten Personen Übernommen um die Umsetzung voran zu treiben.
Im Nachgang an die Schulung wurde regelmäßig der Fortschritt begleitet
In einer 5 Tägigen Schulung wurden anhand eines vom Kunden verwendeten Software-Produkts der Aufbau einer CI/CD Pipeline beschult.
Als basis Dienten Infrastructure as Code (IaC) mit Terraform.
Bitbucket Pipeline für die Automatisierung. Docker als Container betrieben in einem Azure Kubernetes Cluster.
Durch den Aufbau der Schulung mit diesen technischen Komponenten war es jedem Teilnehmer möglich alle schritte auf seinem System und in Verbindung mit Bitbucket und Azure Kubernetes selbst durchzuführen.
So konnten im Hands-On Verfahren die Entwickler praktische Erfahrung sammeln um diese in ihren Projekten weiter zu verwenden.
Analyse der bisher verwendeten Prozesse für den Test der Software.
Analyse der Continuous Integration Prozesse.
Analyse der Continuous Deployment Prozesse.
Analyse der Delivery Prozesse.
Unterstützung bei der Integration, der Deployments und Delivery auf Baremetal und Amazon Webservcies.
Beratung und Konzeption zur Verbesserung der CI/CD Pipelines
Dokumentation und Schulung
Aufgabe war eine Java Spring Boot Applikation welche unterschiedliche APIs zur Bereitstellung von digitalen Inhalten verwendet in AWS auszurollen.
Die Applikation sollte von einer Flat VM als PoC in 3 Docker Container überführt und damit der Betrieb in Container bewiesen werden. Dies geland erfolgreich in wenigen Stunden.
Der MVP für den Vertrieb wurde dann mit der Anforderung in wenigen Stunden für Neukundenanfragen eine eigene Testumgebung bereitzustellen in AWS gelöst.
Ziel war die Überprüfung einer SaaS Plattform nach Compliance und GDPR Vorgaben des Kunden.
Bewertung der Prozesse, notwendige Anpassungen und Steuerung der Durchführung von Verbesserungen.
Konzeptionelle Entwicklung für höhere RPO und RTO im Bereich Desaster Recovery.
Administration Linux, Virtualisierungsserver, Baresos Backup Migration und Konfiguration, Netzwerkadministrationssupport
Migriert wird eine Infrastruktur bestehend aus VMs welche bei einem IaaS Anbieter aufgebaut wurde.
Der Kunde stellt ein Portal zu einem Cluster bereit der es ermöglicht statistische Berechnungen auf dem bereitgestellten Datenbestand durchzuführen.
Bisher wurden alle benötigten Dienste in VMs installiert welche nun in eine Microservice Architektur überführt werden sollen.
Ziel ist es die Kernapplikation in einer Container Microservice Infrastruktur in Kubernetes Cloud anbieter übergreifend betreiben zu können.
Weitere Dienste die Cloud Nativ angeboten werden sollen bisherige selbst gepflegte Bereiche ersetzen (Mail, OpenID, RDS)
Für eine API zum rendern von Bildern sollte diese skalierbar in einem Azure Kubernets Cluster betriebn werden.
Dazu wurde über Bitbucket eine Pipeline erstellt die alle relevanten Azure Dienste, AKS, Subscriptions, DNS Zones automatisiert erstellt.
Die Software selbst wurde in Docker image migriert um sie als Microservice in diesem Cluster verteilt und skallierbar zu betreiben.
Evaluiert wurde ebenfalls Apache Kafka und AWS Kinesis welche jedoch nicht zum Einsatz gekommen sind.
Migriert wurde eine in Java geschriebene Applikation welche sich in Backend und Fronted unterteilt. Weiter Dienste und APIs die für den Betrieb notwendig sind wurden ebenfalls transformiert.
In den Bereichen DNS, SSL Zertifiakte, Loadbalancing, API Gateways, SFTP, Kubernetes, Datenbank wurden die Dienste Route53, Certificate Manager, ALB, API Gateway, Transfer SFTP, EKS, RDS verwendet um das Management der Basisinfrastruktur zu minimieren.
Als Projektmanagement Software wurde JIRA verwendet um mit der Integration in Bitbucket die Versionierung des Codes einfach zu gestallten.
Mit Bitbucket Pipelines wurde die gesamte Erstellung der Infrastruktur in AWS mittels Cloudformation Templates realisiert.
Alle Dienste wie ALB Ingress Controller, die Java Microservices, APIs als Microservices etc. wurden ebenfalls über die Pipelens in Bitbucket umgesetzt.
Administration Linux, Virtualisierungsserver, Baresos Backup Migration und Konfiguration, Netzwerkadministrationssupport
Bereitstellung eines auf Docker basierenden Stacks mit Nginx und OpenResty und Lua Erweiterung für OpenIDC als Proxy Lösung für die Authentifizierung unterschiedlicher Appliaktionen.
Im Zuge einer Evaluierung sollte ein Testsystem für die Apache Superset Business Intelligence Web Application geschaffen werden.
Für die Schulung von Studenten wurde eine Infrastruktur in China in der Alibaba Cloud geschaffen um die Inhalte möglichst auf Kurzem Wege übertragen zu können.
Die ausliefernde Infrastruktur wurde in Beijing bereitgestellt.
Da sich die Entwicklung in Europa befindet wurde über einen Continuouse Integration, Deploy und Delivery Prozess immer die aktuellste stabile Version der Applikation und die benötigten Datenbankinhalte bereitgestellt.
Migration eines ESXi Clusters auf Proxmox.
Migriert wird eine in Ruby geschriebene Appliaktion mit Anbindung an das Fiona CMS von Infpoark.
Die zu verwendenden AWS Produkte und deren Integration wurden als Sollzustand konzipiert.
Die transformation wurde über zwei Möglichkeiten Konzipiert.
Einmal in einem BigBang Konzept das vorsah alles in wenigen Stunden zu migrieren.
Einmal als fließender Übergang durch die Einbindung von AWS Diensten schritt für Schritt ohne Beeinträchtigung der Benutzer
Umstellung eines ESXi Cluster mit Sansynphonie auf OpenSource.
Bereitstellung SCSI Target. Proxmox Cluster. ISCSi SAN Setup.
Die bisherige Entwicklung wurde im klassischen Stil auf virtuellen Servern durchgeführt.
Diese wurde auf Docker umgestellt um die Entwicklung auf dem Desktop der Entwickler zu ermöglichen. Auch die Bereitstellung der Integrations- und Testumgebung sowie die Produktion wurde auf Docker umgestellt.
Auf basis von RStudio wurden Shiny Applikationen entwickelt die für Professoren und Studenten den Einstig in die Statistik ermöglicht.
Die Infrastruktur wurde über IaaS bei Profitbricks bereitgestellt.
Einführung der Backup Software Bareos. Analyse der RPO/RTO Anforderungen des Kunden. Analyse der zu sichernden Dienste.
Analyse der verteilten Cloud Infrastruktur. Erstellung eines Datensicherungskonzepts. Umsetzung des Konzeptes.
Datensicherung auf ZFS Basis. Archiv Einführung.
Durch die Migration des Fiona CMS im IT-Umfeld einer Förderbank waren einige an das System Datenliefernde und Datennutzende Prozesse zu beachten.
Die technischen Einzelschritte wurden vorgegeben und die Ausführung durch die Techniker überwacht. Um eine reibungslose Umstellung gewährleisten wurden die Daten vorab in ein neues System Migriert und nach Abschluss der Qualitätssicherung ein Termin zur Migration festgelegt.
Währen der Testphase und der Stichtagesmigration stellte ich den 3rd-Level-Support für die Techniker um Detailprobleme zu klären.
Die Durchführung wurde von den Techniker über einen Remote-Zugriff mittels Citrix bewerkstelligt.
Nach dem Abschluss der Migration wurden alle notwendigen Prozesse ausführlichst getestet. Nach einem gewissen Quarantäne-Zeitraum hat man die alte Infrastruktur (in Form von virtuellen Server) zurück gebaut.
Ausarbeitung des Konzepts für das System welches in einem entfernten Rechenzentrum steht aber dennoch in die lokale beim Kunden vorhandene Infrastruktur integriert,Übergabe und Kontrolle zur Installation an den zuständigen Administrator,
Installiert und Konfiguriert wurden Apache, MySQL, PHP, Samba, AdobeDPS inkl. SSL nach Vorgabe der Projektleitung,
Integration in das LDAP und Backup des Kunden, Dokumentationsprüfung, QS, Übergabe an den Kunden und die Entwicklung.
Ich helfe software-entwickelnden Unternehmen bei der Transformation und Betrieb ihrer Softwarelösungen in der Cloud. Von lift & shift bis Serverless.
Softwareentwicklung, Medien, Industrie u. Wirtschaft, Banken, Öffentlicher Dienst, Handwerk, Computer EDV und Telekommunikation, Gesundheitswesen,