Datenbank Modellierung/Implementierung; Data Warehouse; T-SQL; .Net Entwicklung; REST-API; nodeJS
Aktualisiert am 10.07.2024
Profil
Freiberufler / Selbstständiger
Remote-Arbeit
Verfügbar ab: 10.07.2024
Verfügbar zu: 100%
davon vor Ort: 20%
MS SQL Server
Datawarehouse
.NET Framework
Node.js
REST
ETL
PowerShell
Scriptsprachen
T-SQL
Automatisierung
Migration
Deutsch
Muttersprache
Englisch
fließend (Wort und Schrift)

Einsatzorte

Einsatzorte

Deutschland, Schweiz
möglich

Projekte

Projekte

4 Jahre 1 Monat
2020-01 - 2024-01

Aufbau Data Warehouse

T-SQL JavaScript .NET Framework ...

  • Konzept, Design und Implementierung des Data Warehouse zur zentralen
  • Lagebeurteilung aller in Deutschland an die digitale Infrastruktur des
  • Gesundheitswesens (TI: Telematik Infrastruktur) angeschlossenen Systeme
  • inkl. SLA-Berechnung und Reporting
  • inkl. Kontrolle Grenzwerteinhaltung mit Alerting und Notification
  • inkl. KPI-Auswertung


Projektziel:

  • Aufbau eines zentralen Data Warehouse zur zentralen Lagebeurteilung aller in Deutschland an die digitale Infrastruktur des Gesundheitswesens (TI: Telematik Infrastruktur) angeschlossenen Systeme


Ausführung:

  • Alle technischen Aspekte von der Architektur über Entwicklung des Datenmodells bis hin zur Implementierung sämtlicher Komponenten inkl. ETL-Strecke und Inbetriebnahme des Systems oblagen mir in der Rolle des Data Engineers. 


Ergebnis

  • Das Data Warehouse der gematik ermöglicht eine 24/7 aktuelle Lagebeurteilung aller angeschlossenen Systeme. Es spielt mittlerweile die zentrale Rolle im Service Delivery Management.
  • Das aktuelle Lagebild der Infrastruktur im deutschen Gesundheitswesen wird z.B. hier publiziert: HML auf Anfrage
  • Automatisch generierte Alarme informieren über verschiedene Kanäle bei konfigurierbaren Abweichungen von definierten Zuständen. In einem Service-Graph sind Abhängigkeiten zwischen einzelnen Anwendungen und Diensten gewichtet vollständig hinterlegt. Bei Ausfall einzelner System oder Anwendungen werden die von dem gestörten System abhängigen Systeme identifiziert und der Grad der Auswirkung an jedem betroffenen System berechnet. Dedizierte Störungsmeldungen werden generiert. Die Definition von KPI?s ist in der Datenbank konfigurierbar hinterlegt. Die Werte werden aus den Daten berechnet und online oder in Excel-Reports berichtet. Die Einhaltung von SLA?s wird mit den Daten analysiert und ggf. SLA-Verletzungen berichtet.


Projektverlauf:

  • Nach bereits einem halben Jahr stand das Kerngerüst der Lösung. Wesentliche ETL-Strecken waren einsatzbereit. Im Ergebnis konnten bestehende externe Beauftragungen zur Vorverarbeitung zugelieferter Daten beendet werden. 
  • Mit zunehmender Reife stiegen die Anforderungen. Aufgrund der präzisen Ergebnisse, die das System lieferte, und wegen deren Relevanz für Management und Betrieb wurde dem System nach 18 Monaten Management Attention zuteil. Es spielte nun die zentrale Rolle in der Beurteilung des Gesamtsystemzustandes. 
  • Die steigenden Anforderungen erforderten den Einsatz weiterer Technologien. Die Import-Tasks wurden zu Windows-Services konsolidiert. Die Datenbank kommunizierte über SQL-CLRs (spezifische, programmierte Erweiterungen des SQL-Servers) mit externen Systemen. Die komplexe Berechnung der SLAs wurde konfigurierbar gestaltet, so dass trotz zunehmender Komplexität Berechnungen konfigurierbar bleiben. Das System zur Alarmierung erhielt eine hochflexible, konfigurierbare Engine, die auch auf Abweichungen von zuvor generierten Forecasts reagieren konnte. 
  • Nach ca. 2,5 Jahren war das System in Umfang und Relevanz so gewachsen, dass eine Verstärkung des Personals erforderlich wurde. 
  • Der unerwartete Zuwachs an Datenvolumen und die beständige Erweiterung der Anzahl der Datenzulieferer stellten das System bezüglich Skalierbarkeit auf die Probe. Es zeigte sich, dass es auch in der Lage war, Datenmengen zu verarbeiten, die das zehn- und mehrfach des erwarteten Volumens verarbeiten konnten.


Wesentliche Kenngrößen

  • MS SQL Datenbank mit 35 Mrd Records
  • täglich werden 80+ Mio neue Dateien importiert
  • Business Logik komplett in T-SQL (Stored Procedures, Functions)

MS SQL Server Node.js .NET Framework PowerShell
T-SQL JavaScript .NET Framework ETL-Strecke als Windows-Services REST-API in node.JS zusätzliche Tools in .Net (Windows-Forms) und z.T. PowerShell
Data Warehouse der gematik GmbH
Berlin

Aus- und Weiterbildung

Aus- und Weiterbildung

1 Monat
2016-11 - 2016-11

SCRUM Master

Professional Scrum Master I, scrum.org
Professional Scrum Master I
scrum.org
1 Monat
2008-07 - 2008-07

ITIL v3

ITILv3 Foundation Examination,
ITILv3 Foundation Examination
4 Jahre 9 Monate
1991-01 - 1995-09

Informatik Studium

Diplom-Informatiker, Master, TU Berlin
Diplom-Informatiker, Master
TU Berlin
  • Softwareentwicklung

Position

Position

  • Geschäftsführer des Einzelunternehmens Glentana Informatik GmbH

Kompetenzen

Kompetenzen

Top-Skills

MS SQL Server Datawarehouse .NET Framework Node.js REST ETL PowerShell Scriptsprachen T-SQL Automatisierung Migration

Schwerpunkte

Datenbanken
Experte
Backend-Entwicklung
Experte
Datenmodellierung
Experte
.Net Entwicklung
Fortgeschritten

  • Datenbanken
  • REST-API
  • Backend-Entwicklung
  • Automatisierung


Fachliche Schwerpunkte

  • Relationale Datenbanken
    • Modellierung, Design, Implementierung, Optimierung
    • SQL-Server, Data Warehouse
    • Stored Procedures (T-SQL)
    • ETL-Entwicklung (Extract-Transform-Load)
  • Schnittstellen Design, Implementierung
    • REST-API / JSON
    • Node.JS / JavaScript
    • IAM-Entwicklung (Identity Access Management)
    • User Account Management
  • Automatisierung von Prozessen,
    • Applikationsintegration
    • .Net Programmierung
    • XML/SOAP/XSD
    • Azure
    • Active Directory ? Interface Programmierung / Dump / Sync
    • Scripting
    • ??Excel-Programmierung (MS-Office, VBA)


Nichtfachliche Schwerpunkte

  • Ausgeprägte kommunikative Fähigkeiten
  • Strukturiertes, analytisches Denken, Kreativität in der Lösungssuche
  • Ausgeprägter Schreibstil (Veröffentlichungen in Zeitungen und Zeitschriften)
  • Teamarbeit und Teamleitung

Produkte / Standards / Erfahrungen / Methoden

Personalverantwortung

  • 2001-2015: (Name auf Anfrage) mit bis zu vier fest angestellten Mitarbeitern


Konzernerfahrung

  • Fast ausschließlich für internationale Konzern, regierungsnahe Unternehmen und Behörden tätig (KPMG Deutschland, gematik GmbH, Adecco)


Internationale Erfahrung

  • Drei Jahre gelebt und gearbeitet in Südafrika


Weitere IT-ferne Qualifikationen

  • Freiberuflich tätig als Journalist für die Badische Zeitung (lokale Berichterstattung)


Technologiekenntnisse (Auszug Expertenwissen, fortgeschrittene Kenntnisse)

  • Kernkompetenz: MS SQL Server, Schwerpunkt T-SQL
  • Erweitere SQL-Skills: SQL Service Broker, Graph Architecture, SQL-CLR
  • .Net Framework
  • Node.JS
  • REST-API (JSON)
  • ETL-Prozesse: JSON, XML, SOAP, CSV, ?
  • OAuth ? Authentication
  • Regular Expressions, Perl, Power Shell

Einsatzorte

Einsatzorte

Deutschland, Schweiz
möglich

Projekte

Projekte

4 Jahre 1 Monat
2020-01 - 2024-01

Aufbau Data Warehouse

T-SQL JavaScript .NET Framework ...

  • Konzept, Design und Implementierung des Data Warehouse zur zentralen
  • Lagebeurteilung aller in Deutschland an die digitale Infrastruktur des
  • Gesundheitswesens (TI: Telematik Infrastruktur) angeschlossenen Systeme
  • inkl. SLA-Berechnung und Reporting
  • inkl. Kontrolle Grenzwerteinhaltung mit Alerting und Notification
  • inkl. KPI-Auswertung


Projektziel:

  • Aufbau eines zentralen Data Warehouse zur zentralen Lagebeurteilung aller in Deutschland an die digitale Infrastruktur des Gesundheitswesens (TI: Telematik Infrastruktur) angeschlossenen Systeme


Ausführung:

  • Alle technischen Aspekte von der Architektur über Entwicklung des Datenmodells bis hin zur Implementierung sämtlicher Komponenten inkl. ETL-Strecke und Inbetriebnahme des Systems oblagen mir in der Rolle des Data Engineers. 


Ergebnis

  • Das Data Warehouse der gematik ermöglicht eine 24/7 aktuelle Lagebeurteilung aller angeschlossenen Systeme. Es spielt mittlerweile die zentrale Rolle im Service Delivery Management.
  • Das aktuelle Lagebild der Infrastruktur im deutschen Gesundheitswesen wird z.B. hier publiziert: HML auf Anfrage
  • Automatisch generierte Alarme informieren über verschiedene Kanäle bei konfigurierbaren Abweichungen von definierten Zuständen. In einem Service-Graph sind Abhängigkeiten zwischen einzelnen Anwendungen und Diensten gewichtet vollständig hinterlegt. Bei Ausfall einzelner System oder Anwendungen werden die von dem gestörten System abhängigen Systeme identifiziert und der Grad der Auswirkung an jedem betroffenen System berechnet. Dedizierte Störungsmeldungen werden generiert. Die Definition von KPI?s ist in der Datenbank konfigurierbar hinterlegt. Die Werte werden aus den Daten berechnet und online oder in Excel-Reports berichtet. Die Einhaltung von SLA?s wird mit den Daten analysiert und ggf. SLA-Verletzungen berichtet.


Projektverlauf:

  • Nach bereits einem halben Jahr stand das Kerngerüst der Lösung. Wesentliche ETL-Strecken waren einsatzbereit. Im Ergebnis konnten bestehende externe Beauftragungen zur Vorverarbeitung zugelieferter Daten beendet werden. 
  • Mit zunehmender Reife stiegen die Anforderungen. Aufgrund der präzisen Ergebnisse, die das System lieferte, und wegen deren Relevanz für Management und Betrieb wurde dem System nach 18 Monaten Management Attention zuteil. Es spielte nun die zentrale Rolle in der Beurteilung des Gesamtsystemzustandes. 
  • Die steigenden Anforderungen erforderten den Einsatz weiterer Technologien. Die Import-Tasks wurden zu Windows-Services konsolidiert. Die Datenbank kommunizierte über SQL-CLRs (spezifische, programmierte Erweiterungen des SQL-Servers) mit externen Systemen. Die komplexe Berechnung der SLAs wurde konfigurierbar gestaltet, so dass trotz zunehmender Komplexität Berechnungen konfigurierbar bleiben. Das System zur Alarmierung erhielt eine hochflexible, konfigurierbare Engine, die auch auf Abweichungen von zuvor generierten Forecasts reagieren konnte. 
  • Nach ca. 2,5 Jahren war das System in Umfang und Relevanz so gewachsen, dass eine Verstärkung des Personals erforderlich wurde. 
  • Der unerwartete Zuwachs an Datenvolumen und die beständige Erweiterung der Anzahl der Datenzulieferer stellten das System bezüglich Skalierbarkeit auf die Probe. Es zeigte sich, dass es auch in der Lage war, Datenmengen zu verarbeiten, die das zehn- und mehrfach des erwarteten Volumens verarbeiten konnten.


Wesentliche Kenngrößen

  • MS SQL Datenbank mit 35 Mrd Records
  • täglich werden 80+ Mio neue Dateien importiert
  • Business Logik komplett in T-SQL (Stored Procedures, Functions)

MS SQL Server Node.js .NET Framework PowerShell
T-SQL JavaScript .NET Framework ETL-Strecke als Windows-Services REST-API in node.JS zusätzliche Tools in .Net (Windows-Forms) und z.T. PowerShell
Data Warehouse der gematik GmbH
Berlin

Aus- und Weiterbildung

Aus- und Weiterbildung

1 Monat
2016-11 - 2016-11

SCRUM Master

Professional Scrum Master I, scrum.org
Professional Scrum Master I
scrum.org
1 Monat
2008-07 - 2008-07

ITIL v3

ITILv3 Foundation Examination,
ITILv3 Foundation Examination
4 Jahre 9 Monate
1991-01 - 1995-09

Informatik Studium

Diplom-Informatiker, Master, TU Berlin
Diplom-Informatiker, Master
TU Berlin
  • Softwareentwicklung

Position

Position

  • Geschäftsführer des Einzelunternehmens Glentana Informatik GmbH

Kompetenzen

Kompetenzen

Top-Skills

MS SQL Server Datawarehouse .NET Framework Node.js REST ETL PowerShell Scriptsprachen T-SQL Automatisierung Migration

Schwerpunkte

Datenbanken
Experte
Backend-Entwicklung
Experte
Datenmodellierung
Experte
.Net Entwicklung
Fortgeschritten

  • Datenbanken
  • REST-API
  • Backend-Entwicklung
  • Automatisierung


Fachliche Schwerpunkte

  • Relationale Datenbanken
    • Modellierung, Design, Implementierung, Optimierung
    • SQL-Server, Data Warehouse
    • Stored Procedures (T-SQL)
    • ETL-Entwicklung (Extract-Transform-Load)
  • Schnittstellen Design, Implementierung
    • REST-API / JSON
    • Node.JS / JavaScript
    • IAM-Entwicklung (Identity Access Management)
    • User Account Management
  • Automatisierung von Prozessen,
    • Applikationsintegration
    • .Net Programmierung
    • XML/SOAP/XSD
    • Azure
    • Active Directory ? Interface Programmierung / Dump / Sync
    • Scripting
    • ??Excel-Programmierung (MS-Office, VBA)


Nichtfachliche Schwerpunkte

  • Ausgeprägte kommunikative Fähigkeiten
  • Strukturiertes, analytisches Denken, Kreativität in der Lösungssuche
  • Ausgeprägter Schreibstil (Veröffentlichungen in Zeitungen und Zeitschriften)
  • Teamarbeit und Teamleitung

Produkte / Standards / Erfahrungen / Methoden

Personalverantwortung

  • 2001-2015: (Name auf Anfrage) mit bis zu vier fest angestellten Mitarbeitern


Konzernerfahrung

  • Fast ausschließlich für internationale Konzern, regierungsnahe Unternehmen und Behörden tätig (KPMG Deutschland, gematik GmbH, Adecco)


Internationale Erfahrung

  • Drei Jahre gelebt und gearbeitet in Südafrika


Weitere IT-ferne Qualifikationen

  • Freiberuflich tätig als Journalist für die Badische Zeitung (lokale Berichterstattung)


Technologiekenntnisse (Auszug Expertenwissen, fortgeschrittene Kenntnisse)

  • Kernkompetenz: MS SQL Server, Schwerpunkt T-SQL
  • Erweitere SQL-Skills: SQL Service Broker, Graph Architecture, SQL-CLR
  • .Net Framework
  • Node.JS
  • REST-API (JSON)
  • ETL-Prozesse: JSON, XML, SOAP, CSV, ?
  • OAuth ? Authentication
  • Regular Expressions, Perl, Power Shell

Vertrauen Sie auf Randstad

Im Bereich Freelancing
Im Bereich Arbeitnehmerüberlassung / Personalvermittlung

Fragen?

Rufen Sie uns an +49 89 500316-300 oder schreiben Sie uns:

Das Freelancer-Portal

Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.