Teilnahme an Aufgaben im Zusammenhang mit der Verbesserung des internen Enterprise Data Warehouse von Scalefree und Teilnahme an beruflichen Weiterbildungskursen.
Erfolgreiche Zertifizierung als Data Vault 2.0 Practitioner
Studium und Anwendung der DV2.0-Praxis im internen Enterprise Data Warehouse
Aufbau des Data Warehouses mit dem Data Vault 2.0 Ansatz:
Erfassung der Anforderungen der Business Users zur Gestaltung und Modellierung des Datenmodells.
Modellierung und Entwicklung von RDV- und BDV-Objekten aus verschiedenen Quellsystemen, basierend auf den Business Anforderungen.
Automatisierung des RDV-Deployments mit Informatica und Metakraftwerk.
Bereinigung, Ersetzung und Bearbeitung von RDV-Geschäftsobjekten, einschließlich der Erkennung und Bearbeitung von Abhängigkeiten.
Automatisierung und Standardisierung der Testphase.
Verwaltung der Prozesssteuerung durch Erstellung von Gruppen, Prozessen und Gruppenabhängigkeiten.
Einplanung und Aufhebung der Einplanung von Workflows in Job Control.
Fehlerbehebung in den ETL-Prozessen.
Unterstützung bei der Entwicklung von Information Marts.
Fehlerdiagnose, Fehlerbehebung und Fehleranalyse.
Entwicklung von Dashboards in Power BI für Entscheidungsfindung
Erstellung von Reports in Power BI durch SQL-Tabellen mit Power Query
Entwurf von Datenbankschemata in Power BI, die für die Berichterstellung verwendet werden
Troubleshooting und Verbesserung von bestehend Dashboards und Daten
Überprüfung der Berichterstellung, Verbesserung der ETL-Prozesse durch PowerQuery und Entwurf relationaler Modelle, die zum Erstellen von Power BI-Berichten verwendet werden, um die Agilität in der Cloud zu erhöhen
Datenqualitätsprüfungen von ERM Systeme durch SQL-Queries und Excel-Berichte
Datenqualitätsprüfung des Quellsystems durch SQL-Abfragen zur korrekten Datenflussvalidierung aus Echtzeitdaten
Schnelle Analysen durch Excel-Tabellen und Grafiken, um die Konsistenz der Informationen zu validieren, die für die Berichterstellung auf C-Level verwendet werden
Automatisierung des Abfallprozess, um Werte in Real-Time zu erhalten
Entwicklung eines ETL-Prozesses, um Informationen zur Abfallproduktion zu erhalten, die für die Berichterstattung und Kontrolle verwendet werden
Gestaltung und Korrektur von SQL Queries
Entwicklung von SQL-Abfragen durch MySQL für die Leistungsbewertung von Schülern
Entwicklung von Entity-Relationship-Modellen für Lehrzwecke
Entwicklung von visuellen Entitätsbeziehungs- und Beziehungsmodellen mit realen Daten, die zur Messung der Schülerleistung verwendet werden
Implementierung von Machine Learning Modellen für die Erstellung einer Prognose bezüglich der Abwanderungsrate von Bankkunden in RStudio
Datenvalidierung und Datenbereinigung durch grafische und statistische Auswertung (Variablenverteilung, Ausreißerprüfung, etc.)
Variablenauswahl durch AIC-Maß mit Forward und Backwards Methode
Modelltraining (n-netzwerk, Random Forest, Naive Bayes, Lineare Regression, SVM) und Vergleich basierend auf BAIC-, AIC- und AOC-Maß
Teilnahme an Aufgaben im Zusammenhang mit der Verbesserung des internen Enterprise Data Warehouse von Scalefree und Teilnahme an beruflichen Weiterbildungskursen.
Erfolgreiche Zertifizierung als Data Vault 2.0 Practitioner
Studium und Anwendung der DV2.0-Praxis im internen Enterprise Data Warehouse
Aufbau des Data Warehouses mit dem Data Vault 2.0 Ansatz:
Erfassung der Anforderungen der Business Users zur Gestaltung und Modellierung des Datenmodells.
Modellierung und Entwicklung von RDV- und BDV-Objekten aus verschiedenen Quellsystemen, basierend auf den Business Anforderungen.
Automatisierung des RDV-Deployments mit Informatica und Metakraftwerk.
Bereinigung, Ersetzung und Bearbeitung von RDV-Geschäftsobjekten, einschließlich der Erkennung und Bearbeitung von Abhängigkeiten.
Automatisierung und Standardisierung der Testphase.
Verwaltung der Prozesssteuerung durch Erstellung von Gruppen, Prozessen und Gruppenabhängigkeiten.
Einplanung und Aufhebung der Einplanung von Workflows in Job Control.
Fehlerbehebung in den ETL-Prozessen.
Unterstützung bei der Entwicklung von Information Marts.
Fehlerdiagnose, Fehlerbehebung und Fehleranalyse.
Entwicklung von Dashboards in Power BI für Entscheidungsfindung
Erstellung von Reports in Power BI durch SQL-Tabellen mit Power Query
Entwurf von Datenbankschemata in Power BI, die für die Berichterstellung verwendet werden
Troubleshooting und Verbesserung von bestehend Dashboards und Daten
Überprüfung der Berichterstellung, Verbesserung der ETL-Prozesse durch PowerQuery und Entwurf relationaler Modelle, die zum Erstellen von Power BI-Berichten verwendet werden, um die Agilität in der Cloud zu erhöhen
Datenqualitätsprüfungen von ERM Systeme durch SQL-Queries und Excel-Berichte
Datenqualitätsprüfung des Quellsystems durch SQL-Abfragen zur korrekten Datenflussvalidierung aus Echtzeitdaten
Schnelle Analysen durch Excel-Tabellen und Grafiken, um die Konsistenz der Informationen zu validieren, die für die Berichterstellung auf C-Level verwendet werden
Automatisierung des Abfallprozess, um Werte in Real-Time zu erhalten
Entwicklung eines ETL-Prozesses, um Informationen zur Abfallproduktion zu erhalten, die für die Berichterstattung und Kontrolle verwendet werden
Gestaltung und Korrektur von SQL Queries
Entwicklung von SQL-Abfragen durch MySQL für die Leistungsbewertung von Schülern
Entwicklung von Entity-Relationship-Modellen für Lehrzwecke
Entwicklung von visuellen Entitätsbeziehungs- und Beziehungsmodellen mit realen Daten, die zur Messung der Schülerleistung verwendet werden
Implementierung von Machine Learning Modellen für die Erstellung einer Prognose bezüglich der Abwanderungsrate von Bankkunden in RStudio
Datenvalidierung und Datenbereinigung durch grafische und statistische Auswertung (Variablenverteilung, Ausreißerprüfung, etc.)
Variablenauswahl durch AIC-Maß mit Forward und Backwards Methode
Modelltraining (n-netzwerk, Random Forest, Naive Bayes, Lineare Regression, SVM) und Vergleich basierend auf BAIC-, AIC- und AOC-Maß