Tägliche Validierung und Analyse der Risikokennzahlen (MPR/ADR) und Marktdaten sowie der Positionsabbildung im Marktpreisrisikosystem; Durchführung von Simulationsanfragen/Sonderauswertungen; Interne Ansprechpartner bei aufsichtsrechtlichen Grenzverletzungen; Erstellung von Reports für verschieden Organisationseinheiten; Kontinuierliche Optimierung der internen Validierungsprozesse
Erstellung von Fach-/DV-Konzepten, Analyse und Prototypentwicklung eines Marktdatenvalidierung-Tools (MDV); Recherche, Pflege und Bewertung von Marktdaten (Datenqualität, Historie, Korrektur, Validierung); Parametrisierung von Validierungsregeln des MDV-Tools sowie die revisionssichere Dokumentation; Umsetzungsbegleitung des IT-Dienstleisters (Anforderungen, Validierung, fachliche Rückfragen, Tests);
Erstellung und Implementierung der LCR-Klassifizierungsschemata sowie die revisionssichere Dokumentation;
Programmierung eines CreditSpread-Tools zur Optimierung der Prüfungsprozesse der von Treasury ermittelten eigenen CreditSpreads
Erstellung und Implementierung der LCR-Prüfung;
Neugestaltung des HGB Hedge Accounting;
Aufarbeitung der Zinsüberschuss-Simulation zur Messung von Zinsänderungsrisiken für EBA-Stresstest;
Umsetzung melderelevanter Änderungen der Geldmarktstatistik (Großkunden)
Oberfläche zur GIPO-Steuerung
R:
Statistische Grundlagen
Messtheoretische Grundlagen (Grundgesamtheit und Stichprobe,
Stichprobenarten, Messung und Skalenniveaus)
Univariate Deskriptivstatistik (Häufigkeitsverteilungen,
Zentralmaße, Streuungsmaße, Standardwerte, Histogramme,
Balkendiagramme, Kreisdiagramme, Liniendiagramme und Boxplots)
Bivariate Deskriptivstatistik (Zusammenhangsmaße,
Korrelationskoeffizienten, Kreuztabellen, Streudiagramme und
gruppierte Balkendiagramme)
Grundlagen der induktiven Inferenzstatistik (Wahrscheinlichkeitsverteilung,
Normalverteilung, Mittelwertverteilung, Signifikanztest,
Nullhypothesentest nach Fisher, Effektgröße, Parameterschätzung,
Konfidenzintervalle, Fehlerbalkendiagramme, Poweranalysen
und Ermittlung des optimalen Stichprobenumfangs)
Methoden zum Vergleich von zwei Gruppen
z- und t-Test für eine Stichprobe
(Abweichung von einem vorgegebenen Wert)
t-Test für den Mittelwertsunterschied von zwei unabhängigen
oder verbundenen Stichproben
Prüfung der Wirksamkeit von Aktionen, Maßnahmen,
Interventionen und anderen Veränderungen mit t-Tests
(Pretest-Posttest-Designs mit zwei Gruppen)
Unterstützende Signifikanztests (Anderson-Darling-Test, Ryan-Joiner-Test,
Levene-Test, Bonnet-Test, Signifikanztest für Korrelationen)
Nonparametrische Verfahren (Wilcoxon-Test, Vorzeichentest,
Mann-Whitney-Test)
Kontingenzanalysen (Binomialtest, Exakter Test nach Fisher,
Chi-Quadrat-Test, Kreuztabellen mit Assoziationsmaßen)
Methoden zum Mittelwertvergleich mehrerer Gruppen
Ein- und zweifaktorielle Varianzanalyse (einfache und balancierte ANOVA)
Mehrfaktorielle Varianzanalyse (Allgemeines lineares Modell)
Feste, zufällige, gekreuzte und geschachtelte Faktoren
Mehrfachvergleichsverfahren (Tukey-HSD, Dunnett,
Hsu-MCB, Games-Howell)
Interaktionsanalyse (Analyse von Wechselwirkungseffekten)
Trennschärfe und Poweranalyse bei Varianzanalysen
Einführung in die Versuchsplanung (DoE, Design of Experiments)
Makroökonomie, Geldpolitik, Ökonometrie
Zeitreihenanalyse,
Ökonometrische Verfahren
Banken, Versicherungen
Tägliche Validierung und Analyse der Risikokennzahlen (MPR/ADR) und Marktdaten sowie der Positionsabbildung im Marktpreisrisikosystem; Durchführung von Simulationsanfragen/Sonderauswertungen; Interne Ansprechpartner bei aufsichtsrechtlichen Grenzverletzungen; Erstellung von Reports für verschieden Organisationseinheiten; Kontinuierliche Optimierung der internen Validierungsprozesse
Erstellung von Fach-/DV-Konzepten, Analyse und Prototypentwicklung eines Marktdatenvalidierung-Tools (MDV); Recherche, Pflege und Bewertung von Marktdaten (Datenqualität, Historie, Korrektur, Validierung); Parametrisierung von Validierungsregeln des MDV-Tools sowie die revisionssichere Dokumentation; Umsetzungsbegleitung des IT-Dienstleisters (Anforderungen, Validierung, fachliche Rückfragen, Tests);
Erstellung und Implementierung der LCR-Klassifizierungsschemata sowie die revisionssichere Dokumentation;
Programmierung eines CreditSpread-Tools zur Optimierung der Prüfungsprozesse der von Treasury ermittelten eigenen CreditSpreads
Erstellung und Implementierung der LCR-Prüfung;
Neugestaltung des HGB Hedge Accounting;
Aufarbeitung der Zinsüberschuss-Simulation zur Messung von Zinsänderungsrisiken für EBA-Stresstest;
Umsetzung melderelevanter Änderungen der Geldmarktstatistik (Großkunden)
Oberfläche zur GIPO-Steuerung
R:
Statistische Grundlagen
Messtheoretische Grundlagen (Grundgesamtheit und Stichprobe,
Stichprobenarten, Messung und Skalenniveaus)
Univariate Deskriptivstatistik (Häufigkeitsverteilungen,
Zentralmaße, Streuungsmaße, Standardwerte, Histogramme,
Balkendiagramme, Kreisdiagramme, Liniendiagramme und Boxplots)
Bivariate Deskriptivstatistik (Zusammenhangsmaße,
Korrelationskoeffizienten, Kreuztabellen, Streudiagramme und
gruppierte Balkendiagramme)
Grundlagen der induktiven Inferenzstatistik (Wahrscheinlichkeitsverteilung,
Normalverteilung, Mittelwertverteilung, Signifikanztest,
Nullhypothesentest nach Fisher, Effektgröße, Parameterschätzung,
Konfidenzintervalle, Fehlerbalkendiagramme, Poweranalysen
und Ermittlung des optimalen Stichprobenumfangs)
Methoden zum Vergleich von zwei Gruppen
z- und t-Test für eine Stichprobe
(Abweichung von einem vorgegebenen Wert)
t-Test für den Mittelwertsunterschied von zwei unabhängigen
oder verbundenen Stichproben
Prüfung der Wirksamkeit von Aktionen, Maßnahmen,
Interventionen und anderen Veränderungen mit t-Tests
(Pretest-Posttest-Designs mit zwei Gruppen)
Unterstützende Signifikanztests (Anderson-Darling-Test, Ryan-Joiner-Test,
Levene-Test, Bonnet-Test, Signifikanztest für Korrelationen)
Nonparametrische Verfahren (Wilcoxon-Test, Vorzeichentest,
Mann-Whitney-Test)
Kontingenzanalysen (Binomialtest, Exakter Test nach Fisher,
Chi-Quadrat-Test, Kreuztabellen mit Assoziationsmaßen)
Methoden zum Mittelwertvergleich mehrerer Gruppen
Ein- und zweifaktorielle Varianzanalyse (einfache und balancierte ANOVA)
Mehrfaktorielle Varianzanalyse (Allgemeines lineares Modell)
Feste, zufällige, gekreuzte und geschachtelte Faktoren
Mehrfachvergleichsverfahren (Tukey-HSD, Dunnett,
Hsu-MCB, Games-Howell)
Interaktionsanalyse (Analyse von Wechselwirkungseffekten)
Trennschärfe und Poweranalyse bei Varianzanalysen
Einführung in die Versuchsplanung (DoE, Design of Experiments)
Makroökonomie, Geldpolitik, Ökonometrie
Zeitreihenanalyse,
Ökonometrische Verfahren
Banken, Versicherungen