Migration und Einführung eines neuen Wertpapierabwicklungssystems (Ablösung von BSP Trade durch SDS GEOS), agil nach Scrum. Das Großprojekt ?Moduna" umfasste ca. 200 interne und externe Projektbeteiligte und ein Budget von über 100 Mio. EUR (Banken und Finanzdienstleistungen, 5000-10.000 Mitarbeiter).
Rolle:
Hauptentwickler und technischer Ansprechpartner im Migrationsteam. Zusätzlich Unterstützung verschiedener Teams zur Sicherstellung des Projekterfolgs.
Entwicklung von ETL-Pipelines/Batch-Schnittstellen mit Informatica PowerCenter, SQL, PL/SQL, Oracle und Shell-Scripting auf UNIX und Linux.
Unterstützung von Business Analysten im technischen Requirements Engineering.
Konzeption eines Datenqualitätssicherung-Framworks, Coding-Guidelines und Best Practices für Informatica PowerCenter.
Durchführung von Peer- und Code-Reviews von Informatica-Umsetzungen, Oracle-Datenbankobjekten, Testfällen, Schnittstellen-Konzepten sowie Job und Stream-Scheduling-Skripten unter Berücksichtigung von Performance, regulatorischen Vorgaben und internen Richtlinien.
Planung, Durchführung und Überwachung von Komponenten-, Integrations und End-to-End-Tests.
Monitoring, Fehleranalyse und -Behebung von Schnittstellen mit IBM Workload Automation (ehemals IBM Tivoli Workload Automation/Scheduler (TWS)).
Einarbeitung und Wissensvermittlung für neue Projekt-Kollegen in Informatica PowerCenter, Git/GitLab, Projektmanagement-Tool (ALM Octane), Tests, Prozessen, Architektur und Programmierrichtlinien sowie Pair-Programming und Unterstützung von Junior-Consultants.
Erstellung und Pflege der technischen Dokumentation in Confluence (Atlassian).
Entwicklung einer internen Web-Anwendung auf Basis von Microsoft-Technologien zum Skill-Management. Ziel war es, Kenntnisse, Verfügbarkeiten und weitere Informationen von Consultants für Vertrieb, HR und andere interne Bereiche zentral sichtbar zu machen (Internet und Informationstechnologie, 500-1000 Mitarbeiter).
Rolle:
Verantwortlich für die Backend-Entwicklung, Datenmodellierung und die Qualitätssicherung der Benutzeroberfläche.
Implementierung von Batch-Prozessen mit T-SQL und PowerShell zur Datenverarbeitung.
Konfiguration und Monitoring der automatisierten Jobs mit dem MS-SQL-Server-Agent.
Verantwortlich für die Datenmodellierung mithilfe von UML-Diagrammen.
Pflege und Optimierung der Datenbankstruktur im MS SQL Server.
Durchführung von User-Experience- und Usability-Tests aus der Perspektive verschiedener interner Nutzergruppen, um die Anwendungsfreundlichkeit zu sichern.
Verwaltung und Behebung von Fehlern über Jira.
Enge Zusammenarbeit und technischer Austausch mit externen Full-Stack-Entwicklern.
Shell-ScriptPowerShellMS SQL ServerWindows ServerT-SQLMS SQL Server Management Studio
Datawarehouse-EntwicklerMS SQL Server Integration ServicesMS SQL ServerT-SQL...
Datawarehouse-Entwickler
Projektkontext:
Konzeption und Neuentwicklung eines Data Warehouse für ein Versicherungsunternehmen. Der Fokus lag auf einem generischen und metadaten-gesteuerten Ansatz, um die Entwicklung von ETL-Prozessen und Datenbankobjekten zu automatisieren (Versicherungen, 500-1000 Mitarbeiter).
Rolle:
Verantwortlich für die Konzeption, Entwicklung, Qualitätssicherung und den Wissenstransfer in einem DWH-Team.
Entwicklung eines automatisierten Frameworks zur Erzeugung von SSIS-Paketen und T-SQL-/DDL-Skripten unter Nutzung von SQL Server Integration Services (SSIS) und MS SQL Server als Kerntechnologien und Einsatz von Business Intelligence Markup Language (BIML), einer XML-/C#-basierten Sprache, für dynamische Generierung.
Verantwortlich für das Testfallmanagement, die Durchführung und Dokumentation von Komponententests.
Sicherstellung der Datenqualität durch Reviews von Schnittstellen- und Datenverarbeitungskonzepten.
Einarbeitung und Schulung von Kollegen in BIML, SSIS und MS SQL Server zur Sicherung des Projekterfolgs und der nachhaltigen Wartbarkeit.
MS SQL Server Integration ServicesMS SQL ServerT-SQLC#Business Intelligence Markup Language (BIML)Visual Studio CodeMS SQL Server Management StudioVisual Studio
MS SQL Server Integration ServicesMS SQL ServerT-SQLC#Business Intelligence Markup Language (BIML)Visual Studio CodeMS SQL Server Management StudioVisual StudioDatawarehouseETLIT-ComplianceDatenbankenRequirements EngineeringDatenmanagement
Versicherung
6 Monate
2022-02 - 2022-07
Weiterentwicklung eines Metadaten-gesteuerten Data Hub
(Azure) Data EngineerAzureAzure Data Lake StorageAzure Data Factory...
(Azure) Data Engineer
Projektkontext:
Metadaten-gesteuerte Weiterentwicklung eines bestehenden Data Hubs auf Basis der Azure Cloud. Ziel war die Integration von Azure Data Lake und Synapse Analytics zur Datenausleitung an externe Abnehmer und für interne Reports in Power BI.
Rolle:
Verantwortlich für die Anforderungsanalyse, Konzeption und technische Umsetzung der Data-Engineering-Prozesse.
Erstellung von Datenverarbeitungskonzepten und Mappings durch Requirements Engineering für die Integration von Quelldaten, primär aus Labor-Informations- und Management-System (LIMS) und SAP.
Entwicklung von (Synapse) Notebooks mit Python, PySpark und T-SQL/SQL zur Datenaufbereitung und -verarbeitung innerhalb von Synapse Analytics.
Entwicklung und Monitoring von Batch-Läufen in Azure Data Factory.
Sicherstellung der Datenbereitstellung für Endanwender und Power BI-Reports.
Erstellung und Pflege der technischen Dokumentation (Systemarchitektur, Datenmodell) und eines Leitfadens für den Wissenstransfer in Azure DevOps.
AzureAzure Data Lake StorageAzure Data FactoryAzure DevopsSynapse AnalyticsSynapse NotebooksNotebookPythonPySparkSQLApache SparkMS Power BIGitT-SQL
AzureAzure Data Lake StorageAzure Data FactoryAzure DevopsSynapse AnalyticsSynapse NotebooksNotebookPythonPySparkSQLApache SparkGitT-SQLETLData ModelingDatenbankenDatenmanagementBusiness IntelligenceScrumIT-ComplianceRequirements Engineering
Pharma
6 Monate
2019-02 - 2019-07
BI-Entwicklung von Controlling-Reports
BI-EntwicklerTableauBusiness IntelligenceETL...
BI-Entwickler
Projektkontext:
Entwicklung eines Reports mit Tableau für das interne Controlling zur Visualisierung wichtiger KPIs und zur Unterstützung der Entscheidungsfindung (Consumer Research und User Experience (UX), 200-250 Mitarbeiter).
Rolle:
Verantwortlich für die gesamte Wertschöpfungskette des Reports, von der Anforderungsanalyse bis zur finalen Übergabe und Schulung.
Umfassende Anforderungsanalyse in enger Abstimmung mit dem internen Controlling.
Konzeption des Reports und der Datenvisualisierung auf Basis der identifizierten Use Cases.
Nutzerzentrierte Entwicklung eines interaktiven Reports mit Tableau.
Erstellung von Dashboards und Visualisierungen zur anschaulichen Darstellung von KPIs im Kontext der Self-Service Business Intelligence.
Schulung und Wissenstransfer an das interne Team zur selbstständigen Nutzung und Anpassung des entwickelten Reports.
Natural-Language-Processing-Lösung für qualitative Datenanalyse
Software-EntwicklerPythonMachine LearningNatural Language Processing...
Software-Entwickler
Projektkontext:
Eigenentwicklung und Evaluierung von Lösungen im Bereich Natural Language Processing (NLP) zur automatisierten Auswertung und Übersetzung qualitativer Daten aus Studien und Interviews auf Deutsch, Englisch und Mandarin (Consumer Research und User Experience (UX), 200-250 Mitarbeiter).
Rolle:
Verantwortlich für die Identifizierung, Entwicklung, Evaluierung und Empfehlung einer geeigneten Spracherkennungssoftware.
Konzeption und Programmierung einer Eigenentwicklung zur automatischen Transkription, Auswertung und Übersetzung.
Identifizierung und technische Bewertung externer, kommerzieller Spracherkennungssoftware.
Durchführung systematischer Tests zur Messung der Wortfehlerrate (WER) unter realen Bedingungen (Hintergrundgeräusche, mehrere Sprecher, Dialekte etc.) anhand bestehender Audiodateien.
Kritische Analyse der Ergebnisse hinsichtlich technischer und nicht-technischer Kriterien (z. B. Funktionalitäten, User Experience, Geschwindigkeit).
Erstellung einer fundierten Entscheidungsgrundlage mit einer abschließenden Empfehlung (Eigenentwicklung vs. kommerzielle Anwendung).
Berücksichtigung von strategischen Aspekten wie zukünftige Fortschritte, Kosten, Funktionalität und insbesondere die Einhaltung von DSGVO sowie Geheimhaltungsvereinbarungen.
Python
PythonMachine LearningNatural Language ProcessingRequirements EngineeringIT-Compliance
Verantwortlich für die Konzeption, Durchführung und Auswertung von Interviews und Usability-Studien im Bereich User Experience (UX) und qualitativer Forschung.
Projekte:
Mehrere Projekte für namhafte Automobilhersteller und -zulieferer.
Konzeption von Studien und Erstellung von detaillierten Fragenkatalogen auf Basis der Kundenanforderungen.
Durchführung und Moderation von Interviews und Usability-Tests mit Probanden.
Anwendung verschiedener Forschungsmethoden, darunter Benchmarking, A/B-Tests und explorative Tests.
Auswertung der gesammelten qualitativen Daten.
Erstellung von fundierten Zusammenfassungen, Präsentationen und Statistiken.
Erarbeitung von konkreten Empfehlungen zur Optimierung der User Experience für die Auftraggeber.
Spezifische Projekte (Auswahl):
Head-up-Displays: Durchführung von vergleichenden Usability-Tests zwischen verschiedenen Modellen zur Bewertung der Benutzerfreundlichkeit (Automobilhersteller, 650.000 Mitarbeiter).
Voice User Interfaces (VUI): Analyse der VUI-Performance in einem Prototypen-Cockpit durch Benchmarking und explorative Tests (Automobilhersteller, 45.000-50.000 Mitarbeiter).
4D-Sound-Technologie: Durchführung von Interviews und Tests zur Akzeptanz und Usability einer innovativen Sitzlösung mit 4D-Sound (Automobilzulieferer, 100.000-125.000 Mitarbeiter).
Verständnis, Konzepte, Architektur, Sicherheit, Governance und Features von Databricks.
Online-Nachweis auf Databricks:
[URL auf Anfrage]
1 Monat
2024-01 - 2024-01
Professional Scrum Master? I (PSM I)
Scrum.org
Scrum.org
Grundlegendes Verständnis von Scrum (Terminologie, Ansatz etc.), einschließlich der Konzepte zur Anwendung von Scrum.
Online-Nachweis auf Credly:
[URL auf Anfrage]
1 Monat
2023-02 - 2023-02
Microsoft Certified: Azure Data Engineer Associate
Microsoft
Microsoft
Methodische Kenntnisse
ETL/ELT-Prozesse, Architektur, Integration, Projektmanagement sowie Qualität, Governance, Überwachung, Optimierung und Sicherheit bzgl. Daten
Technologien
Databricks, Data Lake Storage, Data Factory, Stream Analytics, Event Hubs, Azure SQL Database, SQL, Python, Infrastructure as Code (IaC), Synapse Analytics (Serverless SQL Pools, Dedicated SQL Pools, Apache Spark Pools, Synapse Pipelines)
Online-Nachweis auf Microsoft:
[URL auf Anfrage]
1 Monat
2022-10 - 2022-10
Microsoft Certified: Azure Data Fundamentals
Microsoft
Microsoft
Methodische Kenntnisse
Cloud-Konzepte, Big Data, Analyse, Datenvisualisierung, Sicherheits- und Compliance-Grundlagen sowie grundlegende, relationale und nicht-relationale Datenkonzepte
Technologien
Databricks, Azure SQL Database, Azure Cosmos DB, Blob Storage, Data Lake Storage, Synapse Analytics, Stream Analytics und Power BI
Online-Nachweis auf Microsoft:
[URL auf Anfrage]
5 Jahre 6 Monate
2016-03 - 2021-08
Informatik-Studium
Bachelor of Science, Hochschule Mannheim
Bachelor of Science
Hochschule Mannheim
Wahlpflichtmodule mit Schwerpunkt strukturierter und unstrukturierter Daten (Maschinelles Lernen, Datenvisualisierung, Business Intelligence und Data Warehouse).
Tutor in Konzeptionierung und Entwicklung in objektorientierter Programmierung mit Java für Studierende im 1. und 2. Semester.
Abschlussarbeit: Evaluation verschiedener Supervised-Machine-Learning-Algorithmen im Kontext von Immobilienpreisen.
2 Jahre 10 Monate
2012-09 - 2015-06
Wirtschaftsgymnasium Friedrich-List
Allgemeine Hochschulreife, Mannheim
Allgemeine Hochschulreife
Mannheim
Branchen
Branchen
Banken & Finanzdienstleistungen
Versicherung
Pharma
Einsatzorte
Einsatzorte
Mannheim (+500km)
Deutschland, Schweiz, Österreich
möglich
Projekte
Projekte
2 Jahre
2023-02 - 2025-01
Migration und Einführung eines neuen Wertpapierabwicklungssystems
Migration und Einführung eines neuen Wertpapierabwicklungssystems (Ablösung von BSP Trade durch SDS GEOS), agil nach Scrum. Das Großprojekt ?Moduna" umfasste ca. 200 interne und externe Projektbeteiligte und ein Budget von über 100 Mio. EUR (Banken und Finanzdienstleistungen, 5000-10.000 Mitarbeiter).
Rolle:
Hauptentwickler und technischer Ansprechpartner im Migrationsteam. Zusätzlich Unterstützung verschiedener Teams zur Sicherstellung des Projekterfolgs.
Entwicklung von ETL-Pipelines/Batch-Schnittstellen mit Informatica PowerCenter, SQL, PL/SQL, Oracle und Shell-Scripting auf UNIX und Linux.
Unterstützung von Business Analysten im technischen Requirements Engineering.
Konzeption eines Datenqualitätssicherung-Framworks, Coding-Guidelines und Best Practices für Informatica PowerCenter.
Durchführung von Peer- und Code-Reviews von Informatica-Umsetzungen, Oracle-Datenbankobjekten, Testfällen, Schnittstellen-Konzepten sowie Job und Stream-Scheduling-Skripten unter Berücksichtigung von Performance, regulatorischen Vorgaben und internen Richtlinien.
Planung, Durchführung und Überwachung von Komponenten-, Integrations und End-to-End-Tests.
Monitoring, Fehleranalyse und -Behebung von Schnittstellen mit IBM Workload Automation (ehemals IBM Tivoli Workload Automation/Scheduler (TWS)).
Einarbeitung und Wissensvermittlung für neue Projekt-Kollegen in Informatica PowerCenter, Git/GitLab, Projektmanagement-Tool (ALM Octane), Tests, Prozessen, Architektur und Programmierrichtlinien sowie Pair-Programming und Unterstützung von Junior-Consultants.
Erstellung und Pflege der technischen Dokumentation in Confluence (Atlassian).
Entwicklung einer internen Web-Anwendung auf Basis von Microsoft-Technologien zum Skill-Management. Ziel war es, Kenntnisse, Verfügbarkeiten und weitere Informationen von Consultants für Vertrieb, HR und andere interne Bereiche zentral sichtbar zu machen (Internet und Informationstechnologie, 500-1000 Mitarbeiter).
Rolle:
Verantwortlich für die Backend-Entwicklung, Datenmodellierung und die Qualitätssicherung der Benutzeroberfläche.
Implementierung von Batch-Prozessen mit T-SQL und PowerShell zur Datenverarbeitung.
Konfiguration und Monitoring der automatisierten Jobs mit dem MS-SQL-Server-Agent.
Verantwortlich für die Datenmodellierung mithilfe von UML-Diagrammen.
Pflege und Optimierung der Datenbankstruktur im MS SQL Server.
Durchführung von User-Experience- und Usability-Tests aus der Perspektive verschiedener interner Nutzergruppen, um die Anwendungsfreundlichkeit zu sichern.
Verwaltung und Behebung von Fehlern über Jira.
Enge Zusammenarbeit und technischer Austausch mit externen Full-Stack-Entwicklern.
Shell-ScriptPowerShellMS SQL ServerWindows ServerT-SQLMS SQL Server Management Studio
Datawarehouse-EntwicklerMS SQL Server Integration ServicesMS SQL ServerT-SQL...
Datawarehouse-Entwickler
Projektkontext:
Konzeption und Neuentwicklung eines Data Warehouse für ein Versicherungsunternehmen. Der Fokus lag auf einem generischen und metadaten-gesteuerten Ansatz, um die Entwicklung von ETL-Prozessen und Datenbankobjekten zu automatisieren (Versicherungen, 500-1000 Mitarbeiter).
Rolle:
Verantwortlich für die Konzeption, Entwicklung, Qualitätssicherung und den Wissenstransfer in einem DWH-Team.
Entwicklung eines automatisierten Frameworks zur Erzeugung von SSIS-Paketen und T-SQL-/DDL-Skripten unter Nutzung von SQL Server Integration Services (SSIS) und MS SQL Server als Kerntechnologien und Einsatz von Business Intelligence Markup Language (BIML), einer XML-/C#-basierten Sprache, für dynamische Generierung.
Verantwortlich für das Testfallmanagement, die Durchführung und Dokumentation von Komponententests.
Sicherstellung der Datenqualität durch Reviews von Schnittstellen- und Datenverarbeitungskonzepten.
Einarbeitung und Schulung von Kollegen in BIML, SSIS und MS SQL Server zur Sicherung des Projekterfolgs und der nachhaltigen Wartbarkeit.
MS SQL Server Integration ServicesMS SQL ServerT-SQLC#Business Intelligence Markup Language (BIML)Visual Studio CodeMS SQL Server Management StudioVisual Studio
MS SQL Server Integration ServicesMS SQL ServerT-SQLC#Business Intelligence Markup Language (BIML)Visual Studio CodeMS SQL Server Management StudioVisual StudioDatawarehouseETLIT-ComplianceDatenbankenRequirements EngineeringDatenmanagement
Versicherung
6 Monate
2022-02 - 2022-07
Weiterentwicklung eines Metadaten-gesteuerten Data Hub
(Azure) Data EngineerAzureAzure Data Lake StorageAzure Data Factory...
(Azure) Data Engineer
Projektkontext:
Metadaten-gesteuerte Weiterentwicklung eines bestehenden Data Hubs auf Basis der Azure Cloud. Ziel war die Integration von Azure Data Lake und Synapse Analytics zur Datenausleitung an externe Abnehmer und für interne Reports in Power BI.
Rolle:
Verantwortlich für die Anforderungsanalyse, Konzeption und technische Umsetzung der Data-Engineering-Prozesse.
Erstellung von Datenverarbeitungskonzepten und Mappings durch Requirements Engineering für die Integration von Quelldaten, primär aus Labor-Informations- und Management-System (LIMS) und SAP.
Entwicklung von (Synapse) Notebooks mit Python, PySpark und T-SQL/SQL zur Datenaufbereitung und -verarbeitung innerhalb von Synapse Analytics.
Entwicklung und Monitoring von Batch-Läufen in Azure Data Factory.
Sicherstellung der Datenbereitstellung für Endanwender und Power BI-Reports.
Erstellung und Pflege der technischen Dokumentation (Systemarchitektur, Datenmodell) und eines Leitfadens für den Wissenstransfer in Azure DevOps.
AzureAzure Data Lake StorageAzure Data FactoryAzure DevopsSynapse AnalyticsSynapse NotebooksNotebookPythonPySparkSQLApache SparkMS Power BIGitT-SQL
AzureAzure Data Lake StorageAzure Data FactoryAzure DevopsSynapse AnalyticsSynapse NotebooksNotebookPythonPySparkSQLApache SparkGitT-SQLETLData ModelingDatenbankenDatenmanagementBusiness IntelligenceScrumIT-ComplianceRequirements Engineering
Pharma
6 Monate
2019-02 - 2019-07
BI-Entwicklung von Controlling-Reports
BI-EntwicklerTableauBusiness IntelligenceETL...
BI-Entwickler
Projektkontext:
Entwicklung eines Reports mit Tableau für das interne Controlling zur Visualisierung wichtiger KPIs und zur Unterstützung der Entscheidungsfindung (Consumer Research und User Experience (UX), 200-250 Mitarbeiter).
Rolle:
Verantwortlich für die gesamte Wertschöpfungskette des Reports, von der Anforderungsanalyse bis zur finalen Übergabe und Schulung.
Umfassende Anforderungsanalyse in enger Abstimmung mit dem internen Controlling.
Konzeption des Reports und der Datenvisualisierung auf Basis der identifizierten Use Cases.
Nutzerzentrierte Entwicklung eines interaktiven Reports mit Tableau.
Erstellung von Dashboards und Visualisierungen zur anschaulichen Darstellung von KPIs im Kontext der Self-Service Business Intelligence.
Schulung und Wissenstransfer an das interne Team zur selbstständigen Nutzung und Anpassung des entwickelten Reports.
Natural-Language-Processing-Lösung für qualitative Datenanalyse
Software-EntwicklerPythonMachine LearningNatural Language Processing...
Software-Entwickler
Projektkontext:
Eigenentwicklung und Evaluierung von Lösungen im Bereich Natural Language Processing (NLP) zur automatisierten Auswertung und Übersetzung qualitativer Daten aus Studien und Interviews auf Deutsch, Englisch und Mandarin (Consumer Research und User Experience (UX), 200-250 Mitarbeiter).
Rolle:
Verantwortlich für die Identifizierung, Entwicklung, Evaluierung und Empfehlung einer geeigneten Spracherkennungssoftware.
Konzeption und Programmierung einer Eigenentwicklung zur automatischen Transkription, Auswertung und Übersetzung.
Identifizierung und technische Bewertung externer, kommerzieller Spracherkennungssoftware.
Durchführung systematischer Tests zur Messung der Wortfehlerrate (WER) unter realen Bedingungen (Hintergrundgeräusche, mehrere Sprecher, Dialekte etc.) anhand bestehender Audiodateien.
Kritische Analyse der Ergebnisse hinsichtlich technischer und nicht-technischer Kriterien (z. B. Funktionalitäten, User Experience, Geschwindigkeit).
Erstellung einer fundierten Entscheidungsgrundlage mit einer abschließenden Empfehlung (Eigenentwicklung vs. kommerzielle Anwendung).
Berücksichtigung von strategischen Aspekten wie zukünftige Fortschritte, Kosten, Funktionalität und insbesondere die Einhaltung von DSGVO sowie Geheimhaltungsvereinbarungen.
Python
PythonMachine LearningNatural Language ProcessingRequirements EngineeringIT-Compliance
Verantwortlich für die Konzeption, Durchführung und Auswertung von Interviews und Usability-Studien im Bereich User Experience (UX) und qualitativer Forschung.
Projekte:
Mehrere Projekte für namhafte Automobilhersteller und -zulieferer.
Konzeption von Studien und Erstellung von detaillierten Fragenkatalogen auf Basis der Kundenanforderungen.
Durchführung und Moderation von Interviews und Usability-Tests mit Probanden.
Anwendung verschiedener Forschungsmethoden, darunter Benchmarking, A/B-Tests und explorative Tests.
Auswertung der gesammelten qualitativen Daten.
Erstellung von fundierten Zusammenfassungen, Präsentationen und Statistiken.
Erarbeitung von konkreten Empfehlungen zur Optimierung der User Experience für die Auftraggeber.
Spezifische Projekte (Auswahl):
Head-up-Displays: Durchführung von vergleichenden Usability-Tests zwischen verschiedenen Modellen zur Bewertung der Benutzerfreundlichkeit (Automobilhersteller, 650.000 Mitarbeiter).
Voice User Interfaces (VUI): Analyse der VUI-Performance in einem Prototypen-Cockpit durch Benchmarking und explorative Tests (Automobilhersteller, 45.000-50.000 Mitarbeiter).
4D-Sound-Technologie: Durchführung von Interviews und Tests zur Akzeptanz und Usability einer innovativen Sitzlösung mit 4D-Sound (Automobilzulieferer, 100.000-125.000 Mitarbeiter).
Verständnis, Konzepte, Architektur, Sicherheit, Governance und Features von Databricks.
Online-Nachweis auf Databricks:
[URL auf Anfrage]
1 Monat
2024-01 - 2024-01
Professional Scrum Master? I (PSM I)
Scrum.org
Scrum.org
Grundlegendes Verständnis von Scrum (Terminologie, Ansatz etc.), einschließlich der Konzepte zur Anwendung von Scrum.
Online-Nachweis auf Credly:
[URL auf Anfrage]
1 Monat
2023-02 - 2023-02
Microsoft Certified: Azure Data Engineer Associate
Microsoft
Microsoft
Methodische Kenntnisse
ETL/ELT-Prozesse, Architektur, Integration, Projektmanagement sowie Qualität, Governance, Überwachung, Optimierung und Sicherheit bzgl. Daten
Technologien
Databricks, Data Lake Storage, Data Factory, Stream Analytics, Event Hubs, Azure SQL Database, SQL, Python, Infrastructure as Code (IaC), Synapse Analytics (Serverless SQL Pools, Dedicated SQL Pools, Apache Spark Pools, Synapse Pipelines)
Online-Nachweis auf Microsoft:
[URL auf Anfrage]
1 Monat
2022-10 - 2022-10
Microsoft Certified: Azure Data Fundamentals
Microsoft
Microsoft
Methodische Kenntnisse
Cloud-Konzepte, Big Data, Analyse, Datenvisualisierung, Sicherheits- und Compliance-Grundlagen sowie grundlegende, relationale und nicht-relationale Datenkonzepte
Technologien
Databricks, Azure SQL Database, Azure Cosmos DB, Blob Storage, Data Lake Storage, Synapse Analytics, Stream Analytics und Power BI
Online-Nachweis auf Microsoft:
[URL auf Anfrage]
5 Jahre 6 Monate
2016-03 - 2021-08
Informatik-Studium
Bachelor of Science, Hochschule Mannheim
Bachelor of Science
Hochschule Mannheim
Wahlpflichtmodule mit Schwerpunkt strukturierter und unstrukturierter Daten (Maschinelles Lernen, Datenvisualisierung, Business Intelligence und Data Warehouse).
Tutor in Konzeptionierung und Entwicklung in objektorientierter Programmierung mit Java für Studierende im 1. und 2. Semester.
Abschlussarbeit: Evaluation verschiedener Supervised-Machine-Learning-Algorithmen im Kontext von Immobilienpreisen.
2 Jahre 10 Monate
2012-09 - 2015-06
Wirtschaftsgymnasium Friedrich-List
Allgemeine Hochschulreife, Mannheim
Allgemeine Hochschulreife
Mannheim
Branchen
Branchen
Banken & Finanzdienstleistungen
Versicherung
Pharma
Vertrauen Sie auf Randstad
Im Bereich Freelancing
Im Bereich Arbeitnehmerüberlassung / Personalvermittlung