Ziel war die Einschätzung des Umfangs und der Funktionalität von SAP Databricks im Vergleich zu nativem Databricks.
Aufgaben:
- Anbindung an SAP Datasphere und Laden von Testdaten
- Entwicklung von Python-Notebooks zur Evaluierung zentraler Funktionen (z.B. Delta Tables, Unity Catalog, Machine Learning Workflows)
- Dokumentation der Ergebnisse und Ableitung von Empfehlungen für den Kundeneinsatz
Ziel war die Umsetzung eines PoC mittels der SAP HANA Cloud Graph Engine zur Analyse von Beziehungen zwischen Daten in Kombination mit der SAP HANA SQL Engine
Aufgaben:
- Aufbau der SAP HANA Cloud Infrastruktur in der SAP BTP
- Modellierung der Graphen in SAP HANA Cloud
- Modellierung von relationalen Daten in SAP HANA Views
- Schreiben von Graph Algorithmen in SQLScript Procedures
- Analyse & Testing diverser Szenarien in der Kombination beider Engines
Ziel war die Bereitstellung von Datenprodukten in der SAP Datasphere für Dashboards und ad-hoc Analysen mit der SAP Analytics Cloud.
Aufgaben:
- Analyse der Schnittstellen der HR-Quellensysteme
- Aufbau von Datentransformationen in der SAP Datasphere
- Umsetzung von Historisierungslogiken (SCD2) mit Stored Procedures
- Aufbau eines harmonisierten Data Marts für das Reporting
Ziel war die Umsetzung eines RAGs mit der SAP HANA Vector Engine unter Nutzung des SAP AI Core Services zur Analyse & Verarbeitung von (PDF) Dokumenten mittels GenAI und Kombination mit Daten aus der SAP Datasphere.
Aufgaben:
- Konzeption & Architektur der Services
- Aufsetzen der Services auf der SAP Business Technology Plattform
- Konzeptionierung und Implementierung der ETL-Strecken mit Python
- Programmierung des RAG auf der SAP HANA Cloud
- Anbindung der SAP Datasphere für weitere Daten
- Konfiguration & Umsetzung der RAG-Logik auf dem SAP AI Core
- Training von Machine Learning Modellen im AI Core
Ziel war die Umsetzung eines HR-Workflows zur Managerfreigabe von neu einzustellenden Mitarbeitern.
Aufgaben:
- Konzeption & Architektur der Services
- Aufsetzen der Services auf der SAP Business Technology Platform
- Aufbau des Workflows mit SAP Build Process Automation
- Einbinden des Workflows in SAP Build Workzone
Ziel war das Trainieren von ML-Modellen in der SAP HANA Cloud mit dem SAP AI Core zur schnellen Einschätzung von neuen Daten.
Aufgaben:
- Hosten einer Application im SAP AI Core
- Trainieren von ML-Modell in der SAO HANA Cloud mittels Docker
- Verwalten von Zugangsdaten in SAP AI Core
- Erstellen einer REST-API für ML-Modell Anfrage von Drittsystemen
Ziel war die Entwicklung eines Daten- & Analyticsprodukts zur Auswertung der Sales Funnels aus Salesforce in Verbindung mit Auftragsdaten aus S/4HANA. Der Content wurde als Business Content für SAP Datasphere & SAP Analytics Cloud erstellt und im SAP-Store vertrieben.
Aufgaben:
- Weiterentwicklung eines Hackaton Prototypen zum fertigen Produkt im SAP-Store und Business Content Network der SAP Datasphere und Analytics Cloud
- Anbindung der Salesforce Cloud an die SAP Datasphere
- Aufbau S/4 Datenmodell
- Datenmodellierung in SAP Datasphere
- Datenvisualisierung in SAP Analytics Cloud
- Als Business Content in SAP Store veröffentlicht
- Highlights: Gelistet als einer von 13 3rd Party Anbietern von Datenprodukten in der SAP Datasphere
Ziel war die Entwicklung eines MVP für eine Instandhaltungs-App mit SAP Build Technologie.
Aufgaben:
- Entwicklung eines Hackathon Prototypen
- Entwicklung des Front-Ends mit No Code/Low Code SAP Build Apps
- Entwicklung des Workflows mit SAP Build Process AUtomation
Ziel war die Entwicklung eines Power BI Reports zur Bestandsanalyse
Aufgaben:
- Modellierung von SAP-Daten (MM) in Snowflake
- Überarbeitung von ETL-Lösungen für Power BI für SAP-Daten über Snowflake
- Umsetzung von ETL-Pipeline in Azure Synapse Analytics für langfristige Analysen von Fertigungsdaten
Als angewandter Mathematiker ist [Name auf Anfrage] sowohl als Data Scientist als auch Data Engineer in Projekten aktiv.
[Name auf Anfrage] verbindet dabei seine ausgeprägten analytischen Fähigkeiten mit umfangreichem technologischem Know-how auf der SAP Business Technology Platform und SAP Business Data Cloud sowie (SAP) Databricks.
Dabei konnte er Erfahrung in der relationalen Modellierung von strukturierten Daten mit SAP Datasphere sowie der SAP HANA Cloud sammeln und zusätzliche Fragestellungen mit semi-strukturierten Daten für Machine Learning Szenarie und Graphen mittels Python Implementierungen in SAP Databricks, sowie den SAP Business AI Services umsetzen.
- SQL Engine
- Graph Engine
- Vector Engine
Ziel war die Einschätzung des Umfangs und der Funktionalität von SAP Databricks im Vergleich zu nativem Databricks.
Aufgaben:
- Anbindung an SAP Datasphere und Laden von Testdaten
- Entwicklung von Python-Notebooks zur Evaluierung zentraler Funktionen (z.B. Delta Tables, Unity Catalog, Machine Learning Workflows)
- Dokumentation der Ergebnisse und Ableitung von Empfehlungen für den Kundeneinsatz
Ziel war die Umsetzung eines PoC mittels der SAP HANA Cloud Graph Engine zur Analyse von Beziehungen zwischen Daten in Kombination mit der SAP HANA SQL Engine
Aufgaben:
- Aufbau der SAP HANA Cloud Infrastruktur in der SAP BTP
- Modellierung der Graphen in SAP HANA Cloud
- Modellierung von relationalen Daten in SAP HANA Views
- Schreiben von Graph Algorithmen in SQLScript Procedures
- Analyse & Testing diverser Szenarien in der Kombination beider Engines
Ziel war die Bereitstellung von Datenprodukten in der SAP Datasphere für Dashboards und ad-hoc Analysen mit der SAP Analytics Cloud.
Aufgaben:
- Analyse der Schnittstellen der HR-Quellensysteme
- Aufbau von Datentransformationen in der SAP Datasphere
- Umsetzung von Historisierungslogiken (SCD2) mit Stored Procedures
- Aufbau eines harmonisierten Data Marts für das Reporting
Ziel war die Umsetzung eines RAGs mit der SAP HANA Vector Engine unter Nutzung des SAP AI Core Services zur Analyse & Verarbeitung von (PDF) Dokumenten mittels GenAI und Kombination mit Daten aus der SAP Datasphere.
Aufgaben:
- Konzeption & Architektur der Services
- Aufsetzen der Services auf der SAP Business Technology Plattform
- Konzeptionierung und Implementierung der ETL-Strecken mit Python
- Programmierung des RAG auf der SAP HANA Cloud
- Anbindung der SAP Datasphere für weitere Daten
- Konfiguration & Umsetzung der RAG-Logik auf dem SAP AI Core
- Training von Machine Learning Modellen im AI Core
Ziel war die Umsetzung eines HR-Workflows zur Managerfreigabe von neu einzustellenden Mitarbeitern.
Aufgaben:
- Konzeption & Architektur der Services
- Aufsetzen der Services auf der SAP Business Technology Platform
- Aufbau des Workflows mit SAP Build Process Automation
- Einbinden des Workflows in SAP Build Workzone
Ziel war das Trainieren von ML-Modellen in der SAP HANA Cloud mit dem SAP AI Core zur schnellen Einschätzung von neuen Daten.
Aufgaben:
- Hosten einer Application im SAP AI Core
- Trainieren von ML-Modell in der SAO HANA Cloud mittels Docker
- Verwalten von Zugangsdaten in SAP AI Core
- Erstellen einer REST-API für ML-Modell Anfrage von Drittsystemen
Ziel war die Entwicklung eines Daten- & Analyticsprodukts zur Auswertung der Sales Funnels aus Salesforce in Verbindung mit Auftragsdaten aus S/4HANA. Der Content wurde als Business Content für SAP Datasphere & SAP Analytics Cloud erstellt und im SAP-Store vertrieben.
Aufgaben:
- Weiterentwicklung eines Hackaton Prototypen zum fertigen Produkt im SAP-Store und Business Content Network der SAP Datasphere und Analytics Cloud
- Anbindung der Salesforce Cloud an die SAP Datasphere
- Aufbau S/4 Datenmodell
- Datenmodellierung in SAP Datasphere
- Datenvisualisierung in SAP Analytics Cloud
- Als Business Content in SAP Store veröffentlicht
- Highlights: Gelistet als einer von 13 3rd Party Anbietern von Datenprodukten in der SAP Datasphere
Ziel war die Entwicklung eines MVP für eine Instandhaltungs-App mit SAP Build Technologie.
Aufgaben:
- Entwicklung eines Hackathon Prototypen
- Entwicklung des Front-Ends mit No Code/Low Code SAP Build Apps
- Entwicklung des Workflows mit SAP Build Process AUtomation
Ziel war die Entwicklung eines Power BI Reports zur Bestandsanalyse
Aufgaben:
- Modellierung von SAP-Daten (MM) in Snowflake
- Überarbeitung von ETL-Lösungen für Power BI für SAP-Daten über Snowflake
- Umsetzung von ETL-Pipeline in Azure Synapse Analytics für langfristige Analysen von Fertigungsdaten
Als angewandter Mathematiker ist [Name auf Anfrage] sowohl als Data Scientist als auch Data Engineer in Projekten aktiv.
[Name auf Anfrage] verbindet dabei seine ausgeprägten analytischen Fähigkeiten mit umfangreichem technologischem Know-how auf der SAP Business Technology Platform und SAP Business Data Cloud sowie (SAP) Databricks.
Dabei konnte er Erfahrung in der relationalen Modellierung von strukturierten Daten mit SAP Datasphere sowie der SAP HANA Cloud sammeln und zusätzliche Fragestellungen mit semi-strukturierten Daten für Machine Learning Szenarie und Graphen mittels Python Implementierungen in SAP Databricks, sowie den SAP Business AI Services umsetzen.
- SQL Engine
- Graph Engine
- Vector Engine