Das Ziel dieses Projekts ist es, ein LLM-System mit einer Vektordatenbank für HTMLStellenausschreibungsdaten aufzubauen. Das Ziel dieses Projekts ist es, ein Tool zu aufzubauen, mit dem Anfragen zu Stellenangeboten gestellt werden können. In diesem Projekt werden Llama 3 und Llama Index für die Feinabstimmung der lokalen Daten und Streamlit für die visuelle Schnittstelle verwendet.
Ergebnisse
Als Experte für Data Warehousing und Data Engineering beginnt die Innoprox GmbH damit, für ihre Kunden an Datenprodukten zu arbeiten und dafür Fallstudien durchzuführen. Um dies zu erreichen, muss Innoprox auch ein eigenes Data Warehouse und Orchestrierungstools einrichten, um Daten in dieses zu laden. Ziel dieses Projektes ist es daher, Innoprox in die Lage zu versetzen, einen internen Snowflake-Account und ein Warehouse einzurichten und zu pflegen.
Ergebnisse
Das Ziel dieses Projekts ist es, eine Bibliothek zu programmieren, um den Abverkauf von Produkten mithilfe von Zeitreihenanalysen zu prognostizieren. Ziel dieses Projektes ist es, dem Unternehmen ein Werkzeug an die Hand zu geben, mit dem der Bedarf in den nächsten Monaten geplant werden kann, um dies zu erreichen, werden B2B-Verkaufsdaten & Bestandsdaten verwendet. In diesem Projekt werden hybride Modelle verwendet, d.h. die Kombination mehrerer Modelle, um eine saisonale Zerlegung der Zeitreihen zu erreichen und eine genauere Vorhersage zu erzielen.
Ergebnisse
Das Ziel dieses Projekts ist es, ein neues Datenmodell unter Verwendung von Verkaufsdaten zu entwerfen. Ziel ist es, das Data Warehouse des Unternehmens, um zusätzliche Verkaufsdaten zu erweitern, mit denen der Verkaufsprozess (Verkauf, Lieferung, Rechnung) in einem der wichtigsten B2B-Online-Märkte analysiert werden kann. In diesem Projekt werden Speicherprozeduren verwendet, um die Daten und 3 Ebenen oder eine Gruppe von Tabellen zu transformieren: Replikation, Verarbeitung und Analyse.
Ergebnisse
Ziel dieses Projekts ist es, eine Datenpipeline zum Extrahieren und Laden von Daten aus einer API in BigQuery-Tabellen zu entwerfen und zu erstellen. Im Rahmen des Projekts werden Airflow-DAG- und PySpark-Aufträge verwendet, um kontinuierlich Daten zu extrahieren und in BigQuery-Tabellen zu laden, um Daten zu replizieren und weitere Transformationen durchzuführen.
Ergebnisse
Das Ziel dieses Projekts ist es, ein Dashboard zu entwerfen und zu erstellen, um die Bedarfsplanung von Schlüsselprodukten zu verbessern. Das Projekt nutzt Dash, um Prognosen nach Produkten mithilfe von Datenrahmen und Diagrammen zu präsentieren, BigQuery als Datenquelle und Compute Engine, um die Lösung bereitzustellen und allen Benutzern zur Verfügung zu stellen.
Ergebnisse
Das Ziel dieses Projekts ist es, eine Pipeline zu entwerfen, um Dateien in einem Partner-Cloud-Speicher kontinuierlich zu verarbeiten. Ziel ist es, Auftragsabwicklungsdaten aus XML-Dateien zu extrahieren und in BigQuery-Tabellen zu laden, um Daten zu replizieren und weitere Transformationen durchzuführen.
Ergebnisse
Ziel dieses Projektes ist es, die Bedarfsplanung mit Hilfe von Zeitreihenanalysen zu verbessern. Ziel ist es, ein Modell auszuwählen und zu trainieren, das am besten zu den verfügbaren Daten passt, um die Nachfrage nach Schlüsselprodukten in den nächsten 3 Monaten zu prognostizieren, einschließlich der Feinabstimmung des Modells, wenn neue Daten verfügbar sind.
Ergebnisse
Ziel dieses Projekts ist es, ein neues Datenmodell für Marketing- und Finanzdaten zu entwerfen. Ziel ist es, das Data Warehouse des Unternehmens, um neue Informationsquellen zu erweitern, die zur Analyse des Kundenverhaltens für bessere Marketingkampagnen und zur Verbesserung der Nachverfolgung von Umsatz und Auftragsabwicklung genutzt werden können. Das Projekt verwendet SQL, um Betriebsdaten zu transformieren und zu aggregieren.
Ergebnisse
Das Ziel dieses Projekts ist es, eine Datenpipeline zu entwerfen und aufzubauen, um Daten aus den CRM- und ERP-Systemen des Unternehmens zu extrahieren und in BigQuery zu laden. Die Daten stammen aus unterschiedlichen Quellen wie CSV- und JSON-Dateien, Datenbanken, Webdiensten und APIs von Drittanbietern. Das Projekt verwendet Airflow-DAGs und PySpark-Jobs, um kontinuierlich Daten zu extrahieren und in Tabellen zu laden, um Daten zu replizieren und weitere Transformationen durchzuführen.
Ergebnisse
Das Ziel dieses Projekts ist es, ein neues Datenmodell der Mitarbeiterdaten zu entwerfen. Ziel ist es, Daten aus verschiedenen Systemen zu sammeln und in einer einheitlichen Quelle der Wahrheit zusammenzuführen. An dem Projekt sind mehrere Teams aus verschiedenen Geschäftsbereichen beteiligt, um die Anforderungen zu sammeln, und das BI-Team, um die endgültige Lösung zu erstellen.
Ergebnisse
Das Ziel dieses Projekts ist es, ein neues Datenmodell zu entwerfen, das alle Informationen enthält, die für die Bearbeitung von Rückbuchungsstreitigkeiten erforderlich sind. Ziel ist es, Kundendaten aus verschiedenen Systemen (Online-Verkäufe, Kundenprofil, Betrugserkennung, Flugtickets und -manifeste, Online-Zahlungsabwicklung usw.) in einer einheitlichen Quelle der Wahrheit zusammenzuführen und diese Informationen zu verwenden, um Berichte und Backoffice-Apps für das Charge Back-Analyseteam zu erstellen.
Ergebnisse
Das Ziel dieses Projekts ist es, ein System zur Betrugserkennung und -prävention in die Produktion zu bringen, das konsolidierte Daten aus mehreren Datenströmen in einem Ökosystem von Drittanbieterund intern entwickelten Lösungen nutzt. Das System benötigt eine große Menge an verschiedenen Informationen aus mehreren Quellen, um eine optimale Betrugserkennung zu erreichen, einschließlich, aber nicht beschränkt auf Flugroute, Passagierdaten und Tickets, Vielfliegerinformationen, Karten- und Zahlungsinformationen, E-Mail- und Kundenkontaktinformationen. Das System verwendet Informationen hauptsächlich für 2 Zwecke: Ein internes diskretes System bewertet und markiert jede Online-Transaktion als Betrug/Nicht-Betrug und ein maschinelles Lernmodell, das historische Daten analysiert, um betrügerisches Verhalten zu lernen und zu entdecken. Das Projekt setzt viele Technologien ein, um Datenpipelines, Nachrichtenwarteschlangen, Datenmodelle, Berichte und Dashboards zu erstellen.
Ergebnisse
Das Ziel dieses Projekts ist es, eine ETL zu entwickeln, um Textdateien von einem Mainframe (VisionPlus) zu verarbeiten, der Kreditkartentransaktionen speichert. Der ETL-Prozess wird mit SQL Server Integration Services entwickelt, um Dateien in einer internen SFTP-Site zu extrahieren, die Daten zu transformieren und mit vorhandenen Tabellen zu kombinieren und schließlich in SQL-Server zu laden.
Ergebnisse
Das Ziel dieses Projekts ist es, Daten aus einem Mainframe zu extrahieren, die für die Analyse und Berichterstattung benötigt werden. Das Projekt verwendet Visual Basic, um Daten von bestimmten Bildschirmen im System zu extrahieren und in Textdateien zu speichern.
Ergebnisse
Das Ziel dieses Projekts ist es, neue Ansichten zu erstellen, die von einer Finanzanwendung genutzt werden können, die Kreditkartenabrechnungen ausgibt. Die Ansichten werden gemäß den Geschäftsregeln in SQL-Server mithilfe von Speicherprozeduren erstellt.
Ergebnisse
Master of Science in Artificial Intelligence & Data Science
Heinrich-Heine-Universität, Düsseldorf
Bachelor of Science in Systems Engineering
USMA, Panama
Weiterbildungen und Zertifikate
2024
2021
GCP Professional Certification
2018
AWS-Solutions architect
2017
Six Sigma Yellow Belt
2015
Professional SCRUM Developer
Profil
Ein Datenfreak mit mehr als 7 Jahren Erfahrung in den Bereichen BI und ML-Engineering. Mein Fachwissen hat sich zu einer Leidenschaft für den Aufbau von End to-End-Datenprozessen und MLLösungen entwickelt, um neue Trends zu erkennen und Geschäftsprozesse zu automatisieren. Ich bin immer begeistert davon, neue Technologien und Plattformen zu erlernen, die dazu beitragen, mehr Wert für Unternehmen und Kunden zu schaffen. Gleichzeitig freue ich mich darauf, Teil der neuen KI-Ära und der Entwicklung moderner Lösungen zu sein, mit denen Unternehmen immer einen Schritt voraus sind.
Fähigkeiten und Kompetenzen
Von Kunden und Kollegen geschätzt
Methoden
Anwendungen
Programmiersprachen/ Frameworks
Cloud
Berufserfahrung
04/2024 - heute
Aufgaben:
09/2023 - 02/2024
Aufgaben:
02/2021 ? 08/2023
Aufgaben:
09/2016 ? 07/2019
Kunde: Luft und Raumfahrt
09/2014 ? 08/2016
Aufgaben:
Das Ziel dieses Projekts ist es, ein LLM-System mit einer Vektordatenbank für HTMLStellenausschreibungsdaten aufzubauen. Das Ziel dieses Projekts ist es, ein Tool zu aufzubauen, mit dem Anfragen zu Stellenangeboten gestellt werden können. In diesem Projekt werden Llama 3 und Llama Index für die Feinabstimmung der lokalen Daten und Streamlit für die visuelle Schnittstelle verwendet.
Ergebnisse
Als Experte für Data Warehousing und Data Engineering beginnt die Innoprox GmbH damit, für ihre Kunden an Datenprodukten zu arbeiten und dafür Fallstudien durchzuführen. Um dies zu erreichen, muss Innoprox auch ein eigenes Data Warehouse und Orchestrierungstools einrichten, um Daten in dieses zu laden. Ziel dieses Projektes ist es daher, Innoprox in die Lage zu versetzen, einen internen Snowflake-Account und ein Warehouse einzurichten und zu pflegen.
Ergebnisse
Das Ziel dieses Projekts ist es, eine Bibliothek zu programmieren, um den Abverkauf von Produkten mithilfe von Zeitreihenanalysen zu prognostizieren. Ziel dieses Projektes ist es, dem Unternehmen ein Werkzeug an die Hand zu geben, mit dem der Bedarf in den nächsten Monaten geplant werden kann, um dies zu erreichen, werden B2B-Verkaufsdaten & Bestandsdaten verwendet. In diesem Projekt werden hybride Modelle verwendet, d.h. die Kombination mehrerer Modelle, um eine saisonale Zerlegung der Zeitreihen zu erreichen und eine genauere Vorhersage zu erzielen.
Ergebnisse
Das Ziel dieses Projekts ist es, ein neues Datenmodell unter Verwendung von Verkaufsdaten zu entwerfen. Ziel ist es, das Data Warehouse des Unternehmens, um zusätzliche Verkaufsdaten zu erweitern, mit denen der Verkaufsprozess (Verkauf, Lieferung, Rechnung) in einem der wichtigsten B2B-Online-Märkte analysiert werden kann. In diesem Projekt werden Speicherprozeduren verwendet, um die Daten und 3 Ebenen oder eine Gruppe von Tabellen zu transformieren: Replikation, Verarbeitung und Analyse.
Ergebnisse
Ziel dieses Projekts ist es, eine Datenpipeline zum Extrahieren und Laden von Daten aus einer API in BigQuery-Tabellen zu entwerfen und zu erstellen. Im Rahmen des Projekts werden Airflow-DAG- und PySpark-Aufträge verwendet, um kontinuierlich Daten zu extrahieren und in BigQuery-Tabellen zu laden, um Daten zu replizieren und weitere Transformationen durchzuführen.
Ergebnisse
Das Ziel dieses Projekts ist es, ein Dashboard zu entwerfen und zu erstellen, um die Bedarfsplanung von Schlüsselprodukten zu verbessern. Das Projekt nutzt Dash, um Prognosen nach Produkten mithilfe von Datenrahmen und Diagrammen zu präsentieren, BigQuery als Datenquelle und Compute Engine, um die Lösung bereitzustellen und allen Benutzern zur Verfügung zu stellen.
Ergebnisse
Das Ziel dieses Projekts ist es, eine Pipeline zu entwerfen, um Dateien in einem Partner-Cloud-Speicher kontinuierlich zu verarbeiten. Ziel ist es, Auftragsabwicklungsdaten aus XML-Dateien zu extrahieren und in BigQuery-Tabellen zu laden, um Daten zu replizieren und weitere Transformationen durchzuführen.
Ergebnisse
Ziel dieses Projektes ist es, die Bedarfsplanung mit Hilfe von Zeitreihenanalysen zu verbessern. Ziel ist es, ein Modell auszuwählen und zu trainieren, das am besten zu den verfügbaren Daten passt, um die Nachfrage nach Schlüsselprodukten in den nächsten 3 Monaten zu prognostizieren, einschließlich der Feinabstimmung des Modells, wenn neue Daten verfügbar sind.
Ergebnisse
Ziel dieses Projekts ist es, ein neues Datenmodell für Marketing- und Finanzdaten zu entwerfen. Ziel ist es, das Data Warehouse des Unternehmens, um neue Informationsquellen zu erweitern, die zur Analyse des Kundenverhaltens für bessere Marketingkampagnen und zur Verbesserung der Nachverfolgung von Umsatz und Auftragsabwicklung genutzt werden können. Das Projekt verwendet SQL, um Betriebsdaten zu transformieren und zu aggregieren.
Ergebnisse
Das Ziel dieses Projekts ist es, eine Datenpipeline zu entwerfen und aufzubauen, um Daten aus den CRM- und ERP-Systemen des Unternehmens zu extrahieren und in BigQuery zu laden. Die Daten stammen aus unterschiedlichen Quellen wie CSV- und JSON-Dateien, Datenbanken, Webdiensten und APIs von Drittanbietern. Das Projekt verwendet Airflow-DAGs und PySpark-Jobs, um kontinuierlich Daten zu extrahieren und in Tabellen zu laden, um Daten zu replizieren und weitere Transformationen durchzuführen.
Ergebnisse
Das Ziel dieses Projekts ist es, ein neues Datenmodell der Mitarbeiterdaten zu entwerfen. Ziel ist es, Daten aus verschiedenen Systemen zu sammeln und in einer einheitlichen Quelle der Wahrheit zusammenzuführen. An dem Projekt sind mehrere Teams aus verschiedenen Geschäftsbereichen beteiligt, um die Anforderungen zu sammeln, und das BI-Team, um die endgültige Lösung zu erstellen.
Ergebnisse
Das Ziel dieses Projekts ist es, ein neues Datenmodell zu entwerfen, das alle Informationen enthält, die für die Bearbeitung von Rückbuchungsstreitigkeiten erforderlich sind. Ziel ist es, Kundendaten aus verschiedenen Systemen (Online-Verkäufe, Kundenprofil, Betrugserkennung, Flugtickets und -manifeste, Online-Zahlungsabwicklung usw.) in einer einheitlichen Quelle der Wahrheit zusammenzuführen und diese Informationen zu verwenden, um Berichte und Backoffice-Apps für das Charge Back-Analyseteam zu erstellen.
Ergebnisse
Das Ziel dieses Projekts ist es, ein System zur Betrugserkennung und -prävention in die Produktion zu bringen, das konsolidierte Daten aus mehreren Datenströmen in einem Ökosystem von Drittanbieterund intern entwickelten Lösungen nutzt. Das System benötigt eine große Menge an verschiedenen Informationen aus mehreren Quellen, um eine optimale Betrugserkennung zu erreichen, einschließlich, aber nicht beschränkt auf Flugroute, Passagierdaten und Tickets, Vielfliegerinformationen, Karten- und Zahlungsinformationen, E-Mail- und Kundenkontaktinformationen. Das System verwendet Informationen hauptsächlich für 2 Zwecke: Ein internes diskretes System bewertet und markiert jede Online-Transaktion als Betrug/Nicht-Betrug und ein maschinelles Lernmodell, das historische Daten analysiert, um betrügerisches Verhalten zu lernen und zu entdecken. Das Projekt setzt viele Technologien ein, um Datenpipelines, Nachrichtenwarteschlangen, Datenmodelle, Berichte und Dashboards zu erstellen.
Ergebnisse
Das Ziel dieses Projekts ist es, eine ETL zu entwickeln, um Textdateien von einem Mainframe (VisionPlus) zu verarbeiten, der Kreditkartentransaktionen speichert. Der ETL-Prozess wird mit SQL Server Integration Services entwickelt, um Dateien in einer internen SFTP-Site zu extrahieren, die Daten zu transformieren und mit vorhandenen Tabellen zu kombinieren und schließlich in SQL-Server zu laden.
Ergebnisse
Das Ziel dieses Projekts ist es, Daten aus einem Mainframe zu extrahieren, die für die Analyse und Berichterstattung benötigt werden. Das Projekt verwendet Visual Basic, um Daten von bestimmten Bildschirmen im System zu extrahieren und in Textdateien zu speichern.
Ergebnisse
Das Ziel dieses Projekts ist es, neue Ansichten zu erstellen, die von einer Finanzanwendung genutzt werden können, die Kreditkartenabrechnungen ausgibt. Die Ansichten werden gemäß den Geschäftsregeln in SQL-Server mithilfe von Speicherprozeduren erstellt.
Ergebnisse
Master of Science in Artificial Intelligence & Data Science
Heinrich-Heine-Universität, Düsseldorf
Bachelor of Science in Systems Engineering
USMA, Panama
Weiterbildungen und Zertifikate
2024
2021
GCP Professional Certification
2018
AWS-Solutions architect
2017
Six Sigma Yellow Belt
2015
Professional SCRUM Developer
Profil
Ein Datenfreak mit mehr als 7 Jahren Erfahrung in den Bereichen BI und ML-Engineering. Mein Fachwissen hat sich zu einer Leidenschaft für den Aufbau von End to-End-Datenprozessen und MLLösungen entwickelt, um neue Trends zu erkennen und Geschäftsprozesse zu automatisieren. Ich bin immer begeistert davon, neue Technologien und Plattformen zu erlernen, die dazu beitragen, mehr Wert für Unternehmen und Kunden zu schaffen. Gleichzeitig freue ich mich darauf, Teil der neuen KI-Ära und der Entwicklung moderner Lösungen zu sein, mit denen Unternehmen immer einen Schritt voraus sind.
Fähigkeiten und Kompetenzen
Von Kunden und Kollegen geschätzt
Methoden
Anwendungen
Programmiersprachen/ Frameworks
Cloud
Berufserfahrung
04/2024 - heute
Aufgaben:
09/2023 - 02/2024
Aufgaben:
02/2021 ? 08/2023
Aufgaben:
09/2016 ? 07/2019
Kunde: Luft und Raumfahrt
09/2014 ? 08/2016
Aufgaben: