In diesem Projekt wird ein Lokales Large Language Model um interne Dokumente mit personenbezogenen Daten datenschutzgerecht zu verarbeiten
: Als zentrale Programmiersprache für die Implementierung der Logik, Datenverarbeitung und Integration der Frameworks.
: Framework zur Orchestrierung von KI-Workflows, insbesondere für die nahtlose Verknüpfung von Sprachmodellen, Datenquellen und externen Tools.
: Lokal gehostetes Large Language Model (LocalLLM), das leistungsstarke Textgenerierung ohne Cloud-Abhängigkeit ermöglicht.
: Architektur zur Kombination von informationsbasiertem Retrieval mit generativen KI-Modellen für präzise und kontextangereicherte Antworten.
: Transformer-basierte Embeddings (z. B. mit Sentence-BERT oder ähnlichen Modellen) zur semantischen Erfassung und Vektorisierung von Texten.
(z. B. FAISS, Chroma oder Pinecone): Effiziente Speicherung und Abfrage von Embeddings für schnelle Similarity-Searches im RAG-Workflow.
: Containerisierung der Anwendung zur sicheren, reproduzierbaren und plattformübergreifenden Bereitstellung.
: Vollständig offlinefähige Architektur mit Ollama und lokaler Vector-Datenbank, ideal für sensible Daten oder eingeschränkte Cloud-Nutzung.
: RAG kombiniert Retrieval aus dokumentenbasierten Fakten mit generativen Fähigkeiten des LLMs, um Halluzinationen zu reduzieren und Antwortqualität zu steigern.
: Automatisierte Umwandlung von Rohdaten in semantische Vektoren für Echtzeitanalysen.
? Analyse von bestehenden Jobs in SAS hinsichtlich fachlicher und technischer Komplexität sowie Zuordnung der risikorelevanten Prozesse
? Technische Business Analyse der SAS-Funktionalitäten
? Nach abgeschlossener Business Analyse Zusammenarbeit mit Datenmodellierung und Entwicklung, um fachliche Datenmodelle für die Umsetzung im neuen Datenhaushalt zu erstellen
? Erstellung einer Roadmap für die künftige Datenmigration
? Austausch & Anforderungsanalyse mit Stakeholdern aus Risikomanagement Fachbereichen und IT
? Systemübergreifende Koordination von Schnittstellen
? Verwendung von SAS-Software für Analysen
? Verwendung von Python mit verschiedenen Bibliotheken, um weit verstreute Datenpunkte zu visualisieren und die Data-Lineage aufzuzeigen
? Erstellung von Skripten in Python zur Automatisierung von Datenverarbeitung
? Korrelationsanalyse zwischen Pegelstand des Rheins & Warenumschlag am Hafen
? Machine Learning mit Python (Seaborn) um Warenumschlag nach Pegelstand vorherzusagen
? Implementierung des Python Programms in PowerBI
? Interaktives Dashboard um Warenumschlag vorherzusagen
? Coaching der Nutzer von MS PowerBI
? gemeinsame Anforderungsanalysen für verschiedene Usecases
? Umsetzung von fachspezifischen Berichten
? Sensibilisierung der User bezüglich Datenpflege - und Sicherheit
? Usecase Aufnahme der Fachabteilungen
? Analyse der existierenden Reports auf Daten, Funktionalität, Verwendungszweck
? Entwicklung der BI- Landschaft
? Datenmodellierung
? Dashboard Gestaltung und Design
? Datenextraktion
? Measure und Formeln erstellen mit DAX
? Umzug der Datensätze von On-Premise in die Cloud
? Migration & Strukturierung von Datentöpfen in Microsoft Azure Cloud
In diesem Projekt wird ein Lokales Large Language Model um interne Dokumente mit personenbezogenen Daten datenschutzgerecht zu verarbeiten
: Als zentrale Programmiersprache für die Implementierung der Logik, Datenverarbeitung und Integration der Frameworks.
: Framework zur Orchestrierung von KI-Workflows, insbesondere für die nahtlose Verknüpfung von Sprachmodellen, Datenquellen und externen Tools.
: Lokal gehostetes Large Language Model (LocalLLM), das leistungsstarke Textgenerierung ohne Cloud-Abhängigkeit ermöglicht.
: Architektur zur Kombination von informationsbasiertem Retrieval mit generativen KI-Modellen für präzise und kontextangereicherte Antworten.
: Transformer-basierte Embeddings (z. B. mit Sentence-BERT oder ähnlichen Modellen) zur semantischen Erfassung und Vektorisierung von Texten.
(z. B. FAISS, Chroma oder Pinecone): Effiziente Speicherung und Abfrage von Embeddings für schnelle Similarity-Searches im RAG-Workflow.
: Containerisierung der Anwendung zur sicheren, reproduzierbaren und plattformübergreifenden Bereitstellung.
: Vollständig offlinefähige Architektur mit Ollama und lokaler Vector-Datenbank, ideal für sensible Daten oder eingeschränkte Cloud-Nutzung.
: RAG kombiniert Retrieval aus dokumentenbasierten Fakten mit generativen Fähigkeiten des LLMs, um Halluzinationen zu reduzieren und Antwortqualität zu steigern.
: Automatisierte Umwandlung von Rohdaten in semantische Vektoren für Echtzeitanalysen.
? Analyse von bestehenden Jobs in SAS hinsichtlich fachlicher und technischer Komplexität sowie Zuordnung der risikorelevanten Prozesse
? Technische Business Analyse der SAS-Funktionalitäten
? Nach abgeschlossener Business Analyse Zusammenarbeit mit Datenmodellierung und Entwicklung, um fachliche Datenmodelle für die Umsetzung im neuen Datenhaushalt zu erstellen
? Erstellung einer Roadmap für die künftige Datenmigration
? Austausch & Anforderungsanalyse mit Stakeholdern aus Risikomanagement Fachbereichen und IT
? Systemübergreifende Koordination von Schnittstellen
? Verwendung von SAS-Software für Analysen
? Verwendung von Python mit verschiedenen Bibliotheken, um weit verstreute Datenpunkte zu visualisieren und die Data-Lineage aufzuzeigen
? Erstellung von Skripten in Python zur Automatisierung von Datenverarbeitung
? Korrelationsanalyse zwischen Pegelstand des Rheins & Warenumschlag am Hafen
? Machine Learning mit Python (Seaborn) um Warenumschlag nach Pegelstand vorherzusagen
? Implementierung des Python Programms in PowerBI
? Interaktives Dashboard um Warenumschlag vorherzusagen
? Coaching der Nutzer von MS PowerBI
? gemeinsame Anforderungsanalysen für verschiedene Usecases
? Umsetzung von fachspezifischen Berichten
? Sensibilisierung der User bezüglich Datenpflege - und Sicherheit
? Usecase Aufnahme der Fachabteilungen
? Analyse der existierenden Reports auf Daten, Funktionalität, Verwendungszweck
? Entwicklung der BI- Landschaft
? Datenmodellierung
? Dashboard Gestaltung und Design
? Datenextraktion
? Measure und Formeln erstellen mit DAX
? Umzug der Datensätze von On-Premise in die Cloud
? Migration & Strukturierung von Datentöpfen in Microsoft Azure Cloud