Bereitstellung von Power BI Architecture 2.0, Entwicklungs- und Migrationsplan für die Migration vorhandenen Reports zu Power BI Architecture 2.0 mit der daten aus Azure Synapse und Azure Databricks.
Aufgaben:
Betrieb und Weiterentwicklung des Datahubs und Power BI KPI management dashboard.
Betrieb und Weiterentwicklung eines Datahubs, der Daten aus diversen Datenquellen transformiert und die Daten in einem zentralen Azure SQL speichert. Die Datahub ist die zentral Datenquelle für diverse Power BI- und QlickView-Berichte für verschiedene Abteilungen. Die ADF Pipelines übertragen die Daten aus unterschiedlichen Datenquellen wie Service NOW, LeanIX an einen zentralen Azure SQL Datahub. Die Service NOW daten werden über Snow Mirror in Azure SQL DB Datahub repliziert.
Betrieb, Administration und weitere Entwicklung des EDT-KPI-Dashboards
Die ADF-Pipelines übertragen die Daten aus verschiedenen Datenquellen in Azure SQL, das die einzige Datenquelle für das Power EDT KPI-Management-Dashboard ist. Die Daten werden durch Azure ADF pipelines und die Stored Procedures in verschiedenen Azure SQL-Tabellen gespeichert. Das EDT-KPI-Dashboard verwendet die Views in Azure SQL DB für KPIs sowie Finanz, HR, Netzwerk, Website-Verfügbarkeit und andere wichtige KPIs.
Aufgaben:
Betrieb, Administration und weitere Entwicklung des EDT-KPI-Dashboards
Erstellung von Measures mit DAX (Data Analysis Expression) in Power BI Report . Umsetzung von RLS (Row Level Security) in Power BI Report
Erstellung von Power BI Reports & Dashboards zum Monitoring des AEM Platform Operations
Projektbeschreibung
Projekt bei einem großen Energieversorger. Planung, Entwicklung und Implementierung eine zentrale Azure SQL Datenbank als eine einheitliche Datenquelle für die Power BI Reports. Entwicklung der ETL-Pipelines. Design, Entwicklung und Umsetzung der Power BI Reports und Dashboards zum Monitoring des AEM Platform Operations mit 85 AEM-Webseiten.
Der Platform Operation Report ist ein zentrales Reporting, das wichtige Kennzahlen wie die Anzahl der Web-Requests, die Verfügbarkeit der Webseiten, Anzahl der Releases, Anzahl der JiraIssues und die Code Qualität der veröffentlichten Webseiten zeigt. Im AEM Solution Report wurde die Sicherheit auf Zeilenebene (rowlevel security; RLS) verwendet um den Datenzugriff bestimmter Benutzer einzuschränken. Rollen und Regeln wurden in Power BI Desktop definiert.
Der Website Availability Report für den Vorstand und das Top Management zeigt die Verfügbarkeit der Webseiten, Web-Traffic und wichtige KPIs auf Basis der Daten aus Monitis Monitoring und Splunk. Die Verfügbarkeit der Webseiten werden durch Rest API, Logic APPs, Azure Data Factory Pipeline von Monitis in Azure SQL DB importiert. Die Monitis Uptime Daten werden jede Minute und Monitis Full Page load time in einem Zeitintervall von 5 Minuten in Azure SQL DB übertragen. Die Website-Traffic-Daten werden täglich von Splunk nach Azure SQL DB importiert. Der Website Availability Report wird alle 5 Minuten aktualisiert und ist per Mobile und Desktop verfügbar.
Jede Website wird durch Monitis von zwei Locations überwacht. Die Verfügbarkeit der Webseiten wurde nach SLA kalkuliert, z.B. wenn eine Website innerhalb 5 Minuten von zwei Locations 2 Mals hintereinander down war, dann ist es ein Ausfall. Die ETL-Prozesse übertragen die Daten von Monitis Monitoring, Jira, Splunk und Sonar in eine Azure SQL-Datenbank. Die Daten aus verschiedenen Datenquellen werden durch die Rest-API, Logic Apps, Webhook, Azure Data Factory Pipelines, SQL Stored Procedure und Power Apps in Stage-, Dim- und Fact-Tabellen in der Azure SQLDatenbank importiert. Die zentrale Azure SQL Datenbank ist eine einheitliche Datenquelle für die Power BI Reports. Die Solution beinhaltet über 30 Mio. Datensätzen in einer Tabelle.
Tätigkeiten
Design, Entwicklung und Umsetzung von Power BI-Reports & Dashboards mit den Daten aus SAP BW und Dynamics CRM
Projektbeschreibung
Projekt bei einem großen Chemieunternehmen. Umsetzung eine Reporting-Lösung auf Basis von Power BI mit dem Daten aus dem SAP BW und Dynamics 365. Design, Entwicklung und Umsetzung eines Data Warehouses. Entwicklung und Bereitstellung des tabellarischen Modells auf die Azure Analysis Services.
Entwicklung und Umsetzung der verschiedenen Reports und Dashboards wie 360 ° Customer View.
Die Power BI Reporting Solution besteht aus der on-Premises Umgebung und der Azure-Umgebung. Die BI-Lösung kombiniert die Dynamics 365-Daten und die SAP BW-Daten in einem zentra- len Datawarehouse.
Die Daten werden durch SAP Open Hub Services aus dem SAP BW in on-premises MS SQL Datenbank Exportieren.
Die Daten aus CRM 365 werden durch des CRM Data Export Services in eine SQL Azure Datenbank repliziert.
Die CRM- Daten werden durch Azure Data Factory aus der Azure SQL Dantenbank in die on-premises SQL Datenbank exportiert. Die Daten aus dem zentralen Datawarehouse sind in tabellari- schen Modellen importiert worden. Die dynamische Sicherheit auf Zeilenebene und Sicherheit auf Spaltenebene (CLS) wurden in Azure Analysis Services tabellarischen Modellen umgesetzt und bereitgestellt. Azure Analysis Services Datenbanken sind eine einheitliche Datenquelle für die Power BI-Berichte.
Aufgaben:
Die Entwicklung und Umsetzung von Power BI Report und Dashboard für Unternehmensabteilungen sowie Finanz und Vertriebscontrolling.
Aufgaben:
Erstellung von Proof of Concept für Umsetzung eines Self Service BI Reporting Systems auf Basis MS Power BI on-premises und MS SQL Server.
Aufgaben:
Entwicklung und Umsetzung Hybrid cloudbasierte BI für das Reporting, Predictive Analytics, die Technische Analyse, und das Kurspotenzial der Aktien. Das Projekt beinhaltet den Aufbau eines Data Warehouses für Sammlung, Auswertung und Darstellung der Daten für das Reporting und zur Prognose der Aktien. Die Umsetzung des User Interface erfolgt mit Microsoft Power BI, SQL Server Reporting Services. Die Softwarelösung basiert auf MS SQL Server 2016, SSIS, SSRS, SSAS, Microsoft Power BI, Microsoft Azure und Verwendung von RFunktionen mit SQL Server-Daten für statistische Berechnungen und Predictive Analytics.
Aufgaben:
Projekt bei einem der größten Wirtschaftsprüfer-Konzern.
Betrieb, Administration und Optimierung von Data Analytics & Data Assurance Applikationen auf Basis von QlikView und Microsoft .NET.
Die digitale Data Analytics & Data Assurance Applikation bietet den Wirtschaftsprüfer umfassenden Unterstützung bei der Identifikation von Prüfungsschwerpunkten, der Durchführung von System- und Prozessprüfungen.
Die QlikView Production-Umgebung besteht aus zwei QlikView Server Cluster (jedes Cluster 4 Knoten), ein QlikView Publisher Cluster mit 2 Knoten, zwei Webserver, ein File-Server und SAN Storage.
Die QlikView Staging-Umgebung besteht aus zwei QlikView Server Cluster (jedes Cluster 2 Knoten), ein QlikView Publisher Cluster mit 2 Knoten, zwei Webserver, ein File Server und SAN Storage.
Aufgaben:
Unterstützung beim Aufsetzen einer Klonfunktion, die es ermöglicht, SharePoint Daten in Jahresscheiben zu duplizieren.
Aufgaben:
Unterstützung bei der Erstellung eines Betriebskonzepts für den Betrieb von Oracle Exadata, Exalogics und ZFS Appliance.
Aufgaben:
Das Testen von Applikationen und die anschließende Fehlerbehebung im PMS-Projekt (Patient Management System).
Aufgaben:
Projekt bei einem der größten Verkehrsunternehmen in Europa. Anforderungsmanagement, Konzeption und Neuentwicklung einer eCommerce Webanwendung für den Fahrkartenverkauf (Mobil, App und Web Portal).
Aufgaben:
Projekt bei einem der größten Pharmaunternehmen. Aufbau eines ETL- Systems und eine Controlling-Applikation zur Verarbeitung der gemeldeten Anzahl der ausgeführten Aktivitäten auf den klinischen Diagnosegeräten zur Bereitstellung der Daten für die Rechnungsstellung. Die Lösung stellt sicher, dass die Daten aus der installierten Instrumente bei Kunden vollständig, richtig auf Konto, Vertrags-und Abrechnungsdaten zugeordnet sind und erzeugt richtigen Output-Dateien, die für die Rechnungsstellung in dem SAP-System importiert werden.
Für die Überwachung und Konfiguration des Aufbereitungsprozesses wird ein User Interface bereitgestellt. Die Umsetzung des User Interface erfolgt mit .NET, MVC, Kendo UI. Die End-User können damit in den Verarbeitungsprozess eingreifen und durch die Konfiguration Verarbeitungsfehler beseitigen.
Aufgaben:
Erstellung eines ETL Demos für Implementierung von Business Rules mit Informatica PowerCenter.
Aufgaben:
Elektronischen Projektabschlussmeldung & Betriebsführungshandbuch für die Installation von SharePoint Server 2010
Projektbeschreibung
Migration und Neuentwicklung einer bestehenden Business-Anwendung zur Verwaltung von Projektabschlussmeldungen. Projektstammdaten werden regelmäßig aus SAP importiert, ergänzt und anschließend in Form von Abschluss- und Monitoring berichten ausgegeben. Die technische Plattform hierzu bildet SharePoint 2010 Server.
Aufgaben:
Neckermann.de GmbH war eines der größten Versandhandels-unternehmen in Europa. Das Sortiment bestand aus über 700.000 Artikeln aus den Segmenten Mode, Haushalt, Spielzeug und Technik. Über 150 Vertriebspartner bieten ihr Produktportfolio im neckermann.de Online−Shop an.
Das IT-System umfasst den Austausch von Massendaten zwischen SAP MDM, Middleware ESB, Master-Datenbank, E-Shop, IBM WebSphere MQ, DB2, IBM-IMS und Externer Vertriebspartner.
Betrieb, Überwachung und Entstörung der Online-Shops, ins-besondere ETL und der Middleware-Komponenten basierend auf IBM WebSphere.
Aufgaben:
Projekt bei einem der größten Telekommunikationsunternehmen in Europa. Das Projekt beinhaltet den Aufbau eines Data Warehouses für verschiedene Online Portale wie Video, Software und Game-Downloads, Marketing Automation, Sammlung, Auswertung und Darstellung elektronischer Daten, sowie SAS Digital Marketing (Software für Versand von digitalen Multimedia-Nachrichten).
Das System ermöglicht die Erfassung der Daten aller einzelnen Business Partner, die Etablierung eines Kampagnen-Management-Tools und Reporting Tools und Erstellung einer Grundlage für zukünftigen Analytischen CRM.
Die DWH-Architektur besteht aus Input Layer, Staging Layer, Core Layer und Business Layer.
Die transformierten, konsolidierten Daten werden in den Dimensions- und Faktentabellen des Core Layer persistent, historisiert und gespeichert. Die BI-Komponenten umfassen SAS und OBI. Die Daten im DWH werden für Kampagnenmanagement und Analytisches CRM in der SAS-Komponente und Berichterstattung von Oracle BI-Suite verwendet. Die Aktivitäten Kampagnenmanagement und Analytisches CRM finden in der SAS-Komponente (SAS Data-Mart) statt.
Aufgaben:
Erstellung eines technischen Angebots für Industrialisierung und die Verbesserung eines vorhandenen Database Framework-Prototype.
Aufgaben:
Aufbau einer Intranet-Applikation für Reporting und Analyse von XML-Dokumenten.
Aufgaben:
Aufbau eines Business Intelligence-Portals zum Demo
Aufgaben:
Information Management. Optimierung der BT GTM- (Global Telecom Market) Informationssysteme. Design, Entwicklung, Rollout und Betrieb eines neuen BI-Portals. Abschaltung der alten Voice Applikation mit gleichzeitiger Migration der Voice Applikation auf das neu entwickelte BI-Portal über das die wichtigen Kenndaten wie bspw. tägliche, wöchentliche, monatliche und jährlich übertragene Voice Volumina (Mobile und Festnetz) sowie Umsatz jeden Netzwerk-Anbieter und auch länderübergreifende Voice-Verkehrsflüsse und Umsatzzahlen analysiert und optimiert werden können.
Aufgaben:
Sicherstellung der Verfügbarkeit der Datenbank, des Web- und SQL-Servers und Verbesserung des Online-Systems
Aufgaben:
Erstellung einer Kollaboration- und Dokumentenmanagement-Lösung für Dokumente im Bereich Civil Engineering
Aufgaben:
Design und Aufbau von Avanade Intranet-Seiten.
Aufgaben:
Freiberuflicher IT-Berater (Azure Data Engineer, BI , DWH)
Kernkompetenzen
Framework /Tools
Azure Data Studio, SQL Server Management Studio
SAP-HANA-Tools on Eclipse
Database Tools
E-Commerce / Handel
Finanzdienstleistungen
Informationstechnologie & -dienste, Online-Stellenbörse
IT / Internet
IT-Dienstleister / Rechenzentrum
Pharma & Health Care
Transport / Logistik
Telekommunikation / Mobilfunk
Banken
Energie
Bereitstellung von Power BI Architecture 2.0, Entwicklungs- und Migrationsplan für die Migration vorhandenen Reports zu Power BI Architecture 2.0 mit der daten aus Azure Synapse und Azure Databricks.
Aufgaben:
Betrieb und Weiterentwicklung des Datahubs und Power BI KPI management dashboard.
Betrieb und Weiterentwicklung eines Datahubs, der Daten aus diversen Datenquellen transformiert und die Daten in einem zentralen Azure SQL speichert. Die Datahub ist die zentral Datenquelle für diverse Power BI- und QlickView-Berichte für verschiedene Abteilungen. Die ADF Pipelines übertragen die Daten aus unterschiedlichen Datenquellen wie Service NOW, LeanIX an einen zentralen Azure SQL Datahub. Die Service NOW daten werden über Snow Mirror in Azure SQL DB Datahub repliziert.
Betrieb, Administration und weitere Entwicklung des EDT-KPI-Dashboards
Die ADF-Pipelines übertragen die Daten aus verschiedenen Datenquellen in Azure SQL, das die einzige Datenquelle für das Power EDT KPI-Management-Dashboard ist. Die Daten werden durch Azure ADF pipelines und die Stored Procedures in verschiedenen Azure SQL-Tabellen gespeichert. Das EDT-KPI-Dashboard verwendet die Views in Azure SQL DB für KPIs sowie Finanz, HR, Netzwerk, Website-Verfügbarkeit und andere wichtige KPIs.
Aufgaben:
Betrieb, Administration und weitere Entwicklung des EDT-KPI-Dashboards
Erstellung von Measures mit DAX (Data Analysis Expression) in Power BI Report . Umsetzung von RLS (Row Level Security) in Power BI Report
Erstellung von Power BI Reports & Dashboards zum Monitoring des AEM Platform Operations
Projektbeschreibung
Projekt bei einem großen Energieversorger. Planung, Entwicklung und Implementierung eine zentrale Azure SQL Datenbank als eine einheitliche Datenquelle für die Power BI Reports. Entwicklung der ETL-Pipelines. Design, Entwicklung und Umsetzung der Power BI Reports und Dashboards zum Monitoring des AEM Platform Operations mit 85 AEM-Webseiten.
Der Platform Operation Report ist ein zentrales Reporting, das wichtige Kennzahlen wie die Anzahl der Web-Requests, die Verfügbarkeit der Webseiten, Anzahl der Releases, Anzahl der JiraIssues und die Code Qualität der veröffentlichten Webseiten zeigt. Im AEM Solution Report wurde die Sicherheit auf Zeilenebene (rowlevel security; RLS) verwendet um den Datenzugriff bestimmter Benutzer einzuschränken. Rollen und Regeln wurden in Power BI Desktop definiert.
Der Website Availability Report für den Vorstand und das Top Management zeigt die Verfügbarkeit der Webseiten, Web-Traffic und wichtige KPIs auf Basis der Daten aus Monitis Monitoring und Splunk. Die Verfügbarkeit der Webseiten werden durch Rest API, Logic APPs, Azure Data Factory Pipeline von Monitis in Azure SQL DB importiert. Die Monitis Uptime Daten werden jede Minute und Monitis Full Page load time in einem Zeitintervall von 5 Minuten in Azure SQL DB übertragen. Die Website-Traffic-Daten werden täglich von Splunk nach Azure SQL DB importiert. Der Website Availability Report wird alle 5 Minuten aktualisiert und ist per Mobile und Desktop verfügbar.
Jede Website wird durch Monitis von zwei Locations überwacht. Die Verfügbarkeit der Webseiten wurde nach SLA kalkuliert, z.B. wenn eine Website innerhalb 5 Minuten von zwei Locations 2 Mals hintereinander down war, dann ist es ein Ausfall. Die ETL-Prozesse übertragen die Daten von Monitis Monitoring, Jira, Splunk und Sonar in eine Azure SQL-Datenbank. Die Daten aus verschiedenen Datenquellen werden durch die Rest-API, Logic Apps, Webhook, Azure Data Factory Pipelines, SQL Stored Procedure und Power Apps in Stage-, Dim- und Fact-Tabellen in der Azure SQLDatenbank importiert. Die zentrale Azure SQL Datenbank ist eine einheitliche Datenquelle für die Power BI Reports. Die Solution beinhaltet über 30 Mio. Datensätzen in einer Tabelle.
Tätigkeiten
Design, Entwicklung und Umsetzung von Power BI-Reports & Dashboards mit den Daten aus SAP BW und Dynamics CRM
Projektbeschreibung
Projekt bei einem großen Chemieunternehmen. Umsetzung eine Reporting-Lösung auf Basis von Power BI mit dem Daten aus dem SAP BW und Dynamics 365. Design, Entwicklung und Umsetzung eines Data Warehouses. Entwicklung und Bereitstellung des tabellarischen Modells auf die Azure Analysis Services.
Entwicklung und Umsetzung der verschiedenen Reports und Dashboards wie 360 ° Customer View.
Die Power BI Reporting Solution besteht aus der on-Premises Umgebung und der Azure-Umgebung. Die BI-Lösung kombiniert die Dynamics 365-Daten und die SAP BW-Daten in einem zentra- len Datawarehouse.
Die Daten werden durch SAP Open Hub Services aus dem SAP BW in on-premises MS SQL Datenbank Exportieren.
Die Daten aus CRM 365 werden durch des CRM Data Export Services in eine SQL Azure Datenbank repliziert.
Die CRM- Daten werden durch Azure Data Factory aus der Azure SQL Dantenbank in die on-premises SQL Datenbank exportiert. Die Daten aus dem zentralen Datawarehouse sind in tabellari- schen Modellen importiert worden. Die dynamische Sicherheit auf Zeilenebene und Sicherheit auf Spaltenebene (CLS) wurden in Azure Analysis Services tabellarischen Modellen umgesetzt und bereitgestellt. Azure Analysis Services Datenbanken sind eine einheitliche Datenquelle für die Power BI-Berichte.
Aufgaben:
Die Entwicklung und Umsetzung von Power BI Report und Dashboard für Unternehmensabteilungen sowie Finanz und Vertriebscontrolling.
Aufgaben:
Erstellung von Proof of Concept für Umsetzung eines Self Service BI Reporting Systems auf Basis MS Power BI on-premises und MS SQL Server.
Aufgaben:
Entwicklung und Umsetzung Hybrid cloudbasierte BI für das Reporting, Predictive Analytics, die Technische Analyse, und das Kurspotenzial der Aktien. Das Projekt beinhaltet den Aufbau eines Data Warehouses für Sammlung, Auswertung und Darstellung der Daten für das Reporting und zur Prognose der Aktien. Die Umsetzung des User Interface erfolgt mit Microsoft Power BI, SQL Server Reporting Services. Die Softwarelösung basiert auf MS SQL Server 2016, SSIS, SSRS, SSAS, Microsoft Power BI, Microsoft Azure und Verwendung von RFunktionen mit SQL Server-Daten für statistische Berechnungen und Predictive Analytics.
Aufgaben:
Projekt bei einem der größten Wirtschaftsprüfer-Konzern.
Betrieb, Administration und Optimierung von Data Analytics & Data Assurance Applikationen auf Basis von QlikView und Microsoft .NET.
Die digitale Data Analytics & Data Assurance Applikation bietet den Wirtschaftsprüfer umfassenden Unterstützung bei der Identifikation von Prüfungsschwerpunkten, der Durchführung von System- und Prozessprüfungen.
Die QlikView Production-Umgebung besteht aus zwei QlikView Server Cluster (jedes Cluster 4 Knoten), ein QlikView Publisher Cluster mit 2 Knoten, zwei Webserver, ein File-Server und SAN Storage.
Die QlikView Staging-Umgebung besteht aus zwei QlikView Server Cluster (jedes Cluster 2 Knoten), ein QlikView Publisher Cluster mit 2 Knoten, zwei Webserver, ein File Server und SAN Storage.
Aufgaben:
Unterstützung beim Aufsetzen einer Klonfunktion, die es ermöglicht, SharePoint Daten in Jahresscheiben zu duplizieren.
Aufgaben:
Unterstützung bei der Erstellung eines Betriebskonzepts für den Betrieb von Oracle Exadata, Exalogics und ZFS Appliance.
Aufgaben:
Das Testen von Applikationen und die anschließende Fehlerbehebung im PMS-Projekt (Patient Management System).
Aufgaben:
Projekt bei einem der größten Verkehrsunternehmen in Europa. Anforderungsmanagement, Konzeption und Neuentwicklung einer eCommerce Webanwendung für den Fahrkartenverkauf (Mobil, App und Web Portal).
Aufgaben:
Projekt bei einem der größten Pharmaunternehmen. Aufbau eines ETL- Systems und eine Controlling-Applikation zur Verarbeitung der gemeldeten Anzahl der ausgeführten Aktivitäten auf den klinischen Diagnosegeräten zur Bereitstellung der Daten für die Rechnungsstellung. Die Lösung stellt sicher, dass die Daten aus der installierten Instrumente bei Kunden vollständig, richtig auf Konto, Vertrags-und Abrechnungsdaten zugeordnet sind und erzeugt richtigen Output-Dateien, die für die Rechnungsstellung in dem SAP-System importiert werden.
Für die Überwachung und Konfiguration des Aufbereitungsprozesses wird ein User Interface bereitgestellt. Die Umsetzung des User Interface erfolgt mit .NET, MVC, Kendo UI. Die End-User können damit in den Verarbeitungsprozess eingreifen und durch die Konfiguration Verarbeitungsfehler beseitigen.
Aufgaben:
Erstellung eines ETL Demos für Implementierung von Business Rules mit Informatica PowerCenter.
Aufgaben:
Elektronischen Projektabschlussmeldung & Betriebsführungshandbuch für die Installation von SharePoint Server 2010
Projektbeschreibung
Migration und Neuentwicklung einer bestehenden Business-Anwendung zur Verwaltung von Projektabschlussmeldungen. Projektstammdaten werden regelmäßig aus SAP importiert, ergänzt und anschließend in Form von Abschluss- und Monitoring berichten ausgegeben. Die technische Plattform hierzu bildet SharePoint 2010 Server.
Aufgaben:
Neckermann.de GmbH war eines der größten Versandhandels-unternehmen in Europa. Das Sortiment bestand aus über 700.000 Artikeln aus den Segmenten Mode, Haushalt, Spielzeug und Technik. Über 150 Vertriebspartner bieten ihr Produktportfolio im neckermann.de Online−Shop an.
Das IT-System umfasst den Austausch von Massendaten zwischen SAP MDM, Middleware ESB, Master-Datenbank, E-Shop, IBM WebSphere MQ, DB2, IBM-IMS und Externer Vertriebspartner.
Betrieb, Überwachung und Entstörung der Online-Shops, ins-besondere ETL und der Middleware-Komponenten basierend auf IBM WebSphere.
Aufgaben:
Projekt bei einem der größten Telekommunikationsunternehmen in Europa. Das Projekt beinhaltet den Aufbau eines Data Warehouses für verschiedene Online Portale wie Video, Software und Game-Downloads, Marketing Automation, Sammlung, Auswertung und Darstellung elektronischer Daten, sowie SAS Digital Marketing (Software für Versand von digitalen Multimedia-Nachrichten).
Das System ermöglicht die Erfassung der Daten aller einzelnen Business Partner, die Etablierung eines Kampagnen-Management-Tools und Reporting Tools und Erstellung einer Grundlage für zukünftigen Analytischen CRM.
Die DWH-Architektur besteht aus Input Layer, Staging Layer, Core Layer und Business Layer.
Die transformierten, konsolidierten Daten werden in den Dimensions- und Faktentabellen des Core Layer persistent, historisiert und gespeichert. Die BI-Komponenten umfassen SAS und OBI. Die Daten im DWH werden für Kampagnenmanagement und Analytisches CRM in der SAS-Komponente und Berichterstattung von Oracle BI-Suite verwendet. Die Aktivitäten Kampagnenmanagement und Analytisches CRM finden in der SAS-Komponente (SAS Data-Mart) statt.
Aufgaben:
Erstellung eines technischen Angebots für Industrialisierung und die Verbesserung eines vorhandenen Database Framework-Prototype.
Aufgaben:
Aufbau einer Intranet-Applikation für Reporting und Analyse von XML-Dokumenten.
Aufgaben:
Aufbau eines Business Intelligence-Portals zum Demo
Aufgaben:
Information Management. Optimierung der BT GTM- (Global Telecom Market) Informationssysteme. Design, Entwicklung, Rollout und Betrieb eines neuen BI-Portals. Abschaltung der alten Voice Applikation mit gleichzeitiger Migration der Voice Applikation auf das neu entwickelte BI-Portal über das die wichtigen Kenndaten wie bspw. tägliche, wöchentliche, monatliche und jährlich übertragene Voice Volumina (Mobile und Festnetz) sowie Umsatz jeden Netzwerk-Anbieter und auch länderübergreifende Voice-Verkehrsflüsse und Umsatzzahlen analysiert und optimiert werden können.
Aufgaben:
Sicherstellung der Verfügbarkeit der Datenbank, des Web- und SQL-Servers und Verbesserung des Online-Systems
Aufgaben:
Erstellung einer Kollaboration- und Dokumentenmanagement-Lösung für Dokumente im Bereich Civil Engineering
Aufgaben:
Design und Aufbau von Avanade Intranet-Seiten.
Aufgaben:
Freiberuflicher IT-Berater (Azure Data Engineer, BI , DWH)
Kernkompetenzen
Framework /Tools
Azure Data Studio, SQL Server Management Studio
SAP-HANA-Tools on Eclipse
Database Tools
E-Commerce / Handel
Finanzdienstleistungen
Informationstechnologie & -dienste, Online-Stellenbörse
IT / Internet
IT-Dienstleister / Rechenzentrum
Pharma & Health Care
Transport / Logistik
Telekommunikation / Mobilfunk
Banken
Energie
Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.