? MSSQL / Oracle:
Durchführung fortgeschrittener Entwicklung und Optimierungen in der Datenbanklandschaft, um bestehende Strukturen und Abfrageeffizienz zu verbessern. Verwendung von T-SQL für komplexe Datenmanipulation und Analyse, gepaart mit Tests zur Sicherstellung der Datenintegrität und -qualität.
? ETL:
Entwurf und Implementierung robuster ETL-Pipelines unter Verwendung von Talend, SSIS und Python, um Daten aus verschiedenen Quellen zu extrahieren, zu transformieren und in Oracle- und MS SQL-Datenbanken zu laden.
? AWS:
Verantwortlich für die Migration von On-Premise-Workloads in die AWS-Cloud unter Verwendung von Cloud-Technologien wie Amazon Relational Database Service (RDS) und S3-Storage.
? Zabbix, Tableau:
Implementierung eines Überwachungssystems für die ETL-Prozesse und Datenbankinfrastruktur unter Einsatz von Zabbix und Tableau. Konfiguration und Wartung, unterstützt durch regelmäßiges Reporting in Tableau und Jira / Confluence.
? Git, Jira:
Verbesserung der Entwicklungs- und Deployment-Prozesse, um die Einführung neuer Features zu beschleunigen. Nutzung von Scrum-Methodiken zur effizienten Koordination und Umsetzung.
? Docker & Kubernetes:
Einsatz von Container-Technologien und Orchestrierungswerkzeugen zur effizienten Verwaltung und Skalierung von Softwareanwendungen.
Technologien/Tools
? MS SQL Server ? Oracle ? AWS ? ETL ? Talend ? SSIS ? (T)-SQL ? Python ? C# ? Docker ? Kubernetes ? Tableau ? Power BI ? Jira/Confluence ? CI/CD ? Git ? Zabbix
? TTS-Technologien:
Entwicklung und Erforschung fortschrittlicher TTS-Systeme für eine klare und natürliche Sprachausgabe. Umsetzung innovativer Ansätze zur Verbesserung der Verständlichkeit und Natürlichkeit der erzeugten Sprache.
? Python & PyTorch:
Verwendung von Python und PyTorch für die Entwicklung und das Training von TTS-Modellen.
? Python & Jupyter:
Einsatz von Python und Jupyter-Notebooks zur Steigerung der Effizienz von Datenverarbeitungs- und Verwaltungsprozessen durch Automatisierung dieser.
? Huggingface & NLP:
Verwendung von vortrainierten NLP-Modellen von Huggingface zur Erweiterung und Verbesserung der TTS-Modelle.
? C#, JavaScript & WPF:
Entwicklung mehrerer Benutzeroberfläche für die TTS-Anwendung als Desktop-App mit C# unter Verwendung von WPF und einer Webapp.
? ONNX Runtime:
Verwendung der ONNX Runtime zur Optimierung der Ausführungszeiten der TTS-Modelle.
Technologien/Tools
? Python ? PyTorch ? NumPy ? TTS ? Jupyter ? Huggingface ? C# ? Javascript ? WPF ? ONNX ? SQLite ? Git ? Unit Tests
Tätigkeit
? Elastic Stack:
Entwurf und Entwicklung von Datenmodellen in Elastic Search. Implementierung von Datenübertragungslösungen mit Elastic-nativen Tools wie Beats und Logstash, um eine nahtlose und effiziente Datenintegration zu gewährleisten. Datenvisualisierung mit Kibana zur Visualisierung von Datensätzen, Erstellung von benutzerfreundlichen Dashboards.
? ETL:
Integration von ETL-Pipelines mit Apache Airflow und Python zur Verarbeitung verschiedener Datenquellen und Datenformate.
? Redis:
Implementierung eines Redis-basierten Message Brokers für die Kommunikation und Synchronisation zwischen verschiedenen Systemkomponenten.
? FastAPI:
Design und Implementierung von REST APIs mit FastAPI, Schwerpunkt auf Integration und Kommunikation zwischen heterogenen Systemen.
? Python & Jupyter:
Einsatz von Python und Jupyter-Notebooks zur Steigerung der Effizienz von Datenverarbeitungs- und Verwaltungsprozessen durch Automatisierung dieser.
? scikit-learn, Transformers:
Einsatz von KI-gestützten Datenanalysemethoden unter Verwendung von sklearn und transformers in Python. Fokus auf Mustererkennung und Klassifizierung dieser in Gruppen.
? Docker & Kubernetes:
Einsatz von Container-Technologien und Orchestrierungswerkzeugen zur effizienten Verwaltung und Skalierung von Softwareanwendungen.
Technologien/Tools
? Elastic Search ? ETL ? Apache Airflow ? Redis ? Elastic Stack ? Elastic Search ? Beats ? Logstash
? Kibana ? Python ? Jupyter ? REST ? FastAPI ? AI ? scikit-learn ? Transformers ? Jira/Confluence
? Git ? Docker
Tätigkeit
? PyTorch & Huggingface:
Verwendung von PyTorch zum Entwickeln und Trainieren von Modellen für maschinelles Lernen, insbesondere für die Verarbeitung natürlicher Sprache und das Verstehen von Benutzeranfragen. Verwendung von Huggingface-Tools, einschließlich der Integration von vortrainierten Modellen.
? LLM (Large Language Models):
Integration von großen Sprachmodellen (Large Language Models), um komplexe Benutzeranfragen zu verstehen und zu reagieren, insbesondere in Notfallsituationen.
? NLP (Natural Language Processing)
Untersuchung und Implementierung verschiedener NLP-Frameworks wie Rasa, Dialogflow oder IBM Watson zur Analyse, zum Verständnis und zur Verarbeitung menschlicher Sprache, um eine genaue und effektive Kommunikation mit den Benutzern zu ermöglichen.
? FastAPI:
Entwicklung einer Schnittstelle mit FastAPI für den Chatbot, um eine schnelle, skalierbare und wartbare API-Bereitstellung der NLP-Modelle zu gewährleisten.
? Unit Tests:
Durchführung umfassender Unit-Tests, um die Zuverlässigkeit und Funktionalität aller Komponenten des Chatbots sicherzustellen.
? Kubernetes:
Einsatz von Kubernetes für die Orchestrierung und das Management der Anwendungen.
Technologien/Tools
? Python ? PyTorch ? Jupyter ? LLM ? NLP ? Rasa ? Dialogflow ? IBM Watson ? Huggingface
? Elastic Search ? FastAPI ? Unit Tests ? Kubernetes ? Git
Tätigkeit
? PyTorch & TensorFlow:
Verwendung von PyTorch und TensorFlow für die Entwicklung und das Training von Deep-Learning-Modellen. Speziell für Spracherkennung (ASR), natürliche Sprachverarbeitung (NLP) und Text-to-Speech (TTS).
? DeepSpeech & Kaldi:
Erforschung und Implementierung von Spracherkennungsmodellen mit DeepSpeech und Kaldi zur Verbesserung der Transkriptionsgenauigkeit von Nutzeranfragen, insbesondere für den Bereich Ambient Assisted Living.
? Rasa:
Entwicklung von NLP-Komponenten mit Rasa zum Verstehen und Verarbeiten von Benutzeranfragen, einschließlich der Gestaltung von Dialogabläufen und Integration in den Sprachassistenten.
? Nvidia Jetson:
Nutzung der Nvidia Jetson-Plattform für Edge-Computing-Anwendungen, um eine schnelle und lokale Verarbeitung von Sprachdaten zu ermöglichen und die Reaktionszeit des Assistenten zu verbessern.
? Eingebettete Systeme & IoT:
Integration des Sprachassistenten in eingebettete Systeme und IoT-Geräte im Bereich des betreuten Wohnens, um eine nahtlose Interaktion und Konnektivität zu gewährleisten.
Technologien/Tools
? Python ? PyTorch ? TensorFlow ? Jupyter ? DeepSpeech ? Kaldi ? Rasa ? NLP ? ASR ? TTS
? Nvidia Jetson ? Unit Tests ? Docker ? Git ? Eingebettete Systeme ? IoT
Tätigkeit
? Apache Kafka:
Integration von Apache Kafka zur Optimierung der Echtzeit-Datenverarbeitung und -Kommunikation. Nutzung der Streaming-Funktionen von Kafka zum Aufbau einer robusten und skalierbaren Dateninfrastruktur.
? Java:
Entwurf und Implementierung von spezifischen Kafka-Konnektoren in Java für die Integration neuer Datenquellen. Entwicklung von Kafka-Streams mit Schwerpunkt auf der Echtzeitverarbeitung und Speicherung von E-Commerce-Daten in PostgreSQL- und MSSQL-Datenbanken.
? Debezium:
Einsatz von Debezium in Verbindung mit Apache Kafka zum Aufbau einer zuverlässigen Datenpipeline für die Datenreplikation und -synchronisation, unterstützt durch kontinuierliche Change Data Capture (CDC) Mechanismen.
? ETL:
Entwicklung und Optimierung von ETL-Prozessen mittels SSIS zur Gewährleistung einer effizienten Datenextraktion, -transformation und -ladung.
? Unit Tests:
? Durchführung von Testautomatisierung mit JUnit und Pytest zur Sicherstellung der Softwarequalität und zur Reduzierung von Fehlern in der Entwicklungsphase.
? Python:
Entwicklung von Skripten in Python zur Automatisierung von wiederkehrenden Aufgaben und Prozessen, insbesondere im Zusammenhang mit der Datenverwaltung und Systempflege.
? Docker & Kubernetes:
Einsatz von Container-Technologien und Orchestrierungswerkzeugen zur effizienten Verwaltung und Skalierung von Softwareanwendungen.
Technologien/Tools
? Apache Kafka ? PostgreSQL ? MSSQL ? Debezium ? Python ? SQL ? Redis ? JUnit Tests ? ETL
? SSIS ? Java ? Jira/Confluence ? CI/CD ? Docker ? Kubernetes ? E-Commerce
Tätigkeit
Tätigkeit
? Datenmodellierung:
Entwurf und Implementierung eines maßgeschneiderten Datenmodells, das speziell auf die Analyseanforderungen des E-Commerce-Kunden zugeschnitten ist. Fokus auf optimierte Datenmodellierungsmethoden, um Effizienz und Skalierbarkeit der Datenverarbeitung und -analyse zu gewährleisten.
? ETL:
Entwurf und Implementierung von ETL-Pipelines unter Verwendung von SQL Server Integration Services (SSIS) zur effizienten Datenkonsolidierung und -aufbereitung. Entwicklung von Berechnungsmethoden für umfassende statistische Datenanalysen und Berichte.
? Grafana, Tableau:
Erstellung von aussagekräftigen Datenvisualisierungen zur Darstellung von Trends und Analysen. Verwendung von Grafana und Tableau für interaktive Dashboards und Berichte, um Erkenntnisse verständlich und zugänglich zu machen.
? Docker:
Einsatz von Container-Technologien zur effizienten Verwaltung von Softwareanwendungen.
Technologien/Tools
? SQL ? MSSQL ? SSIS ? Grafana ? Tableau ? Docker ? JTL ? E-Commerce
Tätigkeit
? VMware:
Entwicklung und Implementierung einer virtuellen Infrastruktur an verschiedenen Standorten. Verantwortlich für die kontinuierliche Wartung und Optimierung dieser Systeme.
? ETL:
Integration und Verwaltung von ETL-Pipelines für die Konsolidierung und Homogenisierung heterogener Datenquellen. Umfassende Nutzung von SSIS (SQL Server Integration Services) für eine effiziente Datenverarbeitung.
? Rundeck, Ansible:
Entwicklung und Umsetzung von Automatisierungsstrategien für IT-Infrastrukturprozesse. Erstellung von Skripten in Python, Bash und PowerShell zur Ausführung in RunDeck. Orchestrierung und Konfigurationsmanagement von virtuellen Betriebssystemen mit Ansible.
? Python, C#:
Entwicklung von Skripten und Anwendungen zur Unterstützung, Automatisierung und Überwachung der IT-Infrastruktur. Einsatz von Python und C# zur Optimierung betrieblicher Abläufe.
? Zabbix:
Integration und Konfiguration von Zabbix zur umfassenden Überwachung der IT-Landschaft. Sicherstellung der Systemverfügbarkeit und Leistungsüberwachung.
? Docker:
Einsatz von Container-Technologien zur effizienten Verwaltung von Softwareanwendungen.
Technologien/Tools
? Python? C# ? ETL ? SSIS ? Power BI ? MSSQL ? MySQL ? VMware ESX ? Ansible ? RunDeck ? Git ? Docker ? Zabbix
Software Entwicklung
? MSSQL / Oracle:
Durchführung fortgeschrittener Entwicklung und Optimierungen in der Datenbanklandschaft, um bestehende Strukturen und Abfrageeffizienz zu verbessern. Verwendung von T-SQL für komplexe Datenmanipulation und Analyse, gepaart mit Tests zur Sicherstellung der Datenintegrität und -qualität.
? ETL:
Entwurf und Implementierung robuster ETL-Pipelines unter Verwendung von Talend, SSIS und Python, um Daten aus verschiedenen Quellen zu extrahieren, zu transformieren und in Oracle- und MS SQL-Datenbanken zu laden.
? AWS:
Verantwortlich für die Migration von On-Premise-Workloads in die AWS-Cloud unter Verwendung von Cloud-Technologien wie Amazon Relational Database Service (RDS) und S3-Storage.
? Zabbix, Tableau:
Implementierung eines Überwachungssystems für die ETL-Prozesse und Datenbankinfrastruktur unter Einsatz von Zabbix und Tableau. Konfiguration und Wartung, unterstützt durch regelmäßiges Reporting in Tableau und Jira / Confluence.
? Git, Jira:
Verbesserung der Entwicklungs- und Deployment-Prozesse, um die Einführung neuer Features zu beschleunigen. Nutzung von Scrum-Methodiken zur effizienten Koordination und Umsetzung.
? Docker & Kubernetes:
Einsatz von Container-Technologien und Orchestrierungswerkzeugen zur effizienten Verwaltung und Skalierung von Softwareanwendungen.
Technologien/Tools
? MS SQL Server ? Oracle ? AWS ? ETL ? Talend ? SSIS ? (T)-SQL ? Python ? C# ? Docker ? Kubernetes ? Tableau ? Power BI ? Jira/Confluence ? CI/CD ? Git ? Zabbix
? TTS-Technologien:
Entwicklung und Erforschung fortschrittlicher TTS-Systeme für eine klare und natürliche Sprachausgabe. Umsetzung innovativer Ansätze zur Verbesserung der Verständlichkeit und Natürlichkeit der erzeugten Sprache.
? Python & PyTorch:
Verwendung von Python und PyTorch für die Entwicklung und das Training von TTS-Modellen.
? Python & Jupyter:
Einsatz von Python und Jupyter-Notebooks zur Steigerung der Effizienz von Datenverarbeitungs- und Verwaltungsprozessen durch Automatisierung dieser.
? Huggingface & NLP:
Verwendung von vortrainierten NLP-Modellen von Huggingface zur Erweiterung und Verbesserung der TTS-Modelle.
? C#, JavaScript & WPF:
Entwicklung mehrerer Benutzeroberfläche für die TTS-Anwendung als Desktop-App mit C# unter Verwendung von WPF und einer Webapp.
? ONNX Runtime:
Verwendung der ONNX Runtime zur Optimierung der Ausführungszeiten der TTS-Modelle.
Technologien/Tools
? Python ? PyTorch ? NumPy ? TTS ? Jupyter ? Huggingface ? C# ? Javascript ? WPF ? ONNX ? SQLite ? Git ? Unit Tests
Tätigkeit
? Elastic Stack:
Entwurf und Entwicklung von Datenmodellen in Elastic Search. Implementierung von Datenübertragungslösungen mit Elastic-nativen Tools wie Beats und Logstash, um eine nahtlose und effiziente Datenintegration zu gewährleisten. Datenvisualisierung mit Kibana zur Visualisierung von Datensätzen, Erstellung von benutzerfreundlichen Dashboards.
? ETL:
Integration von ETL-Pipelines mit Apache Airflow und Python zur Verarbeitung verschiedener Datenquellen und Datenformate.
? Redis:
Implementierung eines Redis-basierten Message Brokers für die Kommunikation und Synchronisation zwischen verschiedenen Systemkomponenten.
? FastAPI:
Design und Implementierung von REST APIs mit FastAPI, Schwerpunkt auf Integration und Kommunikation zwischen heterogenen Systemen.
? Python & Jupyter:
Einsatz von Python und Jupyter-Notebooks zur Steigerung der Effizienz von Datenverarbeitungs- und Verwaltungsprozessen durch Automatisierung dieser.
? scikit-learn, Transformers:
Einsatz von KI-gestützten Datenanalysemethoden unter Verwendung von sklearn und transformers in Python. Fokus auf Mustererkennung und Klassifizierung dieser in Gruppen.
? Docker & Kubernetes:
Einsatz von Container-Technologien und Orchestrierungswerkzeugen zur effizienten Verwaltung und Skalierung von Softwareanwendungen.
Technologien/Tools
? Elastic Search ? ETL ? Apache Airflow ? Redis ? Elastic Stack ? Elastic Search ? Beats ? Logstash
? Kibana ? Python ? Jupyter ? REST ? FastAPI ? AI ? scikit-learn ? Transformers ? Jira/Confluence
? Git ? Docker
Tätigkeit
? PyTorch & Huggingface:
Verwendung von PyTorch zum Entwickeln und Trainieren von Modellen für maschinelles Lernen, insbesondere für die Verarbeitung natürlicher Sprache und das Verstehen von Benutzeranfragen. Verwendung von Huggingface-Tools, einschließlich der Integration von vortrainierten Modellen.
? LLM (Large Language Models):
Integration von großen Sprachmodellen (Large Language Models), um komplexe Benutzeranfragen zu verstehen und zu reagieren, insbesondere in Notfallsituationen.
? NLP (Natural Language Processing)
Untersuchung und Implementierung verschiedener NLP-Frameworks wie Rasa, Dialogflow oder IBM Watson zur Analyse, zum Verständnis und zur Verarbeitung menschlicher Sprache, um eine genaue und effektive Kommunikation mit den Benutzern zu ermöglichen.
? FastAPI:
Entwicklung einer Schnittstelle mit FastAPI für den Chatbot, um eine schnelle, skalierbare und wartbare API-Bereitstellung der NLP-Modelle zu gewährleisten.
? Unit Tests:
Durchführung umfassender Unit-Tests, um die Zuverlässigkeit und Funktionalität aller Komponenten des Chatbots sicherzustellen.
? Kubernetes:
Einsatz von Kubernetes für die Orchestrierung und das Management der Anwendungen.
Technologien/Tools
? Python ? PyTorch ? Jupyter ? LLM ? NLP ? Rasa ? Dialogflow ? IBM Watson ? Huggingface
? Elastic Search ? FastAPI ? Unit Tests ? Kubernetes ? Git
Tätigkeit
? PyTorch & TensorFlow:
Verwendung von PyTorch und TensorFlow für die Entwicklung und das Training von Deep-Learning-Modellen. Speziell für Spracherkennung (ASR), natürliche Sprachverarbeitung (NLP) und Text-to-Speech (TTS).
? DeepSpeech & Kaldi:
Erforschung und Implementierung von Spracherkennungsmodellen mit DeepSpeech und Kaldi zur Verbesserung der Transkriptionsgenauigkeit von Nutzeranfragen, insbesondere für den Bereich Ambient Assisted Living.
? Rasa:
Entwicklung von NLP-Komponenten mit Rasa zum Verstehen und Verarbeiten von Benutzeranfragen, einschließlich der Gestaltung von Dialogabläufen und Integration in den Sprachassistenten.
? Nvidia Jetson:
Nutzung der Nvidia Jetson-Plattform für Edge-Computing-Anwendungen, um eine schnelle und lokale Verarbeitung von Sprachdaten zu ermöglichen und die Reaktionszeit des Assistenten zu verbessern.
? Eingebettete Systeme & IoT:
Integration des Sprachassistenten in eingebettete Systeme und IoT-Geräte im Bereich des betreuten Wohnens, um eine nahtlose Interaktion und Konnektivität zu gewährleisten.
Technologien/Tools
? Python ? PyTorch ? TensorFlow ? Jupyter ? DeepSpeech ? Kaldi ? Rasa ? NLP ? ASR ? TTS
? Nvidia Jetson ? Unit Tests ? Docker ? Git ? Eingebettete Systeme ? IoT
Tätigkeit
? Apache Kafka:
Integration von Apache Kafka zur Optimierung der Echtzeit-Datenverarbeitung und -Kommunikation. Nutzung der Streaming-Funktionen von Kafka zum Aufbau einer robusten und skalierbaren Dateninfrastruktur.
? Java:
Entwurf und Implementierung von spezifischen Kafka-Konnektoren in Java für die Integration neuer Datenquellen. Entwicklung von Kafka-Streams mit Schwerpunkt auf der Echtzeitverarbeitung und Speicherung von E-Commerce-Daten in PostgreSQL- und MSSQL-Datenbanken.
? Debezium:
Einsatz von Debezium in Verbindung mit Apache Kafka zum Aufbau einer zuverlässigen Datenpipeline für die Datenreplikation und -synchronisation, unterstützt durch kontinuierliche Change Data Capture (CDC) Mechanismen.
? ETL:
Entwicklung und Optimierung von ETL-Prozessen mittels SSIS zur Gewährleistung einer effizienten Datenextraktion, -transformation und -ladung.
? Unit Tests:
? Durchführung von Testautomatisierung mit JUnit und Pytest zur Sicherstellung der Softwarequalität und zur Reduzierung von Fehlern in der Entwicklungsphase.
? Python:
Entwicklung von Skripten in Python zur Automatisierung von wiederkehrenden Aufgaben und Prozessen, insbesondere im Zusammenhang mit der Datenverwaltung und Systempflege.
? Docker & Kubernetes:
Einsatz von Container-Technologien und Orchestrierungswerkzeugen zur effizienten Verwaltung und Skalierung von Softwareanwendungen.
Technologien/Tools
? Apache Kafka ? PostgreSQL ? MSSQL ? Debezium ? Python ? SQL ? Redis ? JUnit Tests ? ETL
? SSIS ? Java ? Jira/Confluence ? CI/CD ? Docker ? Kubernetes ? E-Commerce
Tätigkeit
Tätigkeit
? Datenmodellierung:
Entwurf und Implementierung eines maßgeschneiderten Datenmodells, das speziell auf die Analyseanforderungen des E-Commerce-Kunden zugeschnitten ist. Fokus auf optimierte Datenmodellierungsmethoden, um Effizienz und Skalierbarkeit der Datenverarbeitung und -analyse zu gewährleisten.
? ETL:
Entwurf und Implementierung von ETL-Pipelines unter Verwendung von SQL Server Integration Services (SSIS) zur effizienten Datenkonsolidierung und -aufbereitung. Entwicklung von Berechnungsmethoden für umfassende statistische Datenanalysen und Berichte.
? Grafana, Tableau:
Erstellung von aussagekräftigen Datenvisualisierungen zur Darstellung von Trends und Analysen. Verwendung von Grafana und Tableau für interaktive Dashboards und Berichte, um Erkenntnisse verständlich und zugänglich zu machen.
? Docker:
Einsatz von Container-Technologien zur effizienten Verwaltung von Softwareanwendungen.
Technologien/Tools
? SQL ? MSSQL ? SSIS ? Grafana ? Tableau ? Docker ? JTL ? E-Commerce
Tätigkeit
? VMware:
Entwicklung und Implementierung einer virtuellen Infrastruktur an verschiedenen Standorten. Verantwortlich für die kontinuierliche Wartung und Optimierung dieser Systeme.
? ETL:
Integration und Verwaltung von ETL-Pipelines für die Konsolidierung und Homogenisierung heterogener Datenquellen. Umfassende Nutzung von SSIS (SQL Server Integration Services) für eine effiziente Datenverarbeitung.
? Rundeck, Ansible:
Entwicklung und Umsetzung von Automatisierungsstrategien für IT-Infrastrukturprozesse. Erstellung von Skripten in Python, Bash und PowerShell zur Ausführung in RunDeck. Orchestrierung und Konfigurationsmanagement von virtuellen Betriebssystemen mit Ansible.
? Python, C#:
Entwicklung von Skripten und Anwendungen zur Unterstützung, Automatisierung und Überwachung der IT-Infrastruktur. Einsatz von Python und C# zur Optimierung betrieblicher Abläufe.
? Zabbix:
Integration und Konfiguration von Zabbix zur umfassenden Überwachung der IT-Landschaft. Sicherstellung der Systemverfügbarkeit und Leistungsüberwachung.
? Docker:
Einsatz von Container-Technologien zur effizienten Verwaltung von Softwareanwendungen.
Technologien/Tools
? Python? C# ? ETL ? SSIS ? Power BI ? MSSQL ? MySQL ? VMware ESX ? Ansible ? RunDeck ? Git ? Docker ? Zabbix
Software Entwicklung