Entwicklung und Implementierung von ETL/ELT-Pipelines zur Extraktion, Transformation und Speicherung von Daten aus Quellen wie SharePoint, Confluence oder anderen Unternehmenssystemen, Aufbau und Optimierung eines zentralen Data Lakes oder Data Warehouses für strukturierte und unstrukturierte Daten, Sicherstellung von Datenqualität, Governance und Compliance (z. B. GDPR, EU AI Act) durch Validierung, Anonymisierung und Verschlüsselung, Zusammenarbeit mit ML Scientists, um Daten für Modelltraining bereitzustellen, Automatisierung von Datenprozessen z. B. mithilfe von Tools wie Apache Airflow, Spark oder Flink