Konzeption und Entwicklung von ETL/ELT-Pipelines (z. B. auf Databricks, Fabric, Snowflake) sowie Implementierung skalierbarer Datenarchitekturen in Cloud-Umgebungen (Azure, AWS)., Entwicklung leistungsstarker und skalierbarer Datenmodelle sowie Definition effizienter Datenstrukturen für Analysen und Berichte., Sicherstellung der Datenqualität durch Automatisierung, Monitoring und kontinuierliche Optimierung., Enge Abstimmung mit Fachbereichen zur Umsetzung technischer Anforderungen in datengetriebene Lösungen., Erstellung aussagekräftiger Analysen und Dashboards mit Power BI oder Tableau zur Gewinnung geschäftsrelevanter Insights., Unterstützung der Fachabteilungen bei der Entwicklung fundierter Entscheidungsgrundlagen., Identifikation und Darstellung von Trends und Mustern in komplexen Datensätzen., Entwicklung und Training von ML-Modellen zur Lösung komplexer Probleme wie Vorhersagen und Optimierungen., Einsatz fortgeschrittener analytischer Methoden und statistischer Verfahren zur Beantwortung komplexer Fragestellungen., Enge Zusammenarbeit mit Data Engineers, Analysten und MLOps-Teams, um Modelle effizient in Produktion zu bringen.