- Entwicklung und Optimierung von Datenpipelines mit Python und PySpark
- Unterstützung bei der technischen Betreuung unserer Databricks-Plattform
- Erstellung von Visualisierungen und Dashboards mit Tableau
- Durchführung von explorativen Datenanalysen und statistischen Auswertungen
- Unterstützung bei der Feature Engineering und Datenvorverarbeitung
- Mitwirkung an Data Governance- und Clean Data-Initiativen
- Unterstützung bei der Umsetzung von Data Awareness-Maßnahmen
- Dokumentation technischer Prozesse und Analyseergebnisse
- Erste Erfahrung mit Python, PySpark und idealerweise Databricks
- Kenntnisse in Tableau oder vergleichbaren BI-Tools
- Interesse an Data Science, Machine Learning und Big Data
- Analytisches Denken, technisches Verständnis und eine strukturierte Arbeitsweise
- Sehr gute Deutsch- und Englischkenntnisse