- Du bist verantwortlich für den Betrieb und die Weiterentwicklung des Cloud Data Warehouse / Lakehouse als zentraler Baustein unserer Datenstrategie
- Du bearbeitest Komponenten entlang der gesamten Datenintegrations-Pipeline: von der Extraktion der Daten aus operativen Systemen und der Integration externer Data Provider, über Transformationen bis hin zur Speicherung
- Du entwickelst komplexe ETL- / ELT-Prozesse gemäß der Stakeholder-Anforderungen und integrierst Daten aus Quellsystemen mit Hilfe von gängigen ETL-Werkzeugen oder Programmiersprachen, z. B. T-SQL, Python, Spark, Synapse Analytics, etc.
- Du sicherst und erhöhst die Datenqualität durch die Konzeption automatisierter Datenanalysen sowie den Aufbau und die Integration in Prozesse (Datenqualitäts-Monitoring, Alerting)
- Du erstellst flexible, leicht wartbare Datenmodelle und arbeitest eng mit unseren Data Analysten zusammen, um die Daten für Analysen, Reports und andere Anwendungsfälle bereitzustellen.
## DU PASST ZU RMS, WENN:
- Du ein erfolgreich abgeschlossenes Studium in einem MINT-Fach oder eine vergleichbare abgeschlossene Ausbildung vorweisen kannst
- Du mindestens 2 Jahre Berufserfahrung im Bereich Data Engineering in der Cloud hast
- Du idealerweise über Kenntnisse der Azure Cloud oder sogar über eine Zertifizierung als Azure Data Engineer (DP-203) verfügst
- Du versiert bist in höheren Programmiersprachen (v.a. Python) sowie Kenntnisse in der Entwicklung und dem Betrieb von ETL- bzw. ELT-Strecken vorweisen kannst
- Du idealerweise über Kenntnisse mit DevOps Methoden wie CI/CD oder mit Infrastructure as Code (IaC) Tools wie Terraform verfügst
- Du ausgeprägte praktische Erfahrung im BI-Umfeld, z. B. bei der Integration und Aufbereitung von Daten mitbringst
- Dein Verantwortungsbewusstsein und Deine Kommunikationsstärke Dich auszeichnen und Du über sichere Deutschkenntnisse verfügst
- Du Spaß bei der Arbeit hast und eine Hands-on-Mentalität sowie Teamfähigkeit mitbringst, um unser Team tatkräftig zu unterstützen