Diese Position wird im Rahmen einer **Direktvermittlung** angeboten. Das bedeutet, Sie schließen Ihren Arbeitsvertrag direkt mit unserem Kundenunternehmen ab und profitieren von einer unbefristeten Anstellung sowie attraktiven Konditionen in einem zukunftsorientierten Umfeld.
**Tätigkeitsbereich**
- Entwicklung und Wartung von Data-Pipelines für die Verarbeitung großer Datenmengen.
- Design und Implementierung von ETL-Prozessen (Extract, Transform, Load) zur Datenintegration.
- Optimierung der Datenverarbeitungsprozesse und Sicherstellung einer hohen Datenqualität.
- Verwaltung und Pflege von Datenbanken und Data Warehouses.
- Zusammenarbeit mit Data Scientists und Analyst*innen zur Bereitstellung von Daten für Analysen und Modelle.
- Entwicklung von Tools und Skripten zur Automatisierung von Datenverarbeitungsaufgaben.
- Sicherstellung der Datensicherheit und Einhaltung von Datenschutzvorgaben.
- Überwachung und Performance-Optimierung von Dateninfrastrukturen.
- Erstellung und Pflege von Dokumentationen zu Datenprozessen und -pipelines.
**Technologien**:
- Erfahrung mit Datenbanktechnologien wie SQL, NoSQL, und Big-Data-Systemen (z.B. Hadoop, Spark).
- Kenntnisse in der Programmierung mit Python, Java oder Scala zur Datenverarbeitung.
- Nutzung von Data-Warehousing-Technologien wie Amazon Redshift, Google BigQuery oder Snowflake.
- Arbeiten mit Cloud-Plattformen wie AWS, Azure oder Google Cloud.
- Erfahrung mit Data-Pipeline-Tools wie Apache Airflow oder Kafka.
- Kenntnisse in der Anwendung von Versionierungstools wie Git.
- Nutzung von Containerisierungstechnologien wie Docker und Kubernetes.
**Qualifikationen**
- Tiefgehendes Verständnis von Datenmodellen, -strukturen und -management.
- Erfahrung im Umgang mit großen und komplexen Datensätzen.
- Fähigkeit, effiziente und skalierbare Datenlösungen zu entwickeln.
- Grundlegendes Verständnis von maschinellem Lernen und der Rolle von Daten in analytischen Modellen.
- Kenntnisse in der Arbeit mit APIs zur Datenintegration und -verarbeitung.
- Erfahrung mit Datensicherheitsstandards und Datenschutzgesetzen.
**Erforderliche Soft Skills**:
- Analytisches und problemlösungsorientiertes Denken.
- Teamarbeit und gute Kommunikation, insbesondere mit Data Scientists und anderen Stakeholder*innen.
- Hohe Motivation zur kontinuierlichen Weiterbildung und Verbesserung der eigenen Fähigkeiten.
- Fähigkeit, komplexe technische Inhalte verständlich zu kommunizieren.
- Selbstständiges Arbeiten und Priorisierung von Aufgaben.
**Karrieremöglichkeiten und Weiterbildung**:
- Möglichkeit zur Spezialisierung auf bestimmte Technologien wie Cloud Engineering oder Data Science.
- Weiterentwicklung zu Senior Data Engineer*in oder Data Architect*in.
- Teilnahme an Fachkonferenzen und Weiterbildungsmaßnahmen im Bereich Data Engineering und Big Data.
Sollte diese Position nicht vollständig zu Ihrem Profil passen, freuen wir uns dennoch über Ihre **Initiativbewerbung**. Wir haben eine Vielzahl an offenen Stellen in unterschiedlichen Fachbereichen und prüfen gerne, ob wir Ihnen eine passende Position anbieten können.