IHRE AUFGABEN
- Ganzheitliche und kundenorientierte Bereitstellung von Datenprodukten durch die Planung, Entwicklung und den Betrieb von Systemen zur Hardware- und Datenintegration (End-to-end)
- Integration von Datenquellen und -systemen auf AWS für einen reibungslosen Datenfluss zwischen Systemen und Organisationseinheiten
- Entwicklung und Betrieb von ETL-Pipelines, die auf IoT und Cloud Technologien wie z.B. AWS IoT Core + Greengrass, AWS Glue, Amazon S3, Redshift und Amazon Lambda basieren
- Mitarbeit in der Data-Community, um Daten (Qualitäts-)Standards zu entwickeln, umzusetzen und unsere Kultur der kontinuierlichen Weiterentwicklung zur stärken
- Entwicklung von Tools und Automatisierung zur Verbesserung der Datenqualität, Reduktion von manuellen Eingriffen und Ausbau der Datenprodukte als Self-Service
- Sicherstellung der Datenübertragungssicherheit und -integrität unter Einhaltung von Datenschutz- und Compliance-Richtlinien für AWS
IHR PROFIL
- Abgeschlossenes Studium im Bereich Informatik, Ingenieurwissenschaften oder vergleichbare Erfahrung
- 3+ Jahre Erfahrung im Data Modeling, Warehousing und der Entwicklung von ETL Pipelines (idealerweise auf Basis von AWS)
- Breite Erfahrung im Einsatz von AWS-Services, insbesondere in der Hardware- und Datenintegration sowie in der Datenqualitätssicherung
- Erfahrung mit ETL-Tools wie Glue und anderen AWS-Services (z.B. S3, Lambda) für Pipelines und Technologien zur Realisierung von Lakehouse-Architekturen (z.B. Hadoop, Apache Spark, Apache Iceberg, Delta Lake or Apache Nifi)
- Kenntnisse in höheren Programmier- & Skriptsprachen (Python, Bash, PySpark) und Erfahrung mit Datenbanken (z.B. MySQL, PostgreSQL)
- Erfahrung mit IoT-Technologie und -Konnektivität (z.B. MQTT, OPC UA) sind von Vorteil
- Ausgezeichnete Fähigkeiten zur Analyse und Behebung von Problemen, insbesondere auf AWS-Systemen
- Erfahrung mit CI/CD-Pipelines und DevOps-Tools auf AWS (z.B. Jenkins, CodeDeploy, CodePipeline) sowie IaC (z.B. Terraform) von Vorteil