Standplaats: ROTTERDAM
Duur: 01-02-2025 - 31-12-2025
Optie tot verlenging: Ja
Reageren voor: 17-01-2025
Project:
Specifieke kennis/ervaring:
Aantoonbare ervaring in het strategisch meedenken en opzetten en onderhouden van Data Lakehouse-oplossingen en Data Warehouses. Ervaring met Databricks is een pre.
Expertise in het ontwerpen van (deel)oplossingen voor bijvoorbeeld ingestion, verwerking en opslag van batch en streaming data.
Minimaal 7 jaar ervaring in het ontwerpen en ontwikkelen van dataplatforms met bijvoorbeeld: Go, SQL, Spark en eventueel Python
Uitgebreide kennis van Kubernetes, containerized workflows en microservices-architecturen.
Ervaring met ontwikkeling van digitale producten (c.q. Agile software development)
Ervaring met GitOps en Argo Workflows is een pluspunt.
Ervaring met Lineage, monitoring en dashboarding, bij voorkeur in Marquez, Grafana en Prometheus.
Ervaring met cloudgebaseerde ontwikkeling, bij voorkeur in Azure.
Ervaring met het ontwerpen en oplossen van problemen rondom network connectivity is een pluspunt.
Diepgaande ervaring met Infrastructure as Code; kennis van Terraform is gewenst.
Bekendheid met Data Build Tool (dbt) voor data transformaties is een pre.
Ervaring met Site Reliability Engineering (SRE) is een pre.
Vloeiend in Nederlands is een pre, maar goede beheersing van Engels is ook mogelijk.
Affiniteit met logistieke ketens en/of nautische dienstverlening is een pluspunt.
Data Technologies & Innovation Services (DTIS) Team
Het Data Technologies & Innovation Services (DTIS) team werkt er dagelijks aan om alle data ambities mogelijk maken. Zowel voor Data Scientists, Data Analysts en applicaties die gebruik maken van data. Het team bouwt met verschillende open source technieken aan een Data & Analytics Platform in Azure als centraal punt om verschillende use cases voor het runnen van een haven samen te brengen. Het team heeft een brede Data & Platform Engineering basis en richt zich op het ter beschikking stellen van tooling voor self-service Data Engineering, Science en Analytics. Om onze data capabilities te vergroten is het team bezig om oplossingen neer te zetten voor het delen van data met de buitenwereld, het integreren van GIS en Data Science tooling en verder het kunnen faciliteren van streaming analytics.
Functieomschrijving
Rol
Om onze data capabilities te vergroten is het team bezig om oplossingen neer te zetten voor het delen van data met de buitenwereld, het integreren van GIS en Data Science tooling en verder het kunnen faciliteren van streaming analytics.
Verantwoordelijkheden
In deze rol ben je verantwoordelijk voor het ontwerpen, verbeteren en uitbreiden van de data capabilities die ons platform biedt.
Vereisten
Technische vaardigheden
• Diepgaande kennis van Data Lakehouse-oplossingen
• Ervaring met Kubernetes, GitOps, Observability en CI/CD binnen een (Azure) cloudomgeving
• Ontwikkelervaring in Go, Spark en SQL
• Goed thuis in Infrastructure as Code, bij voorkeur met Terraform
• Bekendheid met Databricks is een pré
• Security en compliance mindset
Solution Architect verantwoordelijkheden
Als Solution Architect help je business requirements vertalen naar functionele en technische oplossingen. Je zorgt ervoor dat de architectuur aansluit bij de strategische doelen van de organisatie en stemt af met collega's over architecturale principes. Daarnaast ondersteun je het team bij het leveren van hoogwaardige oplossingen en ben je zowel een mentor als een sparringpartner voor je collega-engineers. Je staat open voor feedback en streeft samen naar continue verbetering.
Functie-eisen:
Kandidaat heeft minimaal 7 jaar ervaring als ontwikkelaar in bijv. Go, SQL, Spark en evt. Python
Aantoonbare ervaring in het strategisch meedenken en opzetten en onderhouden van Data Lakehouse-oplossingen en Data Warehouses.
Expertise in het ontwerpen van (deel)oplossingen voor bijvoorbeeld ingestion, verwerking en opslag van batch en streaming data.
Kandidaat heeft aantoonbare ervaring met Kubernetes, containerized workflows en microservices
Kandidaat heeft aantoonbare ervaring met het opzetten en onderhouden van Data Lakes en Warehouses
Kandidaat heeft ervaring in het ontwerpen van (deel)oplossingen voor bijvoorbeeld ingestion, verwerking en opslag van batch en streaming data.
Kandidaat heeft ervaring met ontwikkelen in een cloud platform
Kandidaat heeft aantoonbare ervaring met ontwikkeling van digitale producten (c.q. Agile software development)
Kandidaat heeft ervaring met het gebruik van Infrastructure as Code
Kandidaat heeft aantoonbare ervaring met Lineage, monitoring en dashboarding, bij voorkeur in Marquez, Grafana en Prometheus.
Kandidaat heeft een goede beheersing van de Nederlandse en/of Engelse taal in woord en geschrift
Kandidaat is op de hoogte gesteld van het screeningsproces van HbR (voor aanvullende informatie zie tekst veld arbeidsvoorwaarden)
Inschrijvingen waarin een ZZP'er wordt aangeboden (zowel rechtstreeks als via een tussenpartij) komen niet in aanmerking
Wensen:
Kandidaat heeft een afgeronde HBO/WO opleiding
Ervaring met Databricks is een pre
Ervaring met GitOps en Argo Workflows is een pre
Ervaring met Azure is een pre
Ervaring met het opzetten en debuggen van network connectivity is een pre
Ervaring met Terraform is een pre
Ervaring met Data Build Tool (dbt) is een pre
Ervaring met Site Reliability Engineering is een pre
Kandidaat is beschikbaar voor een digitaal kennismakingsgesprek op 22 januari tussen 15.00u
- 17.00u of 23 januari tussen 15.00u
- 17.00u.