POR SRQ142445. Havenbedrijf Rotterdam
Havenbedrijf Rotterdam is de drijfveer achter de vitale infrastructuur van Nederland en de grootste haven van Europa. Onze digitale ambitie is groot: wij willen de slimste haven ter wereld zijn! Wij zien een toekomst waarbij we gebruik maken van de nieuwste technologieën om onze operationele processen zeer flexibel en efficiënt te maken. Waar medewerkers van het Havenbedrijf kunnen excelleren en het Havenbedrijf met de beste IT kunnen ondersteunen.
Functiebeschrijving
Het Data Technologies & Innovation Services (DTIS) team werkt er dagelijks aan om alle data ambities mogelijk maken. Zowel voor Data Scientists, Data Analysts en applicaties die gebruik maken van data. Het team bouwt met verschillende open source technieken aan een Data & Analytics Platform in Azure als centraal punt om verschillende use cases voor het runnen van een haven samen te brengen. Het team heeft een brede Data & Platform Engineering basis en richt zich op het ter beschikking stellen van tooling voor self-service Data Engineering, Science en Analytics. Om onze data capabilities te vergroten is het team bezig om oplossingen neer te zetten voor het delen van data met de buitenwereld, het integreren van GIS en Data Science tooling en verder het kunnen faciliteren van streaming analytics.
Ons team werkt autonoom, wat betekent dat we veel verantwoordelijkheid van elk teamlid verwachten. Ter versterking van ons data platformteam zoeken we een combinatie functie Senior Data Platform Engineer en Solution Architect, waarbij het zwaarte punt op op de eerste ligt. In deze rol ben je verantwoordelijk voor het ontwerpen, verbeteren en uitbreiden van de data capabilities die ons platform biedt.
Als data platform engineer heb je diepgaande kennis van Data Lakehouse-oplossingen. Ervaring met Kubernetes, GitOps, Observability en CI/CD binnen een (Azure) cloudomgeving is essentieel, evenals ontwikkelervaring in Go, Spark en SQL. Je bent goed thuis in Infrastructure as Code, bij voorkeur met Terraform. Bekendheid met Databricks is een pré. Je hebt een security en compliance mindset.
Als Solution Architect help je business requirements vertalen naar functionele en technische oplossingen. Je zorgt ervoor dat de architectuur aansluit bij de strategische doelen van de organisatie en stemt af met collega's over architecturale principes. Daarnaast ondersteun je het team bij het leveren van hoogwaardige oplossingen en ben je zowel een mentor als een sparringpartner voor je collega-engineers. Je staat open voor feedback en streeft samen naar continue verbetering.
Specifieke kennis/ervaring:
- Aantoonbare ervaring in het strategisch meedenken en opzetten en onderhouden van Data Lakehouse-oplossingen en Data Warehouses. Ervaring met Databricks is een pre.
- Expertise in het ontwerpen van (deel)oplossingen voor bijvoorbeeld ingestion, verwerking en opslag van batch en streaming data.
- Minimaal 7 jaar ervaring in het ontwerpen en ontwikkelen van dataplatforms met bijvoorbeeld: Go, SQL, Spark en eventueel Python
- Uitgebreide kennis van Kubernetes, containerized workflows en microservices-architecturen.
- Ervaring met ontwikkeling van digitale producten (c.q. Agile software development)
- Ervaring met GitOps en Argo Workflows is een pluspunt.
- Ervaring met Lineage, monitoring en dashboarding, bij voorkeur in Marquez, Grafana en Prometheus.
- Ervaring met cloudgebaseerde ontwikkeling, bij voorkeur in Azure.
- Ervaring met het ontwerpen en oplossen van problemen rondom network connectivity is een pluspunt.
- Diepgaande ervaring met Infrastructure as Code; kennis van Terraform is gewenst.
- Bekendheid met Data Build Tool (dbt) voor data transformaties is een pre.
- Ervaring met Site Reliability Engineering (SRE) is een pre.
- Vloeiend in Nederlands is een pre, maar goede beheersing van Engels is ook mogelijk.
- Affiniteit met logistieke ketens en/of nautische dienstverlening is een pluspunt.
Eisen
- Kandidaat heeft een afgeronde HBO/WO opleiding
- Kandidaat heeft minimaal 7 jaar ervaring als ontwikkelaar in bijv. Go, SQL, Spark en evt. Python
- Aantoonbare ervaring in het strategisch meedenken en opzetten en onderhouden van Data Lakehouse-oplossingen en Data Warehouses.
- Expertise in het ontwerpen van (deel)oplossingen voor bijvoorbeeld ingestion, verwerking en opslag van batch en streaming data.
- Kandidaat heeft aantoonbare ervaring met Kubernetes, containerized workflows en microservices
- Kandidaat heeft aantoonbare ervaring met het opzetten en onderhouden van Data Lakes en Warehouses
- Kandidaat heeft ervaring in het ontwerpen van (deel)oplossingen voor bijvoorbeeld ingestion, verwerking en opslag van batch en streaming data.
- Kandidaat heeft ervaring met ontwikkelen in een cloud platform
- Kandidaat heeft aantoonbare ervaring met ontwikkeling van digitale producten (c.q. Agile software development)
- Kandidaat heeft ervaring met het gebruik van Infrastructure as Code
- Kandidaat heeft aantoonbare ervaring met Lineage, monitoring en dashboarding, bij voorkeur in Marquez, Grafana en Prometheus.
- Ervaring met Databricks is een pre
- Ervaring met GitOps en Argo Workflows is een pre
- Ervaring met Azure is een pre
- Ervaring met het opzetten en debuggen van network connectivity is een pre
- Ervaring met Terraform is een pre
- Ervaring met Data Build Tool (dbt) is een pre
- Ervaring met Site Reliability Engineering is een pre
- Kandidaat heeft een goede beheersing van de Nederlandse en/of Engelse taal in woord en geschrift
- Kandidaat is beschikbaar voor een digitaal kennismakingsgesprek op 22 januari tussen 15.00u - 17.00u of 23 januari tussen 15.00u - 17.00u.
- Kandidaat is op de hoogte gesteld van het screeningsproces van HbR (voor aanvullende informatie zie tekst veld arbeidsvoorwaarden)
Voordelen voor detacheerders (uitzendovereenkomst) om via All About Work te werken
- Je sollicitatie wordt binnen 24 uur verwerkt en je krijgt een snelle terugkoppeling.
- All About Work hanteert geen relatie- of concurrentiebeding.
- Vanaf dag 1 opbouw pensioen via Stipp
- Keuze loon uitbetaling per week of per vier weken
- CAO van de opdrachtgever is van toepassing
- Kandidaat heeft een afgeronde HBO/WO opleiding
- Kandidaat heeft minimaal 7 jaar ervaring als ontwikkelaar in bijv. Go, SQL, Spark en evt. Python
- Aantoonbare ervaring in het strategisch meedenken en opzetten en onderhouden van Data Lakehouse-oplossingen en Data Warehouses.
- Expertise in het ontwerpen van (deel)oplossingen voor bijvoorbeeld ingestion, verwerking en opslag van batch en streaming data.
- Kandidaat heeft aantoonbare ervaring met Kubernetes, containerized workflows en microservices
- Kandidaat heeft aantoonbare ervaring met het opzetten en onderhouden van Data Lakes en Warehouses
- Kandidaat heeft ervaring in het ontwerpen van (deel)oplossingen voor bijvoorbeeld ingestion, verwerking en opslag van batch en streaming data.
- Kandidaat heeft ervaring met ontwikkelen in een cloud platform
- Kandidaat heeft aantoonbare ervaring met ontwikkeling van digitale producten (c.q. Agile software development)
- Kandidaat heeft ervaring met het gebruik van Infrastructure as Code
- Kandidaat heeft aantoonbare ervaring met Lineage, monitoring en dashboarding, bij voorkeur in Marquez, Grafana en Prometheus.
- Ervaring met Databricks is een pre
- Ervaring met GitOps en Argo Workflows is een pre
- Ervaring met Azure is een pre
- Ervaring met het opzetten en debuggen van network connectivity is een pre
- Ervaring met Terraform is een pre
- Ervaring met Data Build Tool (dbt) is een pre
- Ervaring met Site Reliability Engineering is een pre
- Kandidaat is beschikbaar voor een digitaal kennismakingsgesprek op 22 januari tussen 15.00u - 17.00u of 23 januari tussen 15.00u - 17.00u.
- Wat is je gewenste maandsalaris voor deze functie? (All About Work zal dit beoordelen op basis van je ervaring en de functieniveau van de vacature)
Tot €6862,00 per maand bruto fulltime