Vallei en Veluwe (Waterschap)

Medior data engineer

Vallei en Veluwe (Waterschap)

De opdracht­omschrijving

Context en doel
Waterschap Vallei en Veluwe wil een data gedreven organisatie zijn. Een belangrijk onderdeel daarvan is het beschikbaar hebben van data. Daarvoor is de datahub ontwikkeld. Dit is een centraal dataplatform dat data uit verschillende bronsystemen ontsluit en integreert. Deze data wordt gebruikt als de basis voor sturing, rapportages en analyses. Verdere uitbouw hiervan is een belangrijk onderdeel van het jaarplan data gedreven werken 2026.

De datahub heeft sinds kort het stempel productie gekregen. Dit geeft het juiste momentum om het verder uit te bouwen door belangrijke bronnen en functionaliteiten rondom data governance toe te voegen. De datahub is geïmplementeerd in het Microsoft Azure platform en maakt gebruik van delta-lake technologie, o.a. Azure Data Factory, Azure Data Lake Gen2, Azure Synapse notebooks (PySpark) en Serverless SQL.

We zoeken een ervaren data-engineer om ons te helpen de datahub verder uit te bouwen. Je werkt mee in het team Transitie & Innovatie (specifiek het datalab). Je doet dit in afstemming met je collega data-engineers, maar bent in staat om het werk zelfstandig op te pakken.

Opdracht
De opdracht is afgebakend tot een beperkt aantal concrete werkzaamheden waarvoor veel bouwblokken al klaarliggen:

  • Ontsluiten van gegevens uit Historian. Historian is een systeem waarin onder andere veel metingen, alarmen in bewaard worden die gedaan worden in onze zuiveringen. Ontsluiting hiervan is belangrijk voor data gedreven zuiveren en assetmanagement.
  • Implementeren van datakwaliteitscontroles. Een belangrijk onderdeel van data governance is de datakwaliteit. Deze kwaliteit inzichtelijk maken voor de data /broneigenaren is belangrijk om de kwaliteit van de data te verbeteren.
  • Implementeren van data lineage inzichten. Data uit onze bronsystemen wordt op allerlei verschillende plekken in de organisatie gebruikt en gecombineerd met andere gegevens. Inzicht in welke gegevens waar gebruikt worden is belangrijk voor data governance en de herleidbaarheid van gegevens op basis waarvan evt. gestuurd wordt.
  • Algemene werkzaamheden. Problemen die zich voordoen met een datahub in productie moeten zo snel mogelijk opgelost worden. Bij afwezigheid van de andere data collega’s uit het team, kunnen dit soort werkzaamheden ook onder deze opdracht vallen.

Voor het vervullen van de opdracht beschik je over:

  • Ruime ervaring met Python
  • Kennis van delta-lake technologie (bijv. Pyspark, Synapse, Azure DataFactory)
  • Ervaring met werken in de cloud (bij voorkeur met Microsoft Azure)
  • Domeinkennis van overheids- en/of waterschapsdata (dit is een pre)

Goed om te weten

  • De opdracht loop tot en met eind 2026 voor 1,5-2 dagen per week.
  • De gesprekken zijn gepland op woensdag 29 april tussen 10 en 15 uur.

Deze inhuuropdracht verloopt via een aanbesteding. De opdrachtgever heeft eisen en wensen opgegeven. Aan de eisen moet je voldoen om kans te maken. Op de wensen kun je punten scoren.

De Eisen

  • Ruime ervaring met Python
  • Kennis van delta-lake technologie (bijv. Pyspark, Synapse, Azure DataFactory)
  • Ervaring met werken in de cloud (bij voorkeur met Microsoft Azure)

De Wensen

  • Domeinkennis van overheids- en/of waterschapsdata

Interesse in deze opdracht?

Zo werkt onze dienstverlening

Reageer direct

De opdracht sluit
17 april 2026 om 15:00
Je reactie ontvangen we graag minimaal 1 werkdag voor sluiting van de opdracht

Eventuele motivatie volgt in een latere fase

LET OP: Het door jou opgegeven uurtarief is all in, inclusief 10% fee Freep en exclusief BTW

Mis geen kans, word gratis lid

Ontvang direct alle opdrachten en marktontwikkelingen in je mailbox