Opdrachten
Cloud/Data Engineer - RVO
Info
Functie
Cloud/Data Engineer - RVOLocatie
Uren per week
36 uren per weekLooptijd
31.05.2026 - 30.12.2026Opdrachtnummer
328442Sluitingsdatum
Rolomschrijving en taakafspraken
Let op! Deze rol is alleen beschikbaar voor detacheerders/leveranciers of voor ZZP'ers die op de payroll bij ons komen. Wij kunnen je hier telefonisch meer over vertellen.
Tarief: maximaal 92,50
Opdrachtomschrijving
Jouw rol als Cloud/Data Engineer:
- Als Cloud/Data Engineer: Je houdt je bezig met de realisatie van schaalbare, efficiënte en veilige data-platforms in de Azure-cloud, waarbij Databricks
een centrale plek inneemt. Je werkt nauw samen met data scientists, ML engineers en business stakeholders aan oplossingen die techniek, beleid en
concrete waarde voor Nederland verbinden.
- Data Architectuur & Modellering: Je houdt je bezig met het inrichten van de Medaillon Architectuur (Bronze, Silver, Gold) binnen Databricks. Je bent
sterk in het vertalen van complexe business logica naar helder gestructureerde datasets, bij voorkeur volgens Kimball (dimensioneel modelleren), en
weet robuuste goud-lagen te bouwen. Het gebruik van Metric Views is je bekend, zodat rapportages en analyses altijd op de juiste dataset steunen.
- Engineering & Transformaties: Je houdt je bezig met het ontwikkelen van robuuste datapijplijnen met PySpark en SQL, en je kent de mogelijkheden
van Spark Declarative Pipelines (SDP). Met diepgaande kennis van dbt (data build tool) ontwerp je modulaire en onderhoudbare transformaties.
- Storage & Performance-optimalisatie: Je houdt je bezig met het maximaliseren van de platform-performance. Dat doe je door het inzetten van de
juiste Databricks compute clusters en het benutten van schaalmogelijkheden. Je bent goed op de hoogte van optimalisaties binnen Delta Lake, zoals
Partitioning, Clustering, Z-Ordering en Liquid Clustering.
- Governance & Security: Je houdt je bezig met het inrichten van centrale governance via Unity Catalog. Je implementeert RBAC (Role-Based Access
Control) en je hanteert data security best practices als standaard bij de bouw van oplossingen.
- Platform & Deployment: Je houdt je bezig met automatisering en ‘Engineering Excellence’ via Databricks Asset Bundles (DABs) voor betrouwbare en
reproduceerbare deployments. Daarnaast ben je vaardig in het instrumenteren, monitoren en debuggen van Databricks jobs, pijplijnen en
platformcomponenten.
Achtergrond opdracht
De wereld verandert elke dag en wij veranderen mee. Met meer dan 6.000 RVO’ers werken we iedere dag aan morgen. We ondersteunen, adviseren en
stimuleren ondernemend Nederland. Nationaal en internationaal, want ons werk stopt niet bij de grens.
Grote uitdagingen
We helpen ondernemers en organisaties met innoveren en verduurzamen. Samen werken we aan:
- De verduurzaming van onze energievoorzieningen.
- Het tegengaan van klimaatverandering.
- Een omslag naar een duurzaam landbouw
- en voedselsysteem.
- Een sterke digitale economie.
Het zijn grote uitdagingen, maar wij geloven dat het mogelijk is. Daarom verbinden we ondernemers, overheden en organisaties om te bouwen aan het
Nederland van morgen. We doen het samen.
Waar jij het verschil maakt
Wij maken overheidsbeleid bereikbaar en uitvoerbaar. Van voorlichting, advies en financiering tot het bieden van een luisterend oor voor ondernemers en
organisaties. En dat is nog maar een klein onderdeel van wat we doen. Ondernemend Nederland is ontzettend veelzijdig en daarom zijn wij dat ook.
Eisen
- Aantoonbare ervaring in het ontwerpen en bouwen van een cloud data platform met Databricks op Azure en zorgen voor het
integreren, opschonen en beschikbaar maken van data voor business intelligence toepassingen aantoonbaar middels cv en/of motivatie (3 jaar) - Aantoonbare ervaring in het ontwerpen en uitwerken van een technische data solution architectuur, met aandacht voor Governance & Security, aantoonbaar middels cv en/of motivatie (3 jaar)
- Aantoonbare ervaring in het ontwikkelen van robuuste datapijplijnen met PySpark en SQL, aantoonbaar middels cv en/of motivatie (2 jaar)
Wensen
• Kennis van en ervaring met Backend & SQL/Postgres: Met Django ontwikkel je API’s, implementeer je authenticatie en zorg je voor betrouwbare
koppelingen met databases, waaronder Postgres.
• Kennis van en ervaring met Monitoring & MLOps: Je zorgt voor goede monitoring en logging (Application Insights, Databricks metrics) en hebt idealiter
ervaring met MLOps (model lifecycle management).
• Kennis van en ervaring met Microsoft Azure, met name Databricks, Storage, Active Directory en Key Vault.
• Ervaring om data veilig en compliant te beheren, met aandacht voor toegangscontrole, encryptie en privacywetgeving
• kennis en ervaring om betrouwbare en efficiënte data pipelines en platformen te bouwen, integreren en beheren voor analyse en rapportage.
• Kennis en ervaring met het inrichten van de Medallion Architectuur (Bronze, Silver, Gold) binnen Databricks
• Kennis en ervaring met de mogelijkheden van Spark Declarative Pipelines (SDP).
• In staat om complexe data architecturen te ontwerpen en implementeren, met focus op schaalbaarheid, security en integratie van cloud en data
platformen.
Competenties
"Analytisch vermogen- Kan complexe datavraagstukken en businesslogica vertalen naar schaalbare data-oplossingen (Medallion, Kimball).- Ziet verbanden tussen brondata, transformaties en eindgebruik (rapportages/AI).
Probleemoplossend vermogen- Lost performance-, pipeline- en datakwaliteitsproblemen zelfstandig op.- Maakt onderbouwde keuzes in tooling (Delta Lake optimalisaties, clustering, etc.).
Kwaliteitsgerichtheid (Engineering Excellence)- Werkt volgens best practices (CI/CD, testing, versioning, IaC).- Levert reproduceerbare, onderhoudbare en schaalbare oplossingen.
Aanvullende informatie
Een aangeboden cv moet de volledige NAW, geboortedatum, het telefoonnummer en het e-mail adres van de kandidaat bevatten.
Werksituatie : Doorlenen is niet toegestaan.
Exclusiviteit is vereist bij acceptatie van een uitnodiging voor intake tot 4 dagen na de intakedatum.
Bedrijfsgegevens
Bedrijfs gegevens
Sogeti Nederland B.V.
Rolomschrijving en taakafspraken
Let op! Deze rol is alleen beschikbaar voor detacheerders/leveranciers of voor ZZP'ers die op de payroll bij ons komen. Wij kunnen je hier telefonisch meer over vertellen.
Tarief: maximaal 92,50
Opdrachtomschrijving
Jouw rol als Cloud/Data Engineer:
- Als Cloud/Data Engineer: Je houdt je bezig met de realisatie van schaalbare, efficiënte en veilige data-platforms in de Azure-cloud, waarbij Databricks
een centrale plek inneemt. Je werkt nauw samen met data scientists, ML engineers en business stakeholders aan oplossingen die techniek, beleid en
concrete waarde voor Nederland verbinden.
- Data Architectuur & Modellering: Je houdt je bezig met het inrichten van de Medaillon Architectuur (Bronze, Silver, Gold) binnen Databricks. Je bent
sterk in het vertalen van complexe business logica naar helder gestructureerde datasets, bij voorkeur volgens Kimball (dimensioneel modelleren), en
weet robuuste goud-lagen te bouwen. Het gebruik van Metric Views is je bekend, zodat rapportages en analyses altijd op de juiste dataset steunen.
- Engineering & Transformaties: Je houdt je bezig met het ontwikkelen van robuuste datapijplijnen met PySpark en SQL, en je kent de mogelijkheden
van Spark Declarative Pipelines (SDP). Met diepgaande kennis van dbt (data build tool) ontwerp je modulaire en onderhoudbare transformaties.
- Storage & Performance-optimalisatie: Je houdt je bezig met het maximaliseren van de platform-performance. Dat doe je door het inzetten van de
juiste Databricks compute clusters en het benutten van schaalmogelijkheden. Je bent goed op de hoogte van optimalisaties binnen Delta Lake, zoals
Partitioning, Clustering, Z-Ordering en Liquid Clustering.
- Governance & Security: Je houdt je bezig met het inrichten van centrale governance via Unity Catalog. Je implementeert RBAC (Role-Based Access
Control) en je hanteert data security best practices als standaard bij de bouw van oplossingen.
- Platform & Deployment: Je houdt je bezig met automatisering en ‘Engineering Excellence’ via Databricks Asset Bundles (DABs) voor betrouwbare en
reproduceerbare deployments. Daarnaast ben je vaardig in het instrumenteren, monitoren en debuggen van Databricks jobs, pijplijnen en
platformcomponenten.
Achtergrond opdracht
De wereld verandert elke dag en wij veranderen mee. Met meer dan 6.000 RVO’ers werken we iedere dag aan morgen. We ondersteunen, adviseren en
stimuleren ondernemend Nederland. Nationaal en internationaal, want ons werk stopt niet bij de grens.
Grote uitdagingen
We helpen ondernemers en organisaties met innoveren en verduurzamen. Samen werken we aan:
- De verduurzaming van onze energievoorzieningen.
- Het tegengaan van klimaatverandering.
- Een omslag naar een duurzaam landbouw
- en voedselsysteem.
- Een sterke digitale economie.
Het zijn grote uitdagingen, maar wij geloven dat het mogelijk is. Daarom verbinden we ondernemers, overheden en organisaties om te bouwen aan het
Nederland van morgen. We doen het samen.
Waar jij het verschil maakt
Wij maken overheidsbeleid bereikbaar en uitvoerbaar. Van voorlichting, advies en financiering tot het bieden van een luisterend oor voor ondernemers en
organisaties. En dat is nog maar een klein onderdeel van wat we doen. Ondernemend Nederland is ontzettend veelzijdig en daarom zijn wij dat ook.
Eisen
- Aantoonbare ervaring in het ontwerpen en bouwen van een cloud data platform met Databricks op Azure en zorgen voor het
integreren, opschonen en beschikbaar maken van data voor business intelligence toepassingen aantoonbaar middels cv en/of motivatie (3 jaar) - Aantoonbare ervaring in het ontwerpen en uitwerken van een technische data solution architectuur, met aandacht voor Governance & Security, aantoonbaar middels cv en/of motivatie (3 jaar)
- Aantoonbare ervaring in het ontwikkelen van robuuste datapijplijnen met PySpark en SQL, aantoonbaar middels cv en/of motivatie (2 jaar)
Wensen
• Kennis van en ervaring met Backend & SQL/Postgres: Met Django ontwikkel je API’s, implementeer je authenticatie en zorg je voor betrouwbare
koppelingen met databases, waaronder Postgres.
• Kennis van en ervaring met Monitoring & MLOps: Je zorgt voor goede monitoring en logging (Application Insights, Databricks metrics) en hebt idealiter
ervaring met MLOps (model lifecycle management).
• Kennis van en ervaring met Microsoft Azure, met name Databricks, Storage, Active Directory en Key Vault.
• Ervaring om data veilig en compliant te beheren, met aandacht voor toegangscontrole, encryptie en privacywetgeving
• kennis en ervaring om betrouwbare en efficiënte data pipelines en platformen te bouwen, integreren en beheren voor analyse en rapportage.
• Kennis en ervaring met het inrichten van de Medallion Architectuur (Bronze, Silver, Gold) binnen Databricks
• Kennis en ervaring met de mogelijkheden van Spark Declarative Pipelines (SDP).
• In staat om complexe data architecturen te ontwerpen en implementeren, met focus op schaalbaarheid, security en integratie van cloud en data
platformen.
Competenties
"Analytisch vermogen- Kan complexe datavraagstukken en businesslogica vertalen naar schaalbare data-oplossingen (Medallion, Kimball).- Ziet verbanden tussen brondata, transformaties en eindgebruik (rapportages/AI).
Probleemoplossend vermogen- Lost performance-, pipeline- en datakwaliteitsproblemen zelfstandig op.- Maakt onderbouwde keuzes in tooling (Delta Lake optimalisaties, clustering, etc.).
Kwaliteitsgerichtheid (Engineering Excellence)- Werkt volgens best practices (CI/CD, testing, versioning, IaC).- Levert reproduceerbare, onderhoudbare en schaalbare oplossingen.
Aanvullende informatie
Een aangeboden cv moet de volledige NAW, geboortedatum, het telefoonnummer en het e-mail adres van de kandidaat bevatten.
Werksituatie : Doorlenen is niet toegestaan.
Exclusiviteit is vereist bij acceptatie van een uitnodiging voor intake tot 4 dagen na de intakedatum.
Plaats jouw bieding op Striive
https://login.striive.com/Voor deze opdracht dien je een bieding te plaatsen op Striive. Striive is het grootste opdrachtenplatform van de Benelux waar jaarlijks meer dan 20.000 opdrachten gepubliceerd worden.