Logo Hogeschool van Amsterdam – link naar startpaginaLogo Hogeschool van Amsterdam – link naar startpagina
Project

Reflectie-instrument voor verantwoorde AI-governance in publieke organisaties

-

Wie doet wat bij AI? Publieke organisaties maken steeds vaker gebruik van generatieve AI. Dat biedt kansen voor efficiënter en beter werken, maar roept ook vragen op: wie is verantwoordelijk voor het gebruik van AI? Wie beslist, wie voert uit en wie houdt toezicht? En hoe zorgen we ervoor dat AI op een manier wordt ingezet die past bij publieke waarden? Dit project ontwikkelt een praktisch reflectie-instrument dat publieke organisaties helpt om overzicht te krijgen in hun AI-activiteiten en om gericht te werken aan verantwoorde AI-governance. Het project wordt uitgevoerd door het Lectoraat Responsible IT van de Hogeschool van Amsterdam, in samenwerking met de Provincie Noord-Holland.

Aanleiding 

Binnen publieke organisaties ontstaat AI vaak op verschillende plekken tegelijk: in projecten, pilots of individuele teams. Daardoor ontbreekt vaak een organisatiebreed overzicht van wat er met AI gebeurt en wie waarvoor verantwoordelijk is.  

Bestaande kaders en wetgeving, zoals de EU AI Act, richten zich vooral op regels en naleving. Ze helpen minder bij de eerste en essentiële stap: begrijpen wat een organisatie daadwerkelijk doet met AI en waar publieke waarden onder druk kunnen komen te staan.Zonder dat overzicht is het lastig om AI strategisch, samenhangend en verantwoord te sturen. 

Doel 

Het doel van dit project is het ontwikkelen van een laagdrempelig, rol-gebaseerd reflectie-instrument dat publieke organisaties ondersteunt bij: 

  • het in kaart brengen van bestaande AI-activiteiten;  

  • het verduidelijken van rollen en verantwoordelijkheden;

  • het herkennen van ethische dilemma’s en governance-knelpunten; 

  • het formuleren van concrete verbeteracties voor verantwoord AI-gebruik. 

Het instrument helpt organisaties om gezamenlijk keuzes te maken over hoe zij AI willen inzetten, in lijn met publieke waarden. 

Aanpak 

Het reflectie-instrument ordent AI-activiteiten aan de hand van zeven herkenbare rollen binnen publieke organisaties, zoals gebruiker, ontwikkelaar, inkoper, bestuurder en toezichthouder. 

Het instrument bestaat uit twee onderdelen: 

1. Inventarisatie 
Met behulp van een vragenlijst per rol wordt zichtbaar: 

  • welke AI-toepassingen worden gebruikt of ontwikkeld; 
  • wie daarbij betrokken is; 
  • en welke vragen of zorgen er leven. 

2. Reflectie 
In gezamenlijke sessies bespreken vertegenwoordigers van verschillende rollen de uitkomsten. Dit helpt om: 

  • gedeeld inzicht te creëren; 
  • blinde vlekken te herkennen; 
  • en prioriteiten te bepalen voor verbetering. 

Het instrument wordt ontwikkeld en getest in de praktijk, samen met de Provincie Noord-Holland en stap voor stap aangescherpt op basis van ervaringen. 

Beoogde resultaten 

Het project levert: 

  • een praktisch toepasbaar reflectie-instrument inclusief werkwijze;  

  • meer overzicht en samenhang in AI-activiteiten binnen organisaties; 

  • duidelijkere rolverdeling en verantwoordelijkheden; 

  • betere gesprekken over publieke waarden en ethiek; 

  • concrete aanknopingspunten voor het versterken van AI-governance. 

Het instrument vormt een basis om bestaande wet- en regelgeving en andere governance-instrumenten effectiever in te zetten. 

Voor wie? 
Het instrument is bedoeld voor publieke organisaties die: 

  • AI gebruiken of willen gebruiken;  

  • behoefte hebben aan overzicht en richting; 

  • AI verantwoord willen inzetten, passend bij hun publieke taak. 

Lectoraat en projectleider 

Merel Noorman – Reponsible IT 
Lectoraat Responsible IT, Hogeschool van Amsterdam 

Partner 

Provincie Noord-Holland