Reflectie-instrument voor verantwoorde AI-governance in publieke organisaties

Wie doet wat bij AI? Publieke organisaties maken steeds vaker gebruik van generatieve AI. Dat biedt kansen voor efficiënter en beter werken, maar roept ook vragen op: wie is verantwoordelijk voor het gebruik van AI? Wie beslist, wie voert uit en wie houdt toezicht? En hoe zorgen we ervoor dat AI op een manier wordt ingezet die past bij publieke waarden? Dit project ontwikkelt een praktisch reflectie-instrument dat publieke organisaties helpt om overzicht te krijgen in hun AI-activiteiten en om gericht te werken aan verantwoorde AI-governance. Het project wordt uitgevoerd door het Lectoraat Responsible IT van de Hogeschool van Amsterdam, in samenwerking met de Provincie Noord-Holland.
Aanleiding
Binnen publieke organisaties ontstaat AI vaak op verschillende plekken tegelijk: in projecten, pilots of individuele teams. Daardoor ontbreekt vaak een organisatiebreed overzicht van wat er met AI gebeurt en wie waarvoor verantwoordelijk is.
Bestaande kaders en wetgeving, zoals de EU AI Act, richten zich vooral op regels en naleving. Ze helpen minder bij de eerste en essentiële stap: begrijpen wat een organisatie daadwerkelijk doet met AI en waar publieke waarden onder druk kunnen komen te staan.Zonder dat overzicht is het lastig om AI strategisch, samenhangend en verantwoord te sturen.
Doel
Het doel van dit project is het ontwikkelen van een laagdrempelig, rol-gebaseerd reflectie-instrument dat publieke organisaties ondersteunt bij:
-
het in kaart brengen van bestaande AI-activiteiten;
-
het verduidelijken van rollen en verantwoordelijkheden;
-
het herkennen van ethische dilemma’s en governance-knelpunten;
-
het formuleren van concrete verbeteracties voor verantwoord AI-gebruik.
Het instrument helpt organisaties om gezamenlijk keuzes te maken over hoe zij AI willen inzetten, in lijn met publieke waarden.
Aanpak
Het reflectie-instrument ordent AI-activiteiten aan de hand van zeven herkenbare rollen binnen publieke organisaties, zoals gebruiker, ontwikkelaar, inkoper, bestuurder en toezichthouder.
Het instrument bestaat uit twee onderdelen:
1. Inventarisatie
Met behulp van een vragenlijst per rol wordt zichtbaar:
- welke AI-toepassingen worden gebruikt of ontwikkeld;
- wie daarbij betrokken is;
- en welke vragen of zorgen er leven.
2. Reflectie
In gezamenlijke sessies bespreken vertegenwoordigers van verschillende rollen de uitkomsten. Dit helpt om:
- gedeeld inzicht te creëren;
- blinde vlekken te herkennen;
- en prioriteiten te bepalen voor verbetering.
Het instrument wordt ontwikkeld en getest in de praktijk, samen met de Provincie Noord-Holland en stap voor stap aangescherpt op basis van ervaringen.
Beoogde resultaten
Het project levert:
-
een praktisch toepasbaar reflectie-instrument inclusief werkwijze;
-
meer overzicht en samenhang in AI-activiteiten binnen organisaties;
-
duidelijkere rolverdeling en verantwoordelijkheden;
-
betere gesprekken over publieke waarden en ethiek;
-
concrete aanknopingspunten voor het versterken van AI-governance.
Het instrument vormt een basis om bestaande wet- en regelgeving en andere governance-instrumenten effectiever in te zetten.
Voor wie?
Het instrument is bedoeld voor publieke organisaties die:
-
AI gebruiken of willen gebruiken;
-
behoefte hebben aan overzicht en richting;
-
AI verantwoord willen inzetten, passend bij hun publieke taak.
Lectoraat en projectleider
Merel Noorman – Reponsible IT
Lectoraat Responsible IT, Hogeschool van Amsterdam
Partner
Provincie Noord-Holland