Logo Hogeschool van Amsterdam – link naar startpaginaLogo Hogeschool van Amsterdam – link naar startpagina
Nieuws

Samen bouwen aan verantwoorde AI voor publieke organisaties

Kunstmatige intelligentie wordt steeds vaker ingezet in publieke dienstverlening – van gemeentelijke correspondentie richting burgers tot archiefbeheer. Maar hoe zorgen publieke organisaties ervoor dat AI niet alleen efficiënt is, maar ook eerlijk, transparant en verantwoord? Die vraag stond centraal tijdens de recente netwerkbijeenkomst van de Learning Community ‘AI & Publieke Diensten’, waar professionals, onderzoekers en beleidsmakers samenkwamen voor een praktische verkenning van verantwoorde AI. Vanuit het lectoraat Responsible IT brachten Saskia Robben, Sophie Horsman en Merel Noorman hun kennis en kunde op dit gebied in.

Sneak preview van de Responsible Applied AI Toolbox 

Tijdens de bijeenkomst kregen deelnemers een sneak preview van de Responsible Applied AI Toolbox: een verzameling van zo’n dertig praktische methoden die organisaties helpt om AI te begrijpen, ontwerpen en gebruiken die mens, maatschappij én planeet versterkt. 

De toolbox is ontwikkeld binnen het onderzoeksprogramma Responsible Applied AI (RAAIT), een achtjarig SPRONG-programma waarin Hogeschool Utrecht, Hogeschool Rotterdam en Hogeschool van Amsterdam al vier jaar intensief samenwerken. Het doel: verantwoorde AI concreet maken, voorbij abstracte principes en richtlijnen. 

Van ethiek naar concrete dilemma’s 

In plaats van te praten over AI in algemene termen, gingen deelnemers aan de slag met realistische vraagstukken uit hun eigen organisatie. In interactieve sessies werden deze uitdagingen verkend aan de hand van het RAAIT-raamwerk en verschillende tools uit de toolbox. 

De vraagstukken liepen uiteen: 

  • Hoe toets je de eerlijkheid en duurzaamheid van AI-systemen binnen publieke organisaties?  

  • Wie is verantwoordelijk voor toezicht op AI binnen complexe organisaties? 

  • Hoe neem je ethische afwegingen mee, niet alleen bij beleid, maar ook in de ontwikkel- en implementatiefase?  

  • En hoe zorg je dat kwaliteits- en verantwoordingsprocessen werkbaar blijven voor professionals in de praktijk? 

Door deze vragen te koppelen aan concrete tools werd zichtbaar dat verantwoorde AI geen ‘one size fits all’-oplossing kent, maar vraagt om maatwerk, dialoog en samenwerking. 

Samen leren en experimenteren 

Een belangrijke conclusie van de bijeenkomst: organisaties hebben behoefte aan praktische handvatten, maar ook aan ruimte om samen te leren, te experimenteren en te reflecteren. Verantwoorde AI vraagt niet alleen om technologie, maar ook om nieuwe manieren van samenwerken binnen en tussen organisaties. 

Daarom werd tijdens de sessie nadrukkelijk opgeroepen om de toolbox verder te verdiepen in de praktijk, bijvoorbeeld via studentopdrachten, gezamenlijke pilots of het doorontwikkelen van specifieke tools voor concrete use cases. 

 

Verantwoorde AI als gezamenlijke opgave 

De netwerkbijeenkomst liet zien dat verantwoord omgaan met AI geen nichevraagstuk is, maar een collectieve opgave voor publieke organisaties, kennisinstellingen en professionals. Door theorie, praktijk en onderwijs te verbinden, ontstaat ruimte voor AI-toepassingen die niet alleen slim zijn, maar ook recht doen aan publieke waarden. 

De Responsible Applied AI Toolbox vormt daarin geen eindpunt, maar een uitnodiging: om samen te blijven bouwen aan AI die werkt voor iedereen. 

 

Lees meer over het project RAAIT