Merel Noorman gestart als associate lector Responsible AI

De wereld van kunstmatige intelligentie ontwikkelt zich razendsnel en dat roept grote vragen op. Hoe zorgen we ervoor dat de samenleving controle houdt op technologische innovatie? Merel Noorman, onlangs benoemd tot associate lector Responsible AI bij de HvA, onderzoekt hoe we technologie verantwoord kunnen ontwerpen en gebruiken. Met oog voor ethiek, democratische waarden en de praktijk wil ze samen met studenten, onderzoekers en partners grip houden op de rol van AI in ons dagelijks leven.
Grip op technologische innovatie
In haar nieuwe functie bouwt Merel voort op het innovatieve onderzoek van het Responsible AI lab en het lectoraat Responsible IT. “Verantwoorde AI betekent voor mij dat wij technologie ontwikkelen en gebruiken gebaseerd op een goed begrip van wat we er wel en niet mee kunnen of zouden moeten kunnen. Daar zit dus ook een ethische dimensie aan. Hoe maken we AI die toegankelijk is voor iedereen en positief bijdraagt aan mens, maatschappij en planeet?”
Merel benadrukt dat de samenleving grip moet houden op technologische innovatie. “Hoe houden we democratische controle over deze steeds complexere systemen? Dat vraagt om interdisciplinair, vernieuwend en praktijkgericht onderzoek in samenwerking met diverse partijen uit het veld, zoals gemeentes, bedrijven, maatschappelijke organisaties en burgers. Bestaande samenwerkingsverbanden met andere hogescholen, universiteiten en praktijkpartners binnen het Responsible AI lab, zoals het RAAIT programma en het AI, Media en Democracy lab, bieden volop mogelijkheden om dit onderzoek verder uit te bouwen. Het uiteindelijke doel is het bieden van handelingsperspectieven - vooral ook aan onze studenten - met betrekking tot verantwoorde AI in een snel veranderende technologische wereld.”
Maatschappelijke uitdagingen
De snelle ontwikkeling van kunstmatige intelligentie roept tal van vragen op over een goede inzet en verantwoorde toepassingen van deze technologie. “Denk aan hoe generatieve AI, zoals ChatGPT, nu beïnvloedt hoe mensen hun werk doen, bijvoorbeeld in het onderwijs. Zo vraagt het toenemende gebruik van ChatGPT door studenten andere manieren van toetsen en van het ontwikkelen van lessen. Bestaande rollen en verantwoordelijkheden komen ter discussie te staan en moeten opnieuw invulling krijgen.
Het gebruik van AI brengt ook risico's met zich mee. Zo kan het leiden tot ongelijke behandeling van verschillende groepen en zijn AI-systemen vaak moeilijk te doorgronden en uit te leggen. Bovendien introduceren deze systemen een zekere mate van onvoorspelbaarheid. Steeds meer bedrijven, organisaties en individuen zijn zich bewust van deze uitdagingen, maar weten niet goed hoe ze AI op een verantwoorde manier kunnen inzetten. Door onderzoek te doen in samenwerking met verschillende partijen uit de praktijk, biedt het Responsible AI lab handelingsperspectieven in de vorm van methodieken, instrumenten, workshops en onderwijs. Op dit onderzoek wil ik voortbouwen en het verder in praktijk brengen.”
Afhankelijk van technologiebedrijven
Een gerelateerd probleem dat Merel wil aanpakken, is de toenemende afhankelijkheid van technologiebedrijven als het gaat om publieke belangen. “Steeds meer beslissingen en taken worden overgelaten aan deze slimme, maar steeds complexere systemen. Denk bijvoorbeeld aan beslissingen over het optimaliseren van verkeersstromen in steden of over wat wel en niet mag worden gezegd in maatschappelijke discussies op sociale media. Maar zulke beslissingen zijn vaak waarden-geladen en mensen kunnen verschillende ideeën hebben over wat een goede beslissing is.
Door de complexiteit van de systemen en de ondoorzichtige afhankelijkheden tussen publieke en private organisaties die deze systemen beheren, wordt het moeilijker voor de samenleving om de democratische controle over beslissingen die iedereen raken te behouden. Hoewel AI deze problemen kan verergeren, biedt het ook kansen om oplossingen te vinden die de samenleving ten goede komen en het mogelijk maken om gezamenlijke besluiten te nemen. Een verantwoorde inbedding van AI in de samenleving is dan ook een AI die voor iedereen werkt en die in lijn is met een democratische rechtstaat.”
Uniek onderzoeksplatform
Haar benoeming tot associate lector ziet Merel als een kans om haar onderzoeksagenda over Verantwoorde AI verder te ontwikkelen in een meer praktijkgerichte context en om haar kennis en expertise te delen met studenten van de HvA. Maar haar aanstelling geeft haar bovendien, zegt zij, een uniek platform om digitale technologie kritisch te onderzoeken door middel van praktijkgericht onderzoek en om tools te ontwikkelen die deze technologie in lijn brengen met maatschappelijke waarden. “In de komende vier jaar wil ik de bestaande netwerken van het Lectoraat Responsible IT en het Responsible AI lab verder versterken en uitbreiden. Daarnaast wil ik binnen en buiten dit netwerk de kennis over en ervaringen met Verantwoorde AI verder verdiepen en verbreden, zodat de focus zowel op het ontwikkelen en bouwen van verantwoorde AI-systemen ligt, als op de governance van deze systemen.”
Warm welkom
Pascal Wiggers, lector Responsible IT is verheugd over Merels benoeming: “Ik ben heel blij dat Merel het team van Responsible IT als associate lector Responsible AI komt versterken. Met haar interdisciplinaire achtergrond en kennis van democratisering en (ethische) besluitvorming rondom digitale technologie voegt zij, in deze tijd van razendsnelle ontwikkeling van AI, een belangrijke en nodige dimensie toe aan ons onderzoek.”
Bekijk voor meer informatie Merels profielpagina op de HvA-website.