Logo Hogeschool van Amsterdam – link naar startpaginaLogo Hogeschool van Amsterdam – link naar startpagina
Nieuws

Responsible AI Lab onderzoekt rol van taalmodellen in politieke desinformatie

Het Responsible AI Lab van de Hogeschool van Amsterdam leverde een bijdrage aan het tweede European Congress on Disinformation and Fact Checking aan de Universidad Carlos III de Madrid (UC3M).

Tijdens het congres presenteerden Applied AI-alumnus Daniel Dovger en onderzoeker bij Responsible IT, Marcio Fückner, de studie Selective Agreement in LLM Debates: Anchoring Effects and Resistance to Disinformation, ontwikkeld binnen het Responsible AI Lab onder begeleiding van Marco Feres, onderzoeker en projectleider bij het lab.

 

Onderzoek naar denkpatronen van AI in desinformatiecontexten

Het onderzoek richt zich op hoe large language models (LLMs) – zoals ChatGPT – reageren op misleidende of overtuigende informatie binnen gesimuleerde debatten. De studie laat zien dat deze modellen eerder neigen tot instemming en afstemming dan tot echte deliberatie of meningsvorming.

Omdat LLM’s steeds vaker worden ingezet voor communicatie, media-analyse en publieke dialoog, is inzicht in deze mechanismen van groot belang. De resultaten helpen beter te begrijpen hoe AI-systemen onbedoeld desinformatie kunnen versterken en hoe ze verantwoord ingezet kunnen worden.Het onderzoek verschijnt binnenkort als boekhoofdstuk in een bundel over desinformatie en kunstmatige intelligentie.

 

Een kritische blik op kunstmatige intelligentie

Marcio terug op het congres: “Het was inspirerend om onderzoekers en professionals te ontmoeten die werken aan een van de grootste uitdagingen voor democratische samenlevingen vandaag: het bestrijden van desinformatie. De studie van Daniel toont hoe LLM’s geneigd zijn tot overeenstemming, in plaats van tot echt debat. Deze modellen zijn krachtige stochastische tools, maar ze denken of geloven niet zoals mensen. We moeten antropomorf taalgebruik vermijden en kritisch blijven in onze omgang met AI.”

Marcio bedankt de organisatoren van UC3M – onder wie Carlos Elías, Daniel C. en hun team – voor hun gastvrijheid en de stimulerende discussies, evenals Ojonimi Alfred voor de uitstekende organisatie.

 

Over het Responsible AI Lab

Het Responsible AI Lab onderzoekt hoe kunstmatige intelligentie op een verantwoorde, transparante en inclusieve manier kan worden ontwikkeld en toegepast. Binnen de Hogeschool van Amsterdam werkt het lab samen met onderzoekers, docenten, studenten en maatschappelijke partners aan projecten die technologie kritisch benaderen en inzetten voor publieke waarde. 
 

Lees hier meer over het Responsible AI Lab