Logo Universiteit Leiden.

nl en

Bram Klievink: 'Dé AI-uitdaging bij de overheid is dat neutrale systemen niet bestaan'

Voor de overheid ligt het gebruik van kunstmatige intelligentie ingewikkelder dan voor bedrijven. Hoogleraar bestuurskunde Bram Klievink legt de knelpunten bloot en zoekt oplossingen.

'Als Amazon jou de helft van de keren een oninteressant boek aanraadt om te kopen, is er niets aan de hand. Bij de overheid kan een tiende procent fouten al erg zijn, bijvoorbeeld bij het identificeren van fraudeurs', illustreert Bram Klievink. Verder hoeft een bedrijf binnen de grenzen van de wet simpelweg te testen welk algoritme de meeste winst oplevert. 'Een overheid heeft een veel complexere maatschappelijke agenda.'

Bram Klievink, hoogleraar bestuurskunde met speciale aandacht voor digitalisering en publiek beleid.

Schrijnend voorbeeld: begin 2020 veegde de rechter het Systeem Risico Indicatie (SyRI) van tafel, het was in gebruik sinds 2014. Dit overheidsinstrument moest fraude met toeslagen en uitkeringen voorkomen middels gegevenskoppeling en patroonherkenning. Het systeem maakte risicoprofielen op basis van onder meer gegevens over boetes, naleving en onderwijs. Hoewel je gegevens anoniem versleuteld waren tot je eruit rolde als mogelijke fraudeur, vond de rechter de inbreuk op het privéleven te groot.

Beleid met data uit sociale media

Het SyRI-debacle laat zien dat de overheid best wat kan, maar meer gebonden is dan, pak 'm beet, Facebook. Promovendus Simon Vydra onderzoekt − begeleid door Klievink − of data uit sociale media bruikbaar zijn om effecten in kaart te brengen van beleid dat is gericht op jonge ouders. Technische mogelijkheden zijn er zat: 'Je kunt sentimentanalyse doen en daarmee bijvoorbeeld proberen draagvlak voor beleid in te schatten.'

'Kleine keuzes en afwegingen kunnen onverwachte gevolgen hebben'

Klievink: 'Als je zo'n techniek inzet, maak je altijd keuzes. Je moet veel parameters afstellen. Bij een analysesysteem gebaseerd op Twitter-data bijvoorbeeld, moet je instellen wanneer je systeem een twitteraar als een mens of als een bot identificeert. Doe je dat bij tien of bij honderd tweets per dag? En hoeveel gespreksonderwerpen onderscheid je in je topic model? Worden het vijf grote, maar algemene onderwerpen, of kies je een fijnmazig model met twintig specifiekere onderwerpen? Zelfs kleine keuzes en afwegingen, kunnen onverwachte of onbedoelde gevolgen hebben voor hoe de uitkomsten worden gebruikt. Die keuzes zijn nooit neutraal, maar we kunnen ze niet vermijden.'

Besluitvormers en technici

Dilemma's rond afwegingen blijven vaak verborgen, omdat beleidsmakers en de technische makers van het systeem elkaars taal niet spreken. 'De AI-expert heeft vaak technische en methodologische expertise, maar lang niet altijd de inhoudelijke expertise om de consequenties te overzien van de gemaakte keuzes. De beleidsmaker weet vaak niet aan welke knoppen de technicus kan draaien, hoe ze precies staan afgesteld en wat dat betekent voor de uitkomsten.' De samenwerking tussen mensen uit diverse disciplines die aan publieke AI-projecten werken kan daarom niet nauw genoeg zijn, aldus Klievink.
 

Meer Leids onderzoek naar AI in de publieke sector

Dit interview is deel van een serie waarin wetenschappers uit de hele Universiteit Leiden vertellen wat ze doen op AI-gebied. Op het gebied van de publieke sector benadrukte wiskundige en informaticus Joost Batenburg dat vaak de nadruk ligt op wat er technisch allemaal kan en te weinig op de interactie met mensen. 'Systemen worden steeds zakelijker. Ik wil dat AI niet alleen helpt het werk van de overheid efficiënter te maken, maar ook burgers helpt.'

Ook hoogleraar Law and Data Science Bart Custers heeft deze drijfveer. Hij propageert samenwerking tussen technici, ethici en juristen. 'Dan bereik je privacy by design: vooraf zijn allerlei waarborgen ingebouwd, waardoor je problemen voorkomt.'

Tekst: Rianne Lindhout
Foto: Patricia Nauta

Deze website maakt gebruik van cookies.