Logo Universiteit Leiden.

nl en

Eduard Fosch Villaronga: 'Robots zijn er vooral voor de gemiddelde mens'

IT-jurist Eduard Fosch Villaronga wil diversiteit en inclusiviteit in AI-onderzoek bevorderen. Belangrijk, want van Twitter tot in looprobots ziet hij hoe kunstmatige intelligentie vooroordelen vertoont op het gebied van ras, gender en seksuele oriëntatie.

'Twee internationale verdragen over mensenrechten bevatten uitdrukkelijke verplichtingen met betrekking tot schadelijke en onrechtmatige stereotypering', vertelt Fosch Villaronga. 'Het gaat om de verdragen rondom vrouwendiscriminatie respectievelijk personen met een handicap. Die verplichtingen gelden voor staten, maar ook voor bedrijven en industrieën, dus ook voor kunstmatige intelligentie.' Fosch Villaronga onderzoekt of AI daadwerkelijk voldoet aan de mensenrechten.

eLaw-onderzoeker Eduard Fosch Villaronga leert studenten, wetenschappers en beleidsmakers kritisch naar inclusiviteit binnen AI te kijken.

Dat blijkt niet altijd te gebeuren: de onderzoeker ziet dat kunstmatige intelligentie de vooroordelen in de samenleving op het gebied van ras, gender en seksuele oriëntatie repliceert. 'Twitter bijvoorbeeld, denkt dat ik een vrouw ben', ontdekte hij. Om gericht advertenties te kunnen tonen, schat Twitter op basis van je tweets in of je man of vrouw bent.* 'Na die ontdekking vroeg ik 109 mensen hoe het bij hen zat: bij heteroseksuele mannen zit Twitter er in 8 procent van de gevallen naast, bij heteroseksuele vrouwen 16 procent en bij homoseksuele mannen wel 25 procent.

'Als je te zwaar bent, val je buiten de boot'

Soms heeft stereotypering door AI schrijnende gevolgen. Zo was de onderzoeker betrokken bij een project met exoskeletten die gebruikers helpen weer te lopen als ze verlamd zijn geraakt. 'Ik zat in de werkgroep die de ethische, juridische en maatschappelijke impact bekeek. Mijn aandachtspunt was: heeft iedereen die dat nodig heeft, toegang tot deze robots? Helaas niet: voor kinderen worden ze niet gemaakt. Ook als je te zwaar bent, val je buiten de boot. Het was alsof exoskeletten alleen voor de gemiddelde persoon werden gemaakt.'

Meer focus op waardigheid

De onderzoeker werkte veel Europese landen en spreekt vijf talen vloeiend. Hij adviseert de Europese Commissie op het gebied van consumentenveiligheid binnen AI-producten. 'We herzien de richtlijn algemene productveiligheid, de belangrijkste wetgeving in Europa productveiligheid te garanderen. Het gaat vaak vooral over fysieke veiligheid, maar ik vestig daarnaast de aandacht op de psychische veiligheid, waardigheid, autonomie en op consequenties voor de lange termijn. Is het wel veilig dat deze autismerobot met kinderen praat?'

Fosch Villaronga, die ook een boek schreef over robots, gezondheidszorg en recht: 'Ik wil dat onderzoekers en beleidsmakers zich kritisch afvragen welke AI er nu echt het meeste doe doet. Zo gaat er ontzettend veel geld naar robots die met patiënten kunnen praten. Verpleegkundigen vertellen mij dat een robot die bedden opmaakt, veel handiger zou zijn. Dan houden zij tijd over om zelf met patiënten te praten.'

* Check hoe Twitter jouw geslacht inschat: ga naar Instellingen en privacy, account, je twittergegevens, log in, account, je wachtwoord bevestigen. 

Tekst: Rianne Lindhout
Foto: Patricia Nauta

Deze website maakt gebruik van cookies.