Kunstmatige intelligentie is niet afgestemd op een diverse maatschappij en dat is gevaarlijk
Vrouwen, ouderen, lhbti-ers en kinderen komen in gevaar doordat kunstmatige intelligentie, algoritmes en exoskeletten zijn afgestemd op de hetero witte man. Leids onderzoek gaat zorgen dat nieuwe ontwikkelingen voor iedereen werken.
In een groot interview met het Leidsch Dagblad legt Eduard Fosch Villaronga uit dat onze huidige robotica en kunstmatige intelligentie nog niet goed genoeg op een diverse maatschappij zijn afgestemd. 'Als we gender, leeftijd en andere karakteristieken niet juist leren identificeren en incorporeren in ons onderzoek en onze ontwikkelingen, dan heeft dat verstrekkende gevolgen.' Als voorbeeld noemt hij de toeslagenaffaire. Ouders werden door discriminerende algoritmes op een zwarte lijst gezet en onterecht bestempeld als fraudeur. Deze foutieve producten worden uiteindelijk wel van de markt gehaald, 'maar het liefst komen ze al beter de markt op. Je weet niet wat voor leed je anders kan veroorzaken.' Aldus Villaronga.
In het artikel spreekt hij specifiek over zijn motivatie voor het onderzoek en gaat hij dieper in op het probleem van misgenderen en discriminerende algoritmes. Lees het hele interview in het Leidsch Dagblad (€).
Foto door Aideal Hwa via Unsplash.