Universiteit Leiden

nl en

Hoeveel menselijke controle heeft AI nodig?

Door Kunstmatige intelligentie (AI) worden technische systemen steeds autonomer. AI-systemen kunnen zelf nieuwe dingen leren en zijn niet gebaseerd op expliciet uitgeschreven en goed begrepen regels, zoals bij klassieke automatisering. Als geautomatiseerde systemen steeds slimmer worden, hoeveel controle kan en moet een mens nog hebben over deze computersystemen? Holger Hoos en Catholijn Jonker van het Leiden Institute of Advanced Computer Science reageren hierop in het NRC.

Zelfmonitorende AI-systemen

‘De enige manier waarop we complexe systemen veilig en goed kunnen ontwerpen, is door AI als instrument te laten gebruiken door slimme mensen die weten hoe ze verstandig met AI moeten omgaan,’ zegt Hoos. Zelf werkt hij aan zelfmonitorende AI-systemen. ‘Zo’n AI-systeem is getraind met data uit het verleden. Maar in de loop van de tijd hoeven de trainingsdata niet meer representatief te zijn voor de actuele situatie. Op dat moment moet er een seintje worden gegeven, omdat het AI systeem zich buiten zijn expertisegebied bevindt, en moet er door menselijk expertise worden ingegrepen.‘

Met machines meer mens

Volgens Catholijn Jonker worden AI-systemen te vaak ontworpen om de mens overbodig te maken, terwijl de toekomst volgens haar veel meer ligt in slimme machines die met mensen samenwerken om zo iets voor elkaar te krijgen wat noch de machine noch de mens alleen voor elkaar krijgt. „Mijn motto is: met machines meer mens”, aldus Jonker.

Lees het volledige artikel in NRC. 

Deze website maakt gebruik van cookies.  Meer informatie.