Universiteit Leiden

nl en

'Wat als een algoritme per ongeluk vriend voor vijand aanziet?'

Roboticakenner Roy de Kleijn weet uit onderzoek van algoritmen hoe moeilijk het voor een robot eigenlijk is om tot een zo goed mogelijke beslissing te komen. Hij bepleit dat de verantwoordelijkheidskwestie bij autonome systemen duidelijk wordt. Lees de invalshoek van psycholoog de Kleijn in de 'Wetenschapsestafette 4x400'.

Roy de Kleijn met servicerobot Eva op de U-meetbijeenkomst 'vertrouwen in robots'
Roy de Kleijn met servicerobot Eva op de U-meetbijeenkomst 'vertrouwen in robots'

Robots nemen met weinig informatie beslissingen

Roy de Kleijn: 'Het maken van beslissingen op basis van beperkte informatie lijkt een behoorlijk lastige opgave. Toch is het iets wat mensen de hele tijd doen. In ons eigen onderzoek ontwikkelen we algoritmen die ervoor zorgen dat robots ook met weinig informatie beslissingen kunnen nemen. Daarbij wordt goed duidelijk hoe moeilijk het eigenlijk is om tot een zo goed mogelijke beslissing te komen. Soortgelijke algoritmen worden onder andere gebruikt in zelfrijdende auto’s waarbij informatie uit sensoren moet worden gecombineerd, verwerkt en leiden tot een handeling.'

Autonome wapens

'Het ontwikkelen van zulke algoritmen die kunnen omgaan met en handelen in onzekere situaties zou uiteindelijk kunnen leiden tot volledig zelfstandige, autonome agents. Hoewel dit gunstig is voor bijvoorbeeld huishoudrobots, wordt alarm geslagen over een andere toepassing van dit soort technieken: autonome wapens. Dit is geen toekomstmuziek: prototypes van autonome vliegtuigen bestaan al, en deze zouden zelfstandig kunnen beslissen om dodelijke vuurkracht te gebruiken. Wie de verantwoordelijkheid zou dragen voor de gevolgen van zo’n aanval is zeer onduidelijk. De opdrachtgever? Wat als een algoritme per ongeluk vriend voor vijand aanziet? Waar we politici kunnen straffen door niet langer op ze te stemmen, en incompetente piloten kunnen straffen door ons rechtssysteem, wordt het lastiger om dit voor een stuk software te doen.'

Dodelijke fouten van nullen en enen

'Een recent rapport van Human Rights Watch (oprichter van de Campaign to Stop Killer Robots) en Harvard Law School luidt de noodklok over de opkomst van zulke autonome wapens. Zij pleiten voor een geheel verbod op volledig autonome wapens. Dit is naar mijn mening het kind met het badwater weggooien: autonome wapens zouden een zeer waardevolle rol kunnen spelen bij het beschermen van mensenlevens wanneer ze correct worden ingezet. Ik pleit voor toekomstgericht beleid dat hard nodig is om de verantwoordelijkheidskwestie bij autonome systemen te verduidelijken. In elk geval zullen we voor de nabije toekomst moeten wennen aan het idee dat niet langer incompetente politici of Westers vooringenomen organisaties verantwoordelijk kunnen zijn voor het maken van dodelijke fouten, maar een grote verzameling nullen en enen.'

Wetenschapsestafette 4x400: 4 wetenschappers in 400 woorden

De antropoloog, pedagoog, politicoloog of psycholoog bestuderen mens en maatschappij vanuit hun eigen invalshoek. Een van deze 4 gaat van start met een wetenschappelijk onderbouwde mening in ongeveer 400 woorden. Daarna geeft deze het stokje door aan de volgende sociale wetenschapper voor diens visie. Lees alle afleveringen in deze serie 'Wetenschapsestafette 4x400'.

Wat vooraf ging

In haar aftrap van de wetenschapsestafette neemt Mirjam Grandia de ISAF-missies naar Zuid-Afghanistan onder de loep, en komt tot de conclusie dat Britse en Nederlandse politici voorbij zouden zijn gegaan aan een aantal cruciale vragen. Hierdoor heeft het militair ingrijpen in Afghanistan niet het verwachte effect gehad; de beleidsmakers hebben zich op verkeerde informatie gebaseerd. Ook Erik Bähre ziet dit probleem, zij het in een andere context. Gedegen analyse wordt in de wind geslagen, door incompetente politici aldus Grandia, of Westerse vooringenomenheid aldus Bähre. Met alle gevolgen van dien. Blijkbaar gebeurt het regelmatig dat - op hoog niveau! - beslissingen worden genomen op basis van onjuiste of onvolledige informatie.

Zie ook

Deze website maakt gebruik van cookies.  Meer informatie.