Onderzoeksproject
BASTION
Dit project gaat over het ontwikkelen van een simulatieplatform voor de verspreiding van mis- en desinformatie.
- Contact
- Stephan Raaijmakers
- Financiering
- Digital Holland
Het doel van dit samenwerkingsproject tussen Eaglescience, TNO, en de Universiteit Leiden (het LUCL) is het ontwikkelen van een state-of-the-art open source AI informatie-simulatieplatform (BASTION) voor het nabootsen van de digitale informatieomgeving van de toekomst. De effecten van AI-chatbots en deepfake content, die worden ingezet om te polariseren, verwarren, of opinie te sturen, kunnen zo bestudeerd worden. Het LLMC onderzoekt hoe het gedrag van deze AI agents taalkundig geanalyseerd en aangestuurd kan worden.
Aanleiding
Digitale informatie speelt een steeds grotere rol in hoe mensen de wereld waarnemen en handelen. In dit kader vormen beïnvloedingscampagnes, waaronder mis en desinformatie en Foreign Information Manipulation and Interference (FIMI), een groeiende bedreiging voor overheden, burgers en de maatschappelijke weerbaarheid en stabiliteit. Traditionele beïnvloedingstechnieken zoals reclame en propaganda ontwikkelen zich tot hypergepersonaliseerde, door kunstmatige intelligentie aangestuurde operaties op mondiale schaal. Het risico van grootschalige inzet van kunstmatige intelligentie voor beïnvloeding is dat buitenlandse actoren, grote technologiebedrijven of autoritaire regimes grip krijgen op de publieke opinie en democratische processen.
Gezien de razendsnelle en ingrijpende ontwikkelingen op het gebied van kunstmatige intelligentie is het noodzakelijk ons voor te bereiden op toekomstige trends en fenomenen die ons huidige begrip overstijgen. Daarom is het van cruciaal belang om zowel de impact van als de verdediging tegen huidige en toekomstige door kunstmatige intelligentie gedreven beïnvloedingscampagnes te onderzoeken. Dit vereist een veilige, toegankelijke en gecontroleerde experimenteeromgeving.