Foto: CC0 – Pexels – Juan Gomez
Goed geïnformeerde beslissingen nemen, is lastig wanneer je moe bent of onder grote druk staat. Door een filterfunctie van de hersenen vormen we een eigen beeld van de werkelijkheid, dat soms flink kan verschillen van het beeld dat een ander mens heeft. Het draait allemaal om perceptie.
“Perceptie is een soort gecontroleerde hallucinatie”, is een citaat van de Britse filosoof Andy Clark dat Marie Postma, hoogleraar Computational Cognitive Science aan de Tilburg University, in dit verband aanhaalt. “Er zijn heel veel situaties in de wereld waar wij beslissingen moeten maken, maar waar we eigenlijk niet voldoende perceptuele informatie hebben, of niet voldoende capaciteit, om die beslissing op een betrouwbare manier te kunnen maken. En dat heeft gevolgen.”
In complexe situaties krijgen mensen steeds meer te maken met AI-gebaseerde systemen om geïnformeerde beslissingen te maken. “We doen bijvoorbeeld onderzoek aan de aansturing van zwermen drones in ‘rapid response’-situaties, dus bij een ramp, zoals een overstroming of een grote brand.”
Wat doet AI, wat doet de mens?
In zo’n situatie dreigt er gevaar voor de hulpdiensten ter plekke. Met een ‘swarm’ van tien tot vijftien drones kan dan snel een overzicht van de situatie worden verkregen. Die verzamelen in hoog tempo heel veel informatie op basis waarvan beslissingen moeten worden genomen. “Misschien moet de swarm zich opsplitsen waarbij een deel zich richt op slachtoffers en een ander deel op het detecteren van gevaarlijke stoffen. Of worden de drones gehinderd doordat er ‘gejammed’ wordt door een kwaadwillende, of gaat er een kapot. AI-systemen zouden die beslissingen over de actie van de drones helemaal zelfstandig kunnen nemen. Maar volledig autonome AI willen we niet. We zijn het er als maatschappij wel over eens dat we altijd een mens ‘in the loop’ willen hebben. Maar de vraag is, hoe stem je dat af? Wat doet de AI en wat doet de mens? En dat heeft te maken met wat de AI kan, maar ook wat de mens kan.”
De operator moet dan heel snel een besluit nemen. Maar misschien voelt deze zich op dat moment emotioneel betrokken bij de situatie of is de werklast te hoog. Misschien is het een beslissing die heel zware ethische consequenties heeft?
“AI on the battlefield of the human mind”
Postma werkt al sinds 2015 aan Computational Cognitive Science bij de Tilburg University, dus nog ruim voor de AI-hype een hoge vlucht nam. Het opzetten van nieuwe opleidingen en onderzoeksprogramma’s op het gebied van cognitiewetenschappen en AI leek in het begin weinig kansrijk, zeker aan deze universiteit die zich destijds vooral op de sociale wetenschappen richtte en minder op technologie. “Veel mensen liepen nog rond met ideeën over AI uit de AI-winter van de jaren 90. Ik heb veel gehoord: ‘Data science is een hype en AI, dat is toch dood?’”
Inmiddels staat het onderzoek van de vakgroep die Postma leidt, in het centrum van de aandacht. Nu AI een steeds grotere rol speelt in de samenleving, wordt de manier waarop mensen om kunnen gaan met AI steeds belangrijker.
Maar hoe bepaal je wat de cognitieve prestaties van iemand zijn? “Dan komen we in een heel interessant gebied met ethische en juridische overwegingen. Je moet de mens gaan monitoren, bijvoorbeeld door het meten van oogbewegingen, hartritmevariaties of de hersenactiviteit. De vraag is of dat buiten het lab accuraat kan, en of we dat acceptabel vinden?”
Werknemers willen doorgaans niet gemonitord worden op hun cognitieve prestaties. Maar misschien zijn er wel situaties waar we dat wel willen toelaten, bijvoorbeeld in situaties waar er levens afhangen van de cognitieve prestaties van de operator. “Dat zijn allemaal heel interessante onderzoeksvragen waar ik antwoord op wil hebben.”
Allemaal heel ‘human-centric’onderzoek
De groep van Postma bestaat inmiddels uit zo’n 120 medewerkers die vanuit verschillende perspectieven naar het complexe systeem van human-AI-teaming kijken. “Er zijn onderzoekers die bezig zijn met de Metaverse, ofwel virtual reality (VR) en extended (XR). Anderen kijken weer naar wat voor informatie een systeem uit afbeeldingen of video’s kan halen of hoe we een computer met onze hersenactiviteit kunnen besturen. En we hebben een groep die zich bezig houdt met automatische verwerking en generatie van spraak en taal. Het is allemaal heel ‘human-centric’.”
De belangrijkste toepassingsgebieden die Postma ziet voor het onderzoek, zijn de gezondheidszorg, het onderwijs en de hulpdiensten (rapid response). “Defensie hoort daar zeker ook bij. Ons streven is om met onderzoek tot oplossingen te komen die bijdragen aan een betere samenleving.”
In het kader van ‘cognitive warfare’ onderzoekt de afdeling van Postma bijvoorbeeld het effect dat desinformatie heeft op de maatschappij. Het gebruik van AI-technieken om desinformatie te creëren en verspreiden is ook een vorm van mens-AI interactie. “We kijken hoe mensen redeneren en hoe ze beslissingen maken op basis van de informatie die ze krijgen. Daar hoort ook bij dat die processen worden misbruikt voor desinformatiedoelen en hoe generatieve AI daarbij wordt ingezet. Dat is natuurlijk een onderdeel van cybersecurity.”
Postma ziet met de mogelijkheden van desinformatie grote gevaren opdoemen de komende jaren. “De wereld is de afgelopen jaren veel minder veilig geworden door de geopolitieke situatie waar we ons in Europa in bevinden. AI speelt daarin een steeds grotere rol”, stelt ze. “Ik ben zelf in Praag geboren in het voormalige Oostblok. Ik weet dus uit de eerste hand wat het betekent om in een niet vrije samenleving op te groeien en maak me zorgen over de invloed van ‘cognitive warfare’ op uitkomsten van politieke processen in democratische landen. Desinformatie verspreidt zich altijd via een Trojaans paard. Er wordt [door de verspreider, red] een thema gekozen waar mensen emotioneel op reageren of dat aan appelleert aan onderbuikgevoelens.”
“Discussies rond LHBTIQ+ worden gebruikt om desinformatie over andere onderwerpen in te brengen”
Ze noemt als voorbeeld LHBTIQ+, een onderwerp waar haar groep samen met het ministerie Defensie, de Charles University in Praag en Prague Pride, een onderzoek naar doet. “Discussies over LHBTIQ+ worden gebruikt om desinformatie over andere onderwerpen in te brengen. Wij kijken hoe die desinformatie via zoekmachines wordt aangeboden en zich vervolgens verspreidt over Europa. Wat mensen zich niet realiseren, is dat het onderdeel is van een package. Er worden langzamerhand steeds meer onderwerpen aan gekoppeld. Dat mechanisme vind ik interessant.”
Om het effect van AI op veiligheid beter te begrijpen is de vakgroep van Postma, in samenwerking met de Tilburg Institute for Law, Technology & Society van Tilburg Law School, op dit moment bezig om een nieuwe masteropleiding op het gebied van AI en cybersecurity te ontwikkelen.



