Datamining als gevaar en als kans.

Over AI en gedragsbeïnvloeding, identiteitsvorming en digitale spiegels.

De sterke opkomst van datamining en AI is onvermijdelijk, en gaat gepaard met kansen én bedreigingen. Iedereen kent de recente voorbeelden bij de Belastingdienst, waarbij algoritmes uiteindelijk leiden tot het uitlichten van bepaalde groepen mensen met grote en kwalijke gevolgen. Toch kun je datamining juist ook inzetten als spiegel, waarbij je als organisatie zicht krijgt op de patronen en tendenties in je organisatie. In dit artikel reflecteert prof. Dr. Ciano Aydin op de mogelijkheden en bedreigingen van datamining en AI.

Prof. Dr. Ciano Aydin is kerndocent van de Leergang Leiderschap bij Digitale Transformaties. Daarnaast is hij Hoogleraar Filosofie van de Technologie bij de Universiteit Twente. Ook is hij daar hoofd van de afdeling Filosofie en vice-decaan bij de Faculteit Behavioural, Management and Social Sciences. 

Wil je zelf daadkrachtig richting geven aan de digitale transformaties binnen jouw organisatie?

Hier lees je meer over de Leergang Leiderschap bij Digitale Transformaties.

De sterke opkomst van datamining

Vandaag de dag zijn we getuige van twee ontwikkelingen die elkaar over en weer versterken: 1) de beschikbaarheid van grote hoeveelheden data die 2) vervolgens verwerkt kunnen worden door kunstmatige intelligentie (AI). Meer specifiek zien we de opkomst en snelle ontwikkeling van nieuwe dataminingtechnologieën. Datamining is het proces waarbij organisaties patronen in gegevens opsporen en analyseren om tot inzichten te komen die relevant zijn voor de doelen die zij willen bereiken; dat kunnen zowel commerciële als publieke doelen zijn. Er wordt dan gebruik gemaakt van geavanceerde AI om ruwe gegevens om te zetten in bruikbare inzichten. Het dataminingproces bestaat uit verschillende onderdelen en elementen: schoonmaken en voorbereiden van gegevens, opsporen van patronen, classificatie, associatie, clustering, regressie, voorspelling, verwerking van langetermijngeheugens, enz. Dit proces levert uiteindelijk algoritmen op, kleine recepten of formules die vertellen welke specifieke stappen in een specifieke volgorde uitgevoerd moeten worden om een bepaald eindresultaat te bereiken.

Van datamining naar gedragsbeïnvloeding

Onder bepaalde omstandigheden kunnen, bij beschikbaarheid van grote hoeveelheden data, geavanceerde vormen van AI, zoals deep learning, zeer nauwkeurige voorspellingen doen over hoe we ons gaan gedragen. Zo worden de mogelijkheden om de effecten van deze voorspellingen op het (consumenten)gedrag van mensen voortdurend te monitoren en bij te sturen steeds groter. Dit heeft enorme gevolgen: deze technologieën registreren niet langer passief hoe mensen zich gedragen, maar beïnvloeden steeds actiever het menselijk gedrag. Aangezien we steeds meer tijd doorbrengen in digitale omgevingen, betekent dit potentieel dat van de wieg tot het graf ons gedrag actief gemonitord en beïnvloed wordt. Anders gezegd: we worden steeds meer en sterker door datamining technologie gevormd (zie Aydin 2021). We kunnen de snelheid waarin dit gebeurt nauwelijks bijbenen en de gevolgen die dat heeft heel moeilijk voorspellen. Maar dat betekent niet dat we helemaal niks kunnen doen.

Grip op de gevolgen van datatechnologie

We kunnen zorgvuldig analyseren en onderscheiden wat we wel en niet begrijpen. Wat we kunnen begrijpen is het ontstaan van een tweedeling: enerzijds bestaan wij als mensen van vlees en bloed; anderzijds worden we met dataminingtechnologieën geherdefinieerd in termen van data. Deze data worden vervolgens gebruikt om ons gedrag te beïnvloeden, zowel ons gedrag online als offline. Sterker nog: onze relatie tot onszelf wordt getransformeerd. Hierdoor bepalen datatechnologieën steeds meer wie of wat we zijn en zelfs wat we moeten doen en worden.

Hoe data steeds meer bepalen wie we zijn

Natuurlijk: we zijn en worden altijd al geconfronteerd met beelden die anderen van ons hebben. En ook de verhalen die anderen vertellen, de boeken die we lezen en de Tv-programma’s die we kijken, beïnvloeden hoe we ons gedragen en vormen ons in een bepaalde richting. We zijn voor een groot deel een repository, een bewaarplaats van projecties van anderen en verwachtingen die in onze cultuur heersen. Maar er is ook een groot verschil: het beeld dat door dataminingtechnologieën van ons wordt gevormd, lijkt volledig te ontsnappen aan onze controle en ons vermogen om het te beïnvloeden en eventueel te corrigeren. Het gebruik van AI, waarvan de werking steeds minder transparant voor ons is, maakt het vrijwel onmogelijk invloed uit te oefenen op de constructie van zo’n beeld, aangezien wij nauwelijks begrijpen hoe zo’n beeld tot stand komt.

Uitsluiting of insluiting door datamining

Gevaren maar ook, zoals ik zal betogen, kansen dienen zich aan. De gevaren zijn inmiddels niet alleen virtueel maar ook al reëel. Op basis van door data en algoritmen gevormde patronen en beelden kunnen mensen worden uitgesloten of juist ingesloten en uitgelicht. Uitgesloten, bijvoorbeeld voor het krijgen door de bank van een lening. En uitgelicht, bijvoorbeeld door de belasting als iemand die extra gemonitord en gecontroleerd moet worden, met ons bekende verschrikkelijke gevolgen. Datamining technologieën kunnen zo sterk gevorderd zijn dat ze van iedereen een soort ‘digital twin’ zouden kunnen maken, een op basis van data en AI dynamisch en ‘volledig’ beeld van een reëel persoon. Vergelijk het met de ‘digital twin’ van de Tesla die je bezit, die voortdurend wordt gemonitord, geanalyseerd en verbeterd.

Natuurlijk is dit koren op de molen van technieksceptici en -pessimisten. En terecht! De gevaren zijn reëel. Manipulatie en misbruik liggen op de loer. En kant en klare oplossingen zijn er niet. Het is heel lastig om vooroordelen uit datastromen te filteren. En het proces van transitie van ruwe data tot patronen en beelden is, zoals eerder aangegeven, een black box. Als dataminingtechnologieën in toenemende mate ons gedrag voorspellen en beïnvloeden wie we zijn en wat we moeten worden, hoe kunnen we er dan voor zorgen dat wij het nog steeds zijn die ons zelfbeeld bepalen en vormen?

Datamining en zelfvorming: een mogelijke spiegel?

De vraag is eigenlijk hoe we invloed kunnen uitoefenen op de beelden die van ons worden gevormd door datamining technologieën. En daar zit ook in ieder geval een deel van de oplossing. Als we invloed kunnen uitoefenen op die beelden, dan zouden we een gevaar kunnen ombuigen naar een kans. De vraag wordt dan: hoe kan datamining ons assisteren bij zelfvorming? De beelden die van ons worden gemaakt zijn weliswaar beperkt, al is het omdat ze statisch zijn en altijd noodzakelijk ‘verleden tijd’. Maar ze zeggen wel wat. Ze wijzen ons op tendenties en patronen in ons gedrag. Uiteraard vallen we niet volledig samen met die beelden (gelukkig niet) maar ze confronteren ons wel met fragmenten van wie en hoe we zijn. Ze houden ons een spiegel voor, letterlijk.

Datamining als digitale spiegel voor organisaties

Ik heb tot nu toe gesproken over de invloed van datamining technologie op ons gedrag en zelfvorming, alsook gewezen op de gevaren van manipulatie van dat zelf. Dat zelf kan verwijzen naar een individueel zelf maar ook naar een collectief of een organisatie. Stel je voor dat je ‘smart mirrors’ en ‘digital twins’ kunt gebruiken die je organisatie een spiegel voorhouden en je confronteren met patronen, tendenties en beelden in je organisatie. Ja, ik weet het, het 1984-schrikbeeld dient zich aan. Dat gevaar moeten we heel serieus nemen. Maar dat is niet het hele verhaal. Als je als organisatie kiest voor het gebruik van dataminingtechnologie dan moet je daar heel zorgvuldig mee omgaan. Voorwaarde is bijvoorbeeld dat je zelforganiserende teams eigenaar maakt van hun beelden en ze in staat stelt om die te gebruiken om gezamenlijk gekozen doelen te realiseren. Dat vereist ‘value sensitive design’ en veel robuuste buffers. Dat vereist onderhandelingsruimte; je moet in staat zijn om voortdurend te kunnen onderhandelen met en in ingrijpen in de beelden die dataminingtechnologie maakt van je organisatie (zie Beerends en Aydin 2021). Dat vereist ook een nieuw leiderschap. Gevaren en kansen. Je bewust worden van de mogelijkheden zonder de gevaren uit het zicht te verlezen, is in ieder geval beter dan het hoofd in het zand te steken en hopen dat deze ontwikkeling overwaait. Want dat gaat namelijk niet gebeuren.

Bronnen:

  • Aydin, C. (2021). Extimate technology: Self-formation in a technological world. Routledge, Taylor and Francis.
  • Beerends, S. , & Aydin, C. (2021). Negotiating Authenticity in Technological Environments. Philosophy and technology, 34(4), 1665-1685.

Kerndocent

Prof. Dr. Ciano Aydin

Ciano Aydin is onder andere bij de Universiteit Twente hoogleraar Filosofie van Mens en Techniek en ook hoofd van de Afdeling Filosofie van de Technologie en Vice-decaan (portefeuille onderwijs) van de Faculteit Behavioural, Management and Social Sciences (BMS). Daarnaast is hij verbonden aan de Technische Universiteit Delft als Hoogleraar Filosofie en Technische Wetenschappen.

Meer weten over de mogelijkheden van AI en algoritmes om bij te dragen aan diversiteit en inclusie?

Lees het artikel Inclusie bij design.

Op de hoogte gehouden worden?

Elke maand sturen we nieuw gepubliceerde kennisartikelen en houden we je op de hoogte van (gratis) inspiratiesessies en relevante informatie over onze academische opleidingen.