Verantwoorde KI betekent soms geen KI

KI is geen tovermiddel en is lang niet voor ieder probleem de juiste oplossing

Artificial Intelligence Concept

Dit is een herpublicatie van een artikel dat als redactioneel artikel verscheen in het tijdschrift P&I (T. Wabeke, Verantwoorde KI betekent soms geen KI, P&I 2022, afl. 5, p. 169)

Kunstmatige intelligentie (KI, of AI) is een hot item en de verwachtingen zijn hooggespannen. Dit zie je terug in forse investeringen door bedrijven en overheden. Ook neemt het aantal wetenschappelijke KI-publicaties wereldwijd toe. Het Rathenau Instituut becijferde in juli 2021 dat het Nederlandse aandeel hierin tussen 2013 en 2018 toenam met 115%1. Al deze investeringen en publicaties zorgen er ook voor dat KI steeds zichtbaarder wordt voor burgers, bedrijven en beleidsmakers. Regelmatig verschijnen er nieuwsberichten over nieuwe KI-toepassingen die soms een grote impact hebben op het dagelijks leven, zoals zelfrijdende auto’s en geautomatiseerde medische diagnoses. Het is zo bezien ook niet vreemd dat de Wetenschappelijke Raad voor het Regeringsbeleid (WRR) kunstmatige intelligentie eind 2021 in haar rapport ‘Opgave AI’ positioneert als een systeemtechnologie die de samenleving fundamenteel zal veranderen2.

Kunstmatige intelligentie is een breed vakgebied, zoals omschreven in de concept-AI Act van de Europose Commissie. In dit redactioneel leg ik de nadruk op de meest populaire benadering, namelijk machinaal leren (ML). Deze benadering omvat zelflerende algoritmes die voorspellingen doen of besluiten nemen door patronen of regels te extraheren uit grote hoeveelheden data. ML-algoritmes verschillen op dit punt van meer traditionele algoritmes waarbij computersystemen vaststaande regels toepassen. Doordat ML de populairste benadering is wordt met KI en ML vaak hetzelfde bedoeld.

Machinaal leren heeft beperkingen en het toepassen van zelflerende algoritmes kent uitdagingen die vaak een ethische of maatschappelijke component hebben, bijvoorbeeld rondom privacy, discriminatie en autonomie. De technische gemeenschap is zich hiervan bewust en ontwikkelt allerlei richtsnoeren, raamwerken en tools die helpen bij het verantwoord inzetten van algoritmes binnen een project of dienst. De website AlgorithmWatch biedt een aardig overzicht met 167 verschillende hulpmiddelen voor verantwoorde KI.3 Het overzicht bevat initiatieven van grote bedrijven zoals Google en Microsoft, maar ook overheden en universiteiten zijn vertegenwoordigd.

Een belangrijke vraag ontbreekt wat mij betreft in veel van deze hulpmiddelen: moeten we kunstmatige intelligentie überhaupt gebruiken? Het stellen van deze vraag is belangrijk omdat KI geen tovermiddel is en lang niet voor ieder probleem de juiste oplossing. Ook is het geen gegeven dat KI een verbetering is ten opzichte van traditionele software gebaseerd op expertkennis. Ieder verantwoord KI-ontwikkelaar zou deze aspecten scherp in het vizier moeten houden. Hiermee voorkomen we ondoordachte algoritmes die vrijwel zeker verkeerde besluiten nemen en investeringen die niet het gewenste resultaat opleveren.

Twee voorwaarden helpen te bepalen of het verantwoord is om machinaal leren te gebruiken. De eerste voorwaarde is dat het mogelijk en wenselijk moet zijn om historische gegevens te benutten voor toekomstige beslissingen. Algoritmes extraheren namelijk beslisregels uit historische data en net zoals bij beleggen bieden in het verleden behaalde resultaten ook hier geen garantie voor de toekomst. Data die vanwege historische gronden vooringenomen of anderszins unfair zijn kun je daarnaast beter niet gebruiken. Toepassingen met een sterke sociale component zijn ook ingewikkeld. Is het bijvoorbeeld wenselijk om te voorspellen of er terreurgeld op een bankrekening staat op basis van transacties van vroegere terroristen? Over precies deze toepassing schreef NRC deze zomer een kritisch artikel.4

Een tweede voorwaarde waaraan voldaan moet worden is de mogelijkheid om feitelijke en onbevooroordeelde labels aan data toe te kennen. In het geval van beeldherkenning is dit meestal niet zo ingewikkeld. Het is bijvoorbeeld vrij eenvoudig om te bepalen of een afbeelding een verkeerslicht bevat. Het wordt wederom ingewikkelder en meer ambigu wanneer de sociale component toeneemt. Neem een KI-systeem dat sollicitanten moet beoordelen. Een sollicitant die jij geschikt acht, kan je collega afwijzen. Een KI-systeem zal deze ambiguïteit overnemen met mogelijk verkeerde of ongewenste besluiten tot gevolg. Een verantwoord project gebruikt daarom alleen KI als er een ondubbelzinnige uitkomstmaat is.

Kunstmatige intelligentie kan veel, en sommige toepassingen spreken werkelijk tot de verbeelding. Het blijft echter belangrijk om realistisch te blijven: het gebruik van KI is geen garantie voor succes. We voorkomen hopelijk verkeerde investeringen, desillusies en onjuiste besluiten van algoritmes door ons in ieder project de vraag te stellen of het verantwoord is om KI te gebruiken. Bovenstaande voorwaarden kunnen helpen bij het beantwoorden van deze vraag. Tegelijkertijd bieden dezelfde voorwaarden nog voldoende mogelijkheden voor verantwoorde en succesvolle toepassingen. Op deze manier draagt KI in positieve zin bij aan de steeds veranderende samenleving.

Thymen Wabeke is redactielid van het tijdschrift P&I.

1rathenau.nl/nl/wetenschap-cijfers/onderzoek-naar-kunstmatige-intelligentie-nederland

2 wrr.nl/publicaties/rapporten/2021/11/11/opgave-ai-de-nieuwe-systeemtechnologie

3inventory.algorithmwatch.org/

4nrc.nl/nieuws/2022/08/02/het-net-van-de-financiele-terrorismebestrijding-dijt-uit-de-leden-van-onze-moskeekoepel-worden-ondervraagd-als-vermeende-terroristen-a4138015