Voor Groen, het tijdschrift van het Wetenschappelijk Instituut van de ChristenUnie, schreef ik over de politiek van AI.

Op zoek naar de politiek van AI

In het kielzog van alle technologische vooruitgang komt het politieke debat over AI maar moeilijk op gang. Wat mist is de politieke bezinning op de productie en het gebruik van AI-systemen, in plaats van een apolitiek en moralistisch vertoog over de algoritmische natuur.

Een diepe angst voor vrijheidsbeperking door AI en ontwetendheid over de staat van kunstmatige intelligentie heeft de discussie vernauwd. Het debat bestaats enerzijds uit gesteggel over restricties op het gebruik van algoritmes. Anderzijds richt kritiek zich op de bias in algoritmische systemen en wordt gezocht naar hoe de ongewenste effecten van het gebruik van deze systemen te beperken. Zolang de singulariteit nog niet bereikt is, mag het debat over AI echter wel wat verder gaan dan naieve angst en filosofische zoektochten naar neutrale technologie. Onder alle techtalk liggen namelijk oude vraag over macht, rechtvaardigheid en welvaartsverdeling. Die gaan ons allemaal aan.

Wat we kunstmatige intelligentie noemen, behelst vooral het trainen van modellen op grote hoeveelheden tekstuele of visuele data. Deze modellen worden vervolgens ingezet om zaken te voorspellen of te categoriseren. De modellen worden steeds beter, maar dit komt in belangrijke mate door de grotere hoeveelheden data die in het trainingsproces gebruikt worden. GPT-3, het laatste taalmodel gemaakt door Elon Musks OpenAI, is getraind op honderden miljarden woorden. Gemiddeld verdubbelt de grootte van de input-data elke drie tot vier maanden. Al die data zijn geproduceerd door individuen wiens eigendomsrechten en privacy met voeten getreden wordt. Daarnaast worden klimaatbelastende en omgevingsverstorende datacentra onder andere in de Nederlandse polders uit de grond gestampt om de data op te slaan en berekeningen te maken. Pessimistische onderzoeken schatten dat de datacentra die nodig zijn voor de productie en inzet van AI binnen enkele jaren tien procent van de totale CO2-uitstoot omvat 1.

Ook wordt de productie van ground truth, op basis waarvan de nauwkeurigheid van modellen geëvalueerd wordt, vaak uitbesteed aan slecht betaalde arbeidskrachten,. Het platform Amazon Mechanical Turk, waar dit soort classificatie-taken worden uitbesteed, staat bekend om slechtbetaalde opdrachten 2.

Vervolgens wordt deze techniek doorgaans zonder enig toezicht gebruikt. Een berucht voorbeeld zijn de in China ontwikkelde beeldherkenningsalgoritmen die ingezet worden om Oeigoeren te herkennen. Westerse bedrijven en onderzoekers die de heropvoedingskampen ongetwijfeld keurig afkeuren, gebruiken de Chinese techniek vaak zonder enige schroom.

Dit alles wordt overschaduwd door het feit dat onze digitale infrastructuur in handen is van een handjevol megacorporaties, voor wie het gemijmer over de algoritmische moraal de perfecte bliksemafleider is voor hun problematische marktpositie.

Een AI-politiek zou zich dus kunnen en moeten richten op praktijkissues als deze. Er is meer te doen dan het verbieden van technologie of het reduceren van bias. Ontwikkel een Europese innovatie-agenda waarin bovenstaande issues een plaats hebben, in plaats van te bezuinigen op onderzoek. De recente miljardenkorting op de Europese academische Horizon 2020 fondsen zal niet bepaald helpen om alternatieven voor Chinese technologie te ontwikkelen. Breek daarnaast de macht van de Big Five met mededigingsingrepen en belastingmaatregelen, in plaats van het zoveelste morele appèl. Ook dat kan het beste op Europees niveau. Pak tenslotte privacy-issues bij de wortel aan door persoonlijke advertenties te verbieden, in plaats van techbedrijven te smeken transparant te zijn.

Het debat over AI kan wel wat meer politiek gebruiken. Daarvoor is een blik voorbij het algoritme noodzakelijk. Pas wanneer we alle elementen – dataverzameling en opslag, training, techniek, gebruik en eigenaarschap – in ogenschouw nemen, kunnen we de balans opmaken en bepalen wat wel en niet wenselijk is in een samenleving die niet in algoritmes te vatten is.